南方日报:宋信强 马创杰:加强人工智能发展的伦理风险研判和防范

信息来源:广东财经大学国家安全与发展研究院 发布日期:2024-05-29 浏览次数:13

随着以ChatGPT、Sora等大模型为代表的新一代生成式人工智能技术取得突破性发展,颠覆性技术的广泛应用正牵引人类社会发生深刻变化,当前正朝向通用人工智能迈进。人工智能技术的大众化应用在给人们带来工作和生活便利的同时,也伴随着难以预测的伦理风险挑战,根据经济合作与发展组织(OECD)发起组织的人工智能事件监测数据,仅2023年12月单月,人工智能伦理事件就达495件,伦理问题也反向制约着人工智能的健康发展。频发的伦理风险问题引发了人们对未来人工智能技术是否能够继续坚守造福人类初心的质疑,甚至对人类自身造成威胁的担忧。习近平总书记指出,“要加强人工智能发展的潜在风险研判和防范”,“确保人工智能安全、可靠、可控”,“建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德”。随着人工智能技术的快速发展和大众化应用的不断普及,伦理问题愈加受到重视,建立并完善负责任可操作的人工智能伦理治理规范、准则和全面监管机制已迫在眉睫。

人工智能伦理治理在遵循发展和安全并重原则下,按照伦理先行、依法依规、敏捷治理、立足国情、开放合作的治理要求,形成政府主导、科技创新主体主动担当、科技类社会组织参与的上中下多方协同共治体系,坚持以人为本、公平透明、安全可控,在管理、研发、供应和使用各环节形成可信赖、可追溯、可监管的人工智能伦理治理模式。

发挥有为政府的超前引领作用

政府是社会治理规则的制定者,在多元协同治理体系中处于核心地位,始终发挥着主导作用。在人工智能伦理风险治理中,政府作为最重要的推动力量,同样发挥着基础性“元治理”作用。作为有为政府,应在人工智能伦理风险治理中发挥超前引领作用。

一是建立人工智能伦理风险敏捷治理机制。在制度设计、框架确立、过程管理等方面强调系统的动态适配和灵活治理,建立敏捷的反馈系统,尤其要加强动态跟踪、科学研判、风险预警和伦理事件应急处置。健全人工智能伦理风险等级评估体系,细化分级分类评估标准,做到准确识别、精准评估,实施人工智能伦理风险分类分级治理。鼓励多元参与和协同共治,更快速、高效地协调各方资源,确保人工智能技术符合伦理规范。

二是加强数据要素治理。数据作为人工智能的“燃料”,是培养和训练模型的关键,用不同的数据“投喂”对人工智能伦理和价值导向存在很大影响,要在数据来源、数据质量、数据加工、数据存储和数据流通等方面,建立数据联管联治机制,强化行业协同监管和行业自律机制。

三是加强算法伦理治理。算法是人工智能处理和分析数据、进行决策和推理的核心,应坚持以人为本,将社会主义核心价值观融入算法决策;坚持算法公正,对算法进行严格的测试和验证,并进行算法解释,避免偏见和歧视;重视算法智能化发展,开发弱人工智能代替人类监督强人工智能,以人工智能算法创新应对人工智能伦理风险。

四是积极发挥有为政府作用。政府通过嵌入人工智能技术过程超前预防伦理风险,弥补技术缺陷,避免技术“过度承诺”陷阱,通过“模型审计”减少“算法黑箱”的伦理风险。与其他治理主体“互嵌”建立高效联动的治理共同体,通过行政力量推行全程监管由注重“结果”转向“过程-结果”并重。加强数字法治建设,注意“软法”与“硬法”平衡发展,明确伦理边界底线。有为政府与有效市场有机结合,引导市场健康发展,不断完善数据要素市场交易信用体系。

发挥科技创新主体的责任主体作用

科技创新主体是多元主体协同治理体系的中坚力量,是人工智能伦理治理的重要原生动力,承担着伦理风险治理的主体责任,应加强人工智能伦理日常管理,主动研判并及时化解本单位人工智能领域存在的伦理风险。

一是推进数字信任建设。科技创新主体应将人工智能融入数字环境,开发算法可信的人工智能。构建数字信任的制度框架,强化信息安全外部保障,加大对数据违规采集的处罚力度,保护网络和信息安全。科技企业可推行“机器遗忘”,在保留原模型预测能力基础上保障知识产权与隐私权,在大模型与人工智能伦理之间做好权衡。

二是开展人工智能伦理风险常态化培训。将人工智能伦理培训嵌入科技人员入职培训,引导科技人员自觉遵守伦理规范和底线,按照伦理审查批准的范围开展负责任的人工智能研究与创新。对科技人员实施必要激励,激发其伦理行为向善。加强科技人员伦理知识教育,加快培养在人工智能领域懂科技、识伦理、明治理的综合性专业人才。

三是积极发挥道德企业家作用。引导道德企业家通过观察、干预、互动建构指标,将道德规范嵌入人工智能过程,确保科技人员遵守人工智能伦理,引导企业将人工智能伦理风险治理经验向产业链上下游企业分享,提升科技企业伦理风险治理能力。在“非层级化”企业中建立可制定规则的科层制,对人工智能产品全程进行道德审查。

四是设立人工智能专家工作站。鼓励科技创新主体引进不同学科、领域的专家,在人工智能伦理风险审查、研发、人才培养等方面助推科技创新主体发展,提高对人工智能风险的前瞻性识别、评估、预防及监管。

发挥科技类社会组织的桥梁纽带作用

在人工智能伦理多元主体协同治理体系中,科技类社会组织是连接政府与科技创新主体(高校、企业及科研机构等)的桥梁和纽带,发挥着建平台、立标准和组团队的独特作用。

一是加强人工智能伦理治理研究。设立专门的人工智能伦理学会,动员智库、学会、协会、社会团体等科技类社会组织和科技人员深入开展人工智能伦理治理理论研究,加强人工智能伦理的前瞻性课题研究,并积极参与国际人工智能伦理重大议题研讨和规则制定。

二是搭建人工智能伦理治理交流平台。通过组织学术会议、人才论坛、座谈交流、政策宣讲等形式加强人工智能前沿信息交流,研判人工智能研发和运用过程中的伦理风险,谋划人工智能伦理治理对策,为创新人工智能伦理治理提供学术支撑。推动行业平台促进人工智能伦理风险治理合作,形成行业伦理风险治理的实践指南。

三是建立人工智能伦理治理规范和审查监管制度。明确人工智能伦理要求,制定并完善人工智能伦理治理规范、标准和指南,引导科技人员合理开展人工智能活动。设立人工智能伦理审查委员会,完善人工智能伦理审查、风险处置、违规处理机制,健全对人工智能研发、应用活动的伦理监管审查机制,对违反伦理要求的团队和个人应予以问责。

四是加强人工智能伦理教育宣传。通过多种途径和形式普及人工智能伦理知识,推动人工智能伦理治理知识传播,引导科技人员和社会公众主动学习人工智能伦理知识,增强人工智能伦理意识,自觉践行人工智能伦理原则,坚守人工智能伦理底线。引导媒体提升人工智能伦理素养,科学识别人工智能伦理风险,积极发挥舆论监督功能。通过必修课、选修课、通识课等形式,开设面向高校学生的人工智能伦理教育课程。

发挥中国在全球治理中的示范推动作用

人工智能技术具有全球性,人工智能伦理风险治理是世界各国共同关心和面临的问题。我国应积极参与全球人工智能治理,推动人工智能伦理治理全球共同体建设。

一是为全球人工智能伦理治理贡献中国方案。在维护人类福祉、坚守公平正义方面体现我国的责任担当,就全球普遍关切的人工智能伦理风险治理问题给出建设性建议,为人工智能伦理风险治理相关国际讨论和规则制定提供参考蓝本,为解决全球人工智能伦理治理难题贡献中国智慧和方案。

二是推动人工智能国际治理公平正义。作为安理会常任理事国,努力推动各国在人工智能伦理治理中实现权利平等、机会平等、规则平等,尤其要为发展中国家争取代表性和发言权。加强国际对话,通过多边和双边合作加强伦理治理交流和经验分享。

三是积极参与人工智能国际法律和标准制定。在尊重各国政策和国情差异性前提下,参与人工智能伦理风险治理国际法律和标准研制,推动形成具有广泛共识的全球人工智能伦理风险治理框架和标准规范,制定“全球数字契约”。

四是积极参与国际人工智能伦理治理交流与合作。加强与国(境)外组织研讨人工智能伦理风险治理议题,掌握世界人工智能伦理治理最新趋势,推动形成全球人工智能伦理风险治理的良好合作生态。对外交流中坚决反对以意识形态划线恶意阻挠我国人工智能产业正常发展,反对利用技术垄断制造人工智能发展壁垒,恶意阻断我国人工智能供应链稳定畅通。

人工智能伦理治理需多方主体共同努力,将科技创新与伦理风险治理相结合,才能构建开放、包容、安全、可持续的人工智能伦理治理体系,推动人工智能造福社会。

 

【本文作者:宋信强系工商管理学院教师,马创杰系公共管理学院研究生,本文系广东省哲学社会科学规划2024年度一般项目(项目编号:GD24CGL13)、广东省普通高校特色创新类项目(项目编号:2023WTSCX028)的阶段性成果】

 

(《南方日报》于2024年05月06日报道,链接 https://epaper.nfnews.com/nfdaily/html/202405/06/content_10098310.html