当前,我国人工智能技术研发与产业应用进入提速期,但AI发展的伦理约束与善治体系建设滞后于技术创新步伐,导致AI技术应用面临数据失真、算法歧视、技术滥用等多重风险。全国政协委员、新大陆科技集团CEO王晶在接受《中国电子报》记者采访时表示,以AI善治筑牢伦理底线,核心是将善治理念贯穿人工智能技术研发、应用落地、产业发展的全过程,打通伦理规范与技术创新的融合堵点,让AI技术发展与伦理建设同频共振,坚守科技向善的价值底线,健全符合我国国情、适配全球发展的AI伦理治理体系。
王晶向记者详述了人工智能发展过程中伦理建设与善治体系层面的痛点。一是伦理建设滞后,与技术创新发展脱节。人工智能技术研发呈现高速迭代态势,但与之匹配的伦理规范体系建设相对滞后,缺乏覆盖AI研发、设计、应用、迭代全链条的统一伦理标准;部分研发机构存在“重技术突破、轻伦理考量”的倾向,将伦理建设视为技术发展的“附属品”,导致AI技术从研发源头就缺乏伦理约束,为后续应用埋下风险隐患。
二是治理机制梗阻,专业服务与协同体系缺失。AI伦理治理的专业人才队伍建设滞后,缺乏既懂人工智能技术,又通伦理规范和法律法规的复合型人才,导致AI伦理审查、风险研判的专业服务链条断裂;AI伦理治理的多方协同机制未有效建立,科研机构、科技企业的主体责任不明确,监管部门的监管体系不完善,行业协会的自律作用未充分发挥,形成“各自为战”的治理格局。王晶强调:“企业在AI技术应用中面临伦理界定模糊、治理规则不明的问题,部分企业因缺乏明确指引而出现‘不敢用、不会用’或‘随意用、滥用’的两极现象。”
三是伦理实践缺位,发展风险与全球协同不足。王晶坦言,当前科技向善的理念未充分贯穿人工智能发展全过程,部分AI技术应用存在数据采集不规范、算法设计有偏见、技术使用超边界等问题,数据失真、算法歧视、隐私泄露等风险逐步凸显,不仅会影响人工智能产业的健康发展,更可能危及数据安全、社会公平与国家安全。
针对以上痛点,王晶提出,推动AI善治与人工智能产业深度融合,打通伦理规范、技术研发、产业应用的全链条,构建人工智能健康发展体系。
一是强化AI伦理顶层设计。以国家数字经济发展战略和全球AI发展趋势为导向,依托新型举国体制凝聚科研机构、高校、行业协会的协同合力,加快制定覆盖AI研发、设计、应用、迭代全链条的统一伦理准则,明确人工智能发展的伦理红线与价值底线。在王晶看来,需要深化AI研发评价改革,破除“唯技术、唯成果”的桎梏,将伦理建设成效、风险防控能力纳入科研人员与研发机构的核心考核指标,激励研发主体从源头融入伦理考量。
二是健全AI伦理治理机制。构建科研机构、科技企业、监管部门、行业协会多方联动、责任共担、协同共治的AI伦理治理机制,推动监管部门做好规则制定与监督管理,科研机构做好伦理研究与技术融合,科技企业履行伦理应用主体责任,行业协会发挥自律引导作用。王晶强调,要培育专业化的AI伦理治理人才队伍和服务机构,搭建AI伦理审查、风险研判、技术咨询的公共服务平台,打通AI伦理治理的专业服务链条。
三是推动AI伦理实践落地。坚持“道引领、法保障、术赋能、器支撑”的原则,推动建立健全AI伦理审查机制、数据管理制度和算法监管体系,规范数据采集、存储、使用、流转全流程,加强对算法设计、训练、应用的全链条监管,严厉打击AI技术滥用行为。王晶表示:“要建立AI伦理失范的容错纠错机制和风险防控机制,从制度层面降低AI技术应用的伦理风险、数据风险和社会风险。”