当前,人工智能正以前所未有的深度与广度重塑着社会运行方式。同时,从大型语言模型的“幻觉”输出到自动驾驶系统的决策偏差,从深度伪造技术对社会信任的侵蚀到算法黑箱导致的不透明与偏见……探索以系统治理推动人工智能安全可靠可控发展,具有实践上的紧迫性。
推动人工智能安全可靠可控发展,绝非单纯的技术优化,而是一项深度融合技术创新、标准规范、伦理准则的系统性“治理工程”,即将治理要求结构化、自动化地嵌入人工智能系统的设计、开发、部署、运行、迭代全过程。
以技术创新为治理根基,筑牢安全可控的底层支撑。技术是实现有效治理的根基。应重点发展以可信人工智能为核心的关键技术,从设计之初就内置安全特性,确保系统行为的可靠性,为治理提供坚实基础。主要包括以下几个方向:研发具有高稳定性和抗干扰能力的算法模型,使系统在面对恶意攻击或异常数据时仍能保持正常运行;推进可解释人工智能技术,让系统的决策过程变得清晰可见;构建测试验证和持续监测体系,实现对系统风险的实时预警和动态防护。
以标准规范为治理准绳,确立清晰一致的行业标尺。标准是治理体系的尺度,为技术创新和产业应用提供统一规范。应加快构建覆盖人工智能全生命周期、多维度的标准体系。在基础共性方面,建立术语、架构、评估基准标准;在关键技术领域,制定可解释性、隐私保护等技术标准;在行业应用层面,推出面向医疗、交通、金融等重点领域的应用规范和管理指南。
以伦理准则为治理灵魂,引领负责任的创新方向。伦理准则能够为技术发展提供价值引导。伦理治理的目标,是确保人工智能的发展始终遵循人类价值观和共同福祉,实现科技向善。为此,应当将以人为本、公平包容、责任明确、可控可信等伦理原则深度融入人工智能研发与应用全过程。具体而言,建立伦理审查和风险评估机制,对可能产生的伦理影响和社会后果进行前瞻性研判;推动算法公平性研究,努力消除数据偏见和歧视。
(摘自《光明日报》2025年9月12日发表、曾楠撰写的《推动人工智能安全可靠可控发展》)