“中国人工智能产业的蓬勃发展离不开法治的高质量护航。我们始终把人工智能这一新技术作为整个互联网治理和网络空间法治建设的重要内容。”中国信通院互联网法律研究中心主任、高级工程师何波在日前举办的2026新京智库春季论坛“‘人工智能+’进行时——从技术竞速到场景深耕”分论坛上表示,当前中国已经初步构建起一个涵盖算法、数据、应用等多维度的人工智能法律规制框架。
在何波看来,中国的人工智能立法呈现出“基础通用法+专门场景规范”的鲜明特点。《网络安全法》《电子商务法》等传统法律中关于数据、算法等方面的规定,明确了人工智能发展和治理的基础制度和共性问题。而2025年下半年完成修改的《网络安全法》,首次在法律层面对人工智能安全与发展作出综合性规定,明确了国家支持人工智能基础理论研究、关键技术研发,并鼓励利用人工智能进行网络安全创新。
“制度创新需与技术创新同步推进,我国仍存在亟待解决的四大制度性问题。”何波表示。
首先,管理模式亟待明确。欧盟已经提出要基于人工智能的风险进行管理,将人工智能分为不可接受风险、高风险、有限风险、低风险几个等级。我国的立法也需要考虑相关问题,包括如何分级分类管理、制定监管依据和标准等。
其次,高质量数据供给仍受制度性约束。何波表示,当前人工智能训练所需的高质量数据与语料资源供给不足,核心制约仍来自制度层面。在数据采集、标注、使用、共享等环节,相关规则仍不完善,部分数据用于模型训练的合法性依据不足,版权数据的合理使用边界模糊不清,同时个人信息保护与数据开发利用之间的平衡机制尚未完全建立。亟须加快完善个人信息与版权数据相关制度规范,打通制约人工智能发展的制度障碍。
再次,复杂场景下的法律责任归属不清。何波认为,人工智能兼具产品与服务双重属性,侵权风险贯穿研发、训练、部署、应用等全链条,既存在技术开发者、平台运营方等主体因算法缺陷、安全漏洞引发的内生侵权,也包含用户不当使用、恶意滥用导致的外部侵权。在多主体参与、技术链路复杂的场景中,现有规则对责任主体界定、因果关系认定、过错程度划分仍不够明确,亟须细化责任认定标准,厘清各方权责边界,为人工智能安全规范发展提供清晰法治指引。
最后,数据跨境流动便利化水平有待提升。何波表示,在人工智能全球化研发、多语种训练数据采集与国际合作研发的背景下,数据跨境需求持续增长。当前不同国家和地区数据监管规则差异较大,安全评估流程、认证机制与合规要求尚不统一,企业跨境数据流转成本高、周期长、路径不够通畅。他建议,在严守数据安全与国家主权底线的基础上,加快构建更加高效便捷的数据跨境流动机制,为人工智能领域技术合作与产业全球化发展提供更加顺畅的制度保障。
围绕这些亟待破解的制度性难题,我国相关政策部署正稳步推进,不断健全人工智能治理框架。2025年8月,国务院发布的《关于深入实施“人工智能+”行动的意见》提出,健全国有资本投资人工智能领域考核评价和风险监管等制度。完善人工智能法律法规、伦理准则等,推进人工智能健康发展相关立法工作。优化人工智能相关安全评估和备案管理制度。今年初,工业和信息化部等部门陆续印发《人工智能科技伦理审查与服务办法(试行)》《人工智能拟人化互动服务管理暂行办法》,强调发展与安全并重、创新与治理协同,以伦理审查筑牢风险防线、以分类分级监管规范应用场景,强化个人信息与未成年人权益保护,推动人工智能向上向善、健康有序发展。
此外,记者从国务院新闻办公室日前举行的新闻发布会上了解到,国家知识产权局将会同相关部门积极完善新兴领域知识产权保护制度,适应新兴领域发展需要,更好激励和保护创新。在人工智能方面,国家知识产权局已经通过修改专利审查指南,完善人工智能专利申请的审查标准,增加了对人工智能技术的伦理考虑和判断,以适应技术发展和治理需要。同时,国家知识产权局也在积极参与人工智能领域的全球知识产权治理,推动建立公平合理的知识产权国际规则。