近日,雁塔区法院审理了一起因“AI换脸”侵害他人肖像权的案件,最终判决陕西某公司赔礼道歉、赔偿损失(3月11日《西安日报》报道《“AI换脸”侵犯肖像权被判赔偿损失》)。如今,人工智能已渗透到人类生产、生活的方方面面,“AI换脸”技术就是人工智能在图像处理上的一项应用。雁塔区法院的判例告诉我们,在人工智能变得越来越“聪明”的同时,急需法律为人工智能发展和应用划出“红线”。
人工智能是引领新一轮科技革命和产业变革的重要驱动力,AI技术正在赋能各个领域,由此产生的经济效益和社会效益不可估量。3月5日提请审议的政府工作报告明确提出:制定支持数字经济高质量发展政策,开展“人工智能+”行动。但近年来对于AI技术应用的憧憬与担忧一直并存,AI技术发展可能带来的安全、失业、隐私侵犯、算法歧视等风险,一直令人担忧。为了解决这个问题,发展负责任的人工智能已成为国内外的广泛共识。2019年6月,中国国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,也明确将“负责任”作为人工智能治理的重要原则。
但如何让人工智能负责任?众所周知,人工智能是基于数据和算法形成判断并作出选择的,具有自动性但不具有自主性,具有行动能力但不具有行动意识、思维能力,无法成为责任主体。因此,当讨论人工智能的责任问题时,实质上讨论的是人工智能的开发者、使用者、监管者等人和机构的责任。这就需要通过外在的立法和有效的诉讼,让法律为人工智能的发展和应用划出“红线”,勘定疆界。通过法律制度的规范,让技术研发的机构和个人有规可依,强化自我责任意识;让技术的使用者知道这项技术使用的边界,加强自律;让监管部门有法可依,更好地行使监管权力。
可以说,相关法律法规的完善,不是对人工智能发展的限制而是一种促进,因为划清了法律的边界,构建起AI发展相应伦理治理原则,AI也就越安全,成为“负责任”的AI,这样的AI才能真正给社会发展带来福祉。 (杨斌鹄)