 |
刘永谋 中国人民大学教授,著有《智能革命后的世界》。 |
□ 刘永谋
很多人意识不到,更有益的AI与更智能的AI是两个完全不同的概念。更智能的AI,意味着更道德敏感的、更能像人一样进行道德判断与决策的AI,但并不意味着更有益。必须记住:AI设计的目标不是更智能,而是更有益。
并非自主性越高、越有智能、越像人的AI,才是好的AI。为此,就AI发展方向,我主张“有限AI设计”,即聚焦于AI更好地与人互动,更好地服务于人类,使之扮演好强大的功能性工具的角色。在我看来,Robot——这个词源于捷克语,意思是“机器劳工”——它应该扮演的是无意识的劳工角色。此外的想法则对于人族无益。
具体到AI道德问题上,我主张“AI去道德化”,即AI设计不需要使AI“有道德”。
人类的道德行动混乱而不一致。对于同一个情境,不同人判别结果不同;有道德水平高的人,有道德水平低的人。比起让AI“更道德”,避免AI“越过”道德底线,做出明显不道德的行为,是AI设计更可行的方案。
还有人说,AI道德可以通过社会学习来解决,即让AI在真实的社会互动中学习人类道德。但这种观点的漏洞在于:第一,社会学习的结果,完全无法预计。有个尽人皆知的AI学习语言的例子:聊天AI在网上跟人学说话,结果很快满嘴脏话、痞话和种族言论,设计者不得不把它给关掉。社会性的道德养成可能失败,社会学习之后AI也可能成为罪犯。第二,我们能不能承受AI养成失败的代价呢?显然,不行。一个道德败坏而无所不能的超级AI,可能毁灭整个社会。并且,AI并不能真正承担犯错的责任。你打机器人,拆了机器人,它没有感觉,谈不上所谓惩罚。对于社会而言,物理惩罚机器人没有任何意义,也产生不了预防机器人犯罪的震慑作用。
事实上,所谓人工道德、机器道德,更多的是某种修辞学,并非真正实指的“道德”。只有人与人之间才有道德问题,人与机器之间的道德问题本质上是以机器为中介的人与人之间的道德问题。
AI道德设计的本质是对AI行动规则的制定,即让AI在现实社会情境中,能采取合适的行动,包括停下来,等待人类操作者的指令,而不是像布里丹的驴子一样死机,或者根据随机算法做出反应。当前AI的行动规则是有限的,即局限于它的功能情境之中。比如,自动生产汽车的机器人需要处理的是工厂中的、与生产汽车相关的问题,不需要它能应对在工厂之外的社会环境,也不需要它处理与生产无关的问题,比如让它给工人跳个舞。
人类从AI的能力中获益,而不是从它的更高尚中获益。对于人而言,AI行动规则设计最重要的是可预见性,即与机器人互动的人类能预见它的可能反应。如此,才能成为真正的人机互动。更重要的是,可以提前预知互动结果时,对于可预计的不理想结果,人类可以进行提前的人工干预。不可预计的AI不可控,更不安全。
我们并不需要机器人有更高的智能,而是需要它们有更强的、可控的和可预见的能力。