 |
刘永谋 中国人民大学教授,著有《智能革命后的世界》。 |
□ 刘永谋
对哲学而言,讨论AI觉醒、超级AI,更重要的是反观人心,即通过对智能机器的研究加深对人的理解,因为人是什么,常常是在与非人的对比,如与机器、神、动物的比较中得到澄清。
对于科技发展而言,AI有没有意识、AI是不是人、AI有没有灵魂……这些问题都是从操作性、功能性的角度来处理的。新科技不是玄思,它要指向实际工作。举个例子,在自动驾驶的语境中,讨论AI是不是主体,目标是为了分配自动驾驶事故的责任问题。处于何种主体位置,就要承担何种法律责任。显然,如果能以某种制度安排分配责任,AI主体问题可以绕开不讨论。
哲学发展到今日,什么是意识、什么是智能、什么是灵魂……这些问题都没有解决,而且永远也不会解决。这是哲学的根本特点。因为这些问题都要回到“人是什么”的问题,而这个哲学的最根本问题看来是无法解决的。人是什么,或许只有高于人的存在,如神,才能真正回答。
AI为什么要像人呢?有人说,要用儒家伦理把机器人训练成圣人。还有人说,机器人要从不索取,只知奉献,为人类服务可以连“命”都不要。提出这样的要求,已经不是要机器人像人了,而是要它像圣人、像神人。一定要记住:圣人、神人不是人,而是非人,因为从来没有见到过哪个人的一言一行百分百达到神圣的标准,它们是只写在书上的、只应天上有的非人。
更像人的机器能更好地为人类服务吗?超级AI能更好地为人类服务吗?如果它可能威胁人类,我们为什么还要造它呢?因此,在我看来,关于超级AI问题最有意义的其实是控制问题,即控制AI发展的问题。偏偏这是最难的,甚至可能存在某种悖论:我们怎么可能控制比我们更高级的智能呢,就像蚂蚁如何控制人类呢?
很多人认为,一旦超级AI出现,人类就再没有办法控制它。所以,应该将AI发展限制于高效可控的工具层面,在没有解决超级AI的可控预案之前,必须暂缓,甚至停止发展它。正如我主张的AI发展要去意识化,也就是设法阻止AI觉醒。
在我看来,新科技是为人类服务的工具,AI只是其中一种。人类不需要无所不知、无所不能的超级AI,而需要能解决某个问题的好帮手。比如,无人驾驶汽车只要快捷、舒适、准时和安全地把人送到目的地就可以了,不需要它有什么超越人的智能和独立于人的意识。如果我想出去旅游,旅游AI能很好地给我设计行程,供我参考就可以了。
技术发展的路径有千万条,人类要选择对人类最为有利的发展路径。选择好了,控制住,更好地为人类服务,智能技术的发展才有前途。如果因为某些奇怪的原因,比如狂妄、好奇,甚至别有用心,搞出一些有悖于社会福祉的东西,完全是浪费社会资源。一句话说,不管AI有没有可能觉醒,人类都不需要让它觉醒,更不应该任由它觉醒,而是应该主动选择阻止AI觉醒的技术发展路线。