ChatGPT是由美国人工智能研究实验室OpenAI研发的一款聊天机器人程序,于2022年11月30日发布。这款聊天App上知天文下知地理,不仅能回答你的各种问题,还能根据上下文进行互动,做到几乎与真人无异的交流。
此外,ChatGPT还能帮助你撰写邮件、视频脚本、文案、代码、论文以及完成翻译等任务。一项调查显示,用ChatGPT写的文科类大学生论文作业的质量,要高于大学生的平均水平。截止到2023年1月,美国89%的大学生都在用ChatGPT做作业。在ChatGPT发布不到3个月,OpenAI又推出了它的升级版GPT-4。GPT-4的功能更强大,学习能力更强。
但是,在GPT-4发布两周之后,美国知名科技企业家马斯克和上千名科技界、商业界人士联名,发表了一封公开信,呼吁所有人工智能实验室立即暂停研制比GPT-4更强大的人工智能系统至少6个月。
马斯克等人写这封信的意图不是为了阻止人们进一步研究AI——他们知道没有人能做到这一点,他们担忧的只是近期AI研究的突然加速,让人类面临的许多风险可能一下子都处于失控状态,需要留给我们时间去权衡利弊和制定必要的规则。换句话说,他们觉得AI这辆“车”跑得太快了,而前方的“雾”太大,为了安全起见,不妨暂停一下,看清楚了“路况”再走。
基于这种认识,该公开信连续抛出了四个问题:
①我们是否应该让机器用宣传和谎言淹没我们的信息渠道?
②我们是否应该让所有的工作自动化,包括那些令人满意的工作?
③我们是否应该发展最终可能在数量上超过我们、在智能上超越我们、能够淘汰并取代我们的非人类思维?
④我们应该冒着失去对我们文明控制的风险吗?
这四个问题一个比一个严重。概括地说,前两个问题涉及AI的短期风险,后两个问题涉及AI的长期风险。
短期风险一:
真相被谎言淹没
让我们先聊一聊AI制造和传播谎言这件事儿。
2023年3月18日,美国前总统特朗普发了一个声明,声称自己“第二天就会被逮捕”。第二天,虽然这事并未发生,但还真有不少人用基于GPT-4的图像编绘技术编造了“特朗普被捕”的“照片”,这类有图有文的报道几乎到了以假乱真的地步。
这样发展下去,造成的一个严重后果是社会的撕裂,即对同一件客观上发生(或没发生)的事情(比如希特勒屠杀犹太人这件事),立场不同的人们对于真相再也达不成共识,因为谁也说服不了谁:你有文字?我也有文字!你有图片?我也有图片!你有视频?我也有视频!
这种前景是非常可怕的。
短期风险二:
大量工作被AI取代
当AI发展起来,人类的工作被AI取代是全方位的,不仅简单重复的体力工作会被AI取代,复杂的脑力劳动(如上述的律师、医生的职业)也会被AI取代。最近,英国牛津大学的一份调查报告显示,目前美国人的工作,有47%会在未来的10年到20年内被AI所取代,在中国,这一比例更是高达77%。未来50年,AI将彻底改变世界的样貌。你将会看到更多的无人商店、自动驾驶汽车、AI服务员,甚至AI厨师、AI设计师等。只有少数特别需要创造力或与人沟通能力的工作才会为人类保留。
到那时,我们将何去何从?要知道工作自古以来是人类生存的根本,且不说没工作就没收入,就算届时国家养活我们,但大量的人口无所事事,也会造成严重的社会问题,甚至引发剧烈的社会动荡。
短期风险三:
黑客
我们知道,网络世界的最大威胁是黑客。人类的黑客可以通过层出不穷的手段来入侵你的电脑、手机,盗取你的银行卡密码、个人信息。黑客还可以入侵能源、交通等公共管理平台,使其瘫痪、失灵。一些黑客甚至有能力入侵一个国家的武器控制系统。
但比起未来的AI黑客,人类黑客的威胁就小到忽略不计了。因为AI本质上就是一个程序,可一天24小时“畅游”于网络世界;它又可以不断进化,其信息收集能力、学习能力都是人类黑客望尘莫及的,入侵系统对它们来说根本不是什么难事。
这一后果想想都害怕。我们知道,现在的飞机、火车、地铁都是靠智能平台调度的,正在蓬勃发展中的无人驾驶汽车,也依赖智能系统。此外,人类的金融交易也完全依赖智能系统。如果这些智能系统被恐怖分子控制的AI黑客攻破了,后果不堪设想。
不过,最可怕的还是控制核弹发射的系统被黑客攻破。据联合国保守统计,全世界的核弹存量有1万枚以上。它们中的任何一枚都可以将一座城市夷为平地,让放射性废物大面积污染环境。虽然这些核弹无法瞬间消灭人类,但核弹爆炸产生的遮天蔽日的尘埃,会诱发核冬天,导致全球粮食生产体系崩溃,其后果是大量人口死亡。
长期的风险:
失控
至于AI的长期风险,可以用一个词概括:失控。
“失控”这个概念的本质在于风险信息与发展速度之间的不对称。就像一辆迷雾中高速行驶的汽车,司机不是不想规避前方路上的危险,而是那些危险在远处时你根本看不到,等你看到时,不及你反应,就已经撞上去了。以这个比喻而论,前面提到的几个短期风险以及公开信中提到的“人类被边缘化”,其实都还只是我们已经“看到的危险”。而真正致命的风险或许还藏在我们看不到的地方,而当它凸显时,我们可能已经闪避不及了。
关于AI的
一个认识误区
最后,澄清一个关于AI的认识误区。
有人说,当前的AI距离拥有人类的意识还有十万八千里,我们何必早早就杞人忧天呢?
事实上,大多数人工智能领域的专家都认为,一个超级智能的AI即便在未来也不太可能表现出像爱或恨这样的人类情感,而且没有理由认为AI会恶意对待我们。但尽管如此,基于它们的能力,它们对人类还是有很大的风险。
一种情况是AI被利用来有目的地做一些破坏性的事情:比如前面提到的AI黑客;再比如杀手机器人,这种机器人利用AI来识别、选择和杀死特定的目标人群。
另一种情况是AI的程序原本是让它去做一些有益的事情,但它发展出一种破坏性的方法来实现其目标。比如,你吩咐一辆自动驾驶汽车尽快把你送到机场,为了执行你的命令,它可能会一路横冲直撞,不顾出车祸的危险把你送到机场;或者抄一条坑坑洼洼但少有人走的近路把你送到那里,颠簸得你一路呕吐。这些结果都不是你想要的。如果一个超级智能系统被赋予一个雄心勃勃的地球工程项目,它可能会对生态系统造成严重的破坏;而当人类试图阻止的时候,它还会把人类视为一种威胁来清除。
明白了这些道理,你就知道,先发制人地研究AI的风险,确保未来AI的研究朝着有益于人类的方向发展,是非常必要的。
不过,即便现在很多人已经意识到了这一点,但或许也为时已晚,魔鬼一旦放出来,要把它收回瓶子可就难啦。
所以马斯克们最后问的那个问题:“我们应该冒着失去对我们文明控制的风险吗?”——可能不是我们想不想的问题,而是已经在失控了。
据大科技公众号