作为今年以来最“出圈”的一项科技,生成式人工智能大模型吸引了全球的目光。AI(人工智能)将如何改变千行百业?人工智能是否已经拥有了科幻电影里超越人类的能力?人类如何应对AI的挑战?近日,新京报贝壳财经记者采访了被《时代周刊》评为“全球百大AI人物”之一的中国科学院自动化研究所研究员、人工智能伦理与治理中心主任曾毅。
曾毅认为,当前阶段的人工智能是“看似智能的信息处理工具”,距离真正拥有意识的通用人工智能还有相当距离。人工智能所带来的问题并不仅仅是科学、技术和产品层面的,还有社会层面的,人类应该对此做好准备。对于生成式人工智能大模型存在的重大问题,他认为伦理安全隐患是目前最不可忽视的,必须为每一个介入社会应用的人工智能服务构建伦理安全框架,用“教育大模型知善知恶、为善去恶”的方式来解决。
现状
现阶段AI大模型只是工具,距离通用人工智能还很远
新京报贝壳财经:今年以来,AI大模型热潮的一大讨论点是“目前是否已经实现了通用人工智能”,你怎么看?
曾毅:ChatGPT(OpenAI研发的一款聊天机器人程序)的成功跟当年深度学习的广泛应用非常相似,最本质的科学原理可能几十年前就已经存在,但如此大规模的数据支撑和计算体系结构对于训练大规模参数的人工智能引擎来说,在几十年前甚至5年前都难以想象。尽管科学原理相对清晰,但在用户体验层面,通过大规模的工程计算达到了前所未有的高度。
我们之前考虑,如果大规模的语料可以达到或近似整个人类互联网的规模,计算系统是否就真正能理解了人类的语言?从用户体验的角度来看,似乎已经真正理解了,但从科学原理来说,它仍然是处理的过程。
目前的AI大模型,是一个看似智能的信息处理过程,但从它仍然会大规模地犯人类不犯的错误,就能够知道,它仍然是处理过程,而非真正理解。现在的人工智能并没有逃脱“看似智能的信息处理工具”这一阶段,当前并非人工智能的终极阶段。
生成式人工智能大模型或者基础模型,现在已经达到了多任务信息处理器的阶段,所以可以用它做很多任务,但当它泛化到新任务中,解决没有见过的问题的能力仍然是有限的。人类的认知功能大约有400多种,对于解决从未见过的问题,生成式人工智能大模型与人类复杂的认知功能,以及复杂认知功能产生的自组织相比,仍有较长的距离。
学术上,有很多研究者曾严肃评估过通用人工智能何时到来。平均来说,绝大多数人工智能学者认为,通用人工智能距离现在大约还有80年到90年,而机器人学者则认为需要将近100年。而谷歌和OpenAI都声明在10到15年实现通用人工智能。我觉得在这一时间段内可能能实现信息处理的通用平台,但要实现真正意义的像人类一样拥有自我、情感、意识的通用人工智能,我仍然并不乐观。
新京报贝壳财经:当前许多企业都表示将把大模型能力接入旗下的产品,对此你怎么看?
曾毅:从企业的角度来看,引入大模型的能力是否能为人们提供更便捷的服务和更好的用户体验,用户是最终的判断者。实际上,目前ChatGPT的用户数量正在逐渐缩水。从产业人工智能的角度来看,我认为人工智能发展的这一阶段不应该承诺太多。
另一方面,人们是否真的需要所谓的“机遇”?当大家谈论生成式人工智能可以写新闻稿时,作为一个人工智能研究者,我并没有动机关注它写的稿子。当一个记者进行实地采访时,他所选择的视角,传递的价值观是对社会的诠释。而现在的人工智能即便能达到“理解”事实的阶段,也只是对“事实”的反映,没有真正基于自身经验的体悟,价值观的反思,现在看人工智能写出的稿件,很难看到真正的“洞见”。
我们可以探索,让人工智能提供更好的交互式服务,我认为未来很多APP可以有一个相对统一的接口,以交互式形式提供服务。当需求聚焦在某个领域时,它是一个“受限域”,信息处理的复杂度相对较低,而且生成式人工智能还在不断进步,在交互式服务方面取得更上一层楼的用户体验,我对这点充满信心。
但在大规模内容生产方面,我们还是要小心谨慎。有研究证明,当把人工智能生成的语料作为大数据训练的语料反哺人工智能训练时,模型性能会退化。我不太愿意看到互联网上充斥着大量人工智能生成的内容,这也算是理由之一。
人工智能作为一种交互式手段,在内容生产过程中起到辅助分析、提供素材和骨架的作用,为文字工作者在基础阶段提供支撑,我认为这些都是好的。生成式人工智能目前可以作为辅助工具,但作为责任生产者,至少现阶段还“不够格”。
发展
人工智能可提供更好交互服务创造的红利应分配给被替代的人
新京报贝壳财经:你认为AI大模型在人类社会未来的发展中将扮演什么角色?
曾毅:在当前阶段,包括一般企业所提到的基础模型和通用人工智能技术,它们的定位应该是未来具备理解能力的智能信息处理工具,能够更好地辅助人类。因此,我认为基础模型这块应该朝这个方向发展。
在日本、韩国以及部分中国文化背景中,尤其是日本的人工智能原则强调,未来人工智能可能扮演社会的准成员,甚至是人类伙伴的角色。而西方科幻中,人工智能扮演了很多反派的角色,是人类的敌人。所以AI大模型在未来的角色无非三种:工具、伙伴或者敌人。目前,通用的人工智能技术正在往工具方向走,也可能就停留在工具本身,社会的准成员、人类伙伴角色仍然在探索中,敌人则是我们最不想见到并且应当极力防范的。
未来社会是随着自然演化生成的有生命的个体,以及随着人工智能演化生成的看似有生命的智能体构成的社会。在这个社会中,人工智能体与人类智能以及其他动物智能是否能够和谐共生,我认为最终并不一定取决于人工智能,而是取决于人类是否能够加速演化。
对于“加速演化”,我指的是在人类与生态关系认知层面的演化,比如实际上我们现在没有给超级智能任何有实际说服力的理由让它们来保护人类,同时现在人类对其他生命也没有足够的尊重。当人工智能视人类就像人类视蝼蚁一样时,人工智能保护人类的理由是什么呢?所以,未来共生社会的伦理体系需要重新塑造,我们现在认为自己是地球的统帅,但当超级智能的智慧水平超越人类时,我们与其他类型生命体交互和共生的方式可能需要发生改变。
新京报贝壳财经:目前,一些行业已经应用了大模型的能力,如果未来人工智能大规模进入产业端并开始应用,可能对社会产生什么影响?
曾毅:从产业应用的角度,大家都在探索生成式人工智能的机遇,可以说从用户体验上若干个传统行业都已经达到了前所未有的新的体验,这是毋庸置疑的。但我想提到的是,人工智能在介入和服务社会时,我们要更及时地探索人工智能如何适度使用?哪些任务现在应当被人工智能所替代?是否没有任何风险?或者至少人工智能不犯人类也不会犯的错误。要替代,至少要确保在一般情况下比人做得好。如果达到这个条件,我觉得我们可以做一个探索,但由此也显然会引发社会问题。
当大规模替代影响了人类劳动,此时人工智能所创造的红利是被应用人工智能技术的企业所占有,还是被人工智能公司所占有?还是说一部分红利应该分配给被替代的人?这就变成了问题。
当人工智能进行劳动替代时,必须进行基于数据的训练,这些数据大多数来自传统行业的人工的行为或思维输出。当你利用大规模收集的数据训练人工智能时,实际上这些数据对人工智能的启发都来自于数据贡献者。但是现在似乎没有一个合理的形式,反哺被替代的人的贡献,比如我们现在录一个小时的数据用于大规模数据训练,最终一个小时要给你100块钱或1000块钱。但训练成功后,你失去了未来的工作。
在这种情况下,人工智能红利的分配是否合理?在我看来,现在社会还没有准备好,所以人工智能的应用机遇确实达到了前所未有的阶段,但对于社会的挑战也是前所未有的。当我们的社会没有准备好时,人工智能绝对不能无所不在,应当适度使用。
问题
应通过伦理安全框架“教育”大模型善恶是非
新京报贝壳财经:目前,许多大模型已经面向公众开放,对于人工智能生成的内容存在的“幻觉”问题,以及大模型有可能遭到诱导输出不适宜内容等现象,你认为应该如何解决这一问题?
曾毅:所谓的基础模型输出呈现“幻觉”的问题实际上反映出的还是模型没有真正的理解能力,也对于“事实”没有合理的认知,在这种情况下将神经网络与经典的知识表示与推理、知识验证等技术结合,一定可以在处理的层面更上一层楼,但是要本质解决这个问题,还是要突破真正的“理解”。对于安全隐患的问题,目前已经向公众开放的大模型在安全和价值观对齐方面都做了一些工作,但实际上更多的像打补丁一样,对漏洞进行封堵。用户如果换一种方法提问,大模型可能仍然会遭到诱导。因此,使大模型的输出合乎伦理道德是非常必要的。
有些人希望从基础数据训练上解决问题,构建一个干净的数据集,用这些数据训练大模型就能解决问题。但我认为这并不完全可行,因为未来很多生成式模型都会接入互联网数据,一旦与互联网数据结合,由于没有教大模型知善知恶,它就会利用互联网数据,再生成回答,这样可能导致前端数据过滤部分的工作收效甚微。真正的人工智能模型就像培养孩子一样,在接触社会,与人交互时,社会存在偏见,但它无法分辨。
在下一个阶段,我们需要像给小学生上道德与法治课一样,让大模型经历知善知恶的过程。智能引擎未来不能只是数据处理工具,还必须内置伦理安全框架,在接触外界时,伦理安全框架会发挥作用。这可以理解为用一个规模不大的、学习伦理道德的神经网络,在外围发挥指引作用,从而引导规范内部行为。包括在大模型学习和处理数据阶段,道德模型也应该发挥作用,分析哪些是应该学习的,哪些是不应该学习的。
创新
大模型人才教育体系应培养“文理兼修的人才”
新京报贝壳财经:对于目前人工智能的人才培养现状,以及大模型热潮下人才应如何跟上产业发展,你有何意见和建议?
曾毅:我认为现在的人工智能人才的培养可能在过早的阶段过于专业,我认为一个坚实的基础对未来从事多学科交叉很有好处。未来人工智能赋能社会发展,可能会介入社会的各个方面。因此,在人才培养方面,我们需要补充几个短板。例如社会学、人类学、心理学,甚至哲学、伦理学等都应当纳入未来人工智能体系的培养中。未来的人工智能创新者,需要“文理兼修”。
我认为当代人工智能从业者,包括本科、硕士和博士的教育,从智能本质的认知方面,需要对认知心理学、神经科学等有充分理解。对于社会的影响,需要科技伦理或专门的人工智能伦理课程,这些恐怕都是未来人工智能教育中不可或缺的部分,所以我不建议过早地聚焦于只做算法和硬件体系研究。
新京报贝壳财经:你怎么看待目前人工智能领域的国际竞争,以及英伟达A100等人工智能训练用的芯片被“禁售”的情况?
曾毅:未来,人工智能必须进行软硬件协同创新,才能发挥其真正优势。在我国的创新体系中,我们必须从最初的人工智能模型算法跟踪或创新,快速过渡到实现软硬件协同创新,从软件、硬件的相对独立发展,到人工智能赋能的发展时代打造面向人工智能的软硬协同的“智件”。在基础设施方面,许多企业希望通过不同渠道汇集更多芯片,我认为现在应该采取两方面努力,首先是应用现成的国外硬件体系,短期的商业服务还可以去做。但一定要以壮士断腕的决心,从现在开始布局全国产化的基础模型体系。我们之前在很多事情上吃过亏,所以我认为这事没有商量余地,未来软硬件需要协同设计,这也是这个时代发展“智件”的科学性所必须的,所以很有必要发展全栈自主的基础模型体系。
我认为,国内目前绝大多数大模型还谈不上真正意义的创新,绝大多数的努力还是在工程优化方面。因此,未来在提升基础模型应对复杂问题的泛化性方面,要真正做到数据规模能耗更小,却表现出更高的智能。在模型算法结构和体系上实现协同创新,而不仅仅是提升用户体验方面,这还需要一系列努力去做。
这时候需要分工,科学界应该关注大的科学问题和体系化发展协同创新的问题,企业则关注规模化创新和用户体验的提升,二者要协作起来。现在高校科研机构已经推出了许多大模型服务,但一旦发展到用户体验这个阶段,就目前的技术发展阶段,还无法逃脱掉“有多少人工就有多少智能”的阶段,这不是科学界的重点工作,科学界和企业要各司其职,相得益彰,协同发展。
新京报贝壳财经记者 罗亦丹