面对ChatGPT我们该思考什么?
清华武大人工智能专家有话说
最近,应用软件ChatGPT在多国社交媒体“狂飙”。发布两个月后,月活人数成功过亿,成为史上用户增速最快的消费者应用。2月20日,清华大学人工智能国际治理研究院副院长、清华大学公共管理学院教授梁正,武汉大学人工智能系系主任、教授彭敏和武汉大学副研究员李祖超做客长江日报《面谈》,一起畅聊风暴眼中的ChatGPT。网友在线上同三位教授一起热议ChatGPT,各平台观看视频网友达70万。
把ChatGPT比做一个14到15岁的孩子在跟人类对话,这个比喻如何?准确吗?
梁正:在一般生活对话的场景方面,我认为ChatGPT已经达到了14~15岁的孩子的能力,甚至在有的领域它可以达到大学本科毕业生的这样一个水平,包括医师资格考试、大学入学考试等都可以完成。它不是只在一个领域去发挥作用,它在一些专用领域的表现更好。
彭敏:我们不能笼统地来讲ChatGPT的能力。它在很多领域确实是做得非常卓越,背后对应的是它所支撑的技术、数据或者是知识。但在某些领域,它又非常匮乏,不具备一定的智能。
李祖超:将ChatGPT对照14~15岁的孩子我认为是不完全确切的。这需要从几个层面来讲。从语言表达能力来说,ChatGPT给出的答案确实都是以简单句为主,看上去像一个14~15岁的孩子讲的话。这主要是大众在试用ChatGPT时都采用闲聊的方式,并且ChatGPT训练的目的是作为助手。但是实际上,只要经过稍微的调教,ChatGPT的回答风格则可以发生巨大的变化,远不止14~15岁的孩子的表达能力。从掌握知识的广度角度来说,ChatGPT可以同时记忆天文、地理、物理、化学、计算机等行业知识,而人类一般无法掌握这么多领域的知识。从掌握知识的深度来说,ChatGPT应该相当于一个某个专业领域的初级到中级水平。ChatGPT本质上是在模拟人的对话过程,它的模拟能力是利用一个神经网络大模型从大规模的训练语料学习出来的,其实现基于四个要素:覆盖广泛的训练语料、算力、一些算法技巧和人工调优技巧。ChatGPT在知识方面的上限取决于训练它的语料库。如果语料库里面没有的知识,它是无法回答的,同时如果训练语料中的知识本身就是错的,它也会回答错误。此外,ChatGPT在计算方面的能力是弱于14~15岁的孩子,约等于8~9岁孩子,这也是未来ChatGPT进一步进化的方向之一。
ChatGPT真的能取代人类的某一些职业吗?
梁正:我个人的观点,ChatGPT在给我们提供帮助上,它的潜力是巨大的。这个“替代”只是把人类不愿意做的,或者人类觉得比较辛苦和繁复的工作去替代掉,但我不认为它可以把人类有创意的、创造性的这部分工作替代掉,包括对我们做科学研究做学术研究也是一样。
彭敏:什么工作是不能被替代的?具有创意的,或者说在我们的基础搜索或者是生成之后,还需要去进行相应的人类智慧去给它一些指导的工作。此外,ChatGPT在某些领域提高了生产力并不代表剥夺了大家的饭碗,这一产品研发的初衷正是为了替人去做一些重复工作,让人可以有时间和精力去做自己更擅长、更适合人类做的创新性的工作,更好地享受生活。
李祖超:这种职业替代形式,人工智能发展过程中一直存在。目前,空中客车公司使用人工智能而不是人类工程师来设计飞机,制药公司葛兰素使用人工智能进行药物开发,工作效率和任务完成质量都比人类工程师更好。人工智能甚至可以拍电影。
ChatGPT这样的AI可帮助人类进行真实创造,尤其是帮助人类提高创造效率,比如提高获取信息的效率或提出新颖想法。这意味着什么?
梁正:这是在技术发展过程中,也就是在人类知识的积淀的基础上,学习训练这种大的语言模型后,凸显出来的这样的一种能力。从信息的处理上、内容的生成上,它的效率和质量应该说都得到了一个飞跃,这是特别的、积极的一方面。所以它其实会对我们未来,在这样的一些领域中怎么去利用它,提供了更好的选择。但我们也不要去神话它,在很多问题上,比如说推理的能力,比如说一些常识,它还是不具备对客观知识的无中生有的这样的一种能力。ChatGPT在效率提升这一方面是非常明显的,特别是在内容创作上,所以这也是我们目前面临的一个很大的一个问题。另外,由于ChatGPT大大提高这样的效率以后,一些重复性的工作可以不给那么高的权重。我认为,在ChatGPT出来以后,我们需要去做的是——每个人都应该去使用、去探索怎么去跟它更好地去合作,利用它优越的一面。然后结合自己的优势,把你原来所不擅长的一部分工作交给它去做。它能引起整个分工关系和人技关系的深刻变化。ChatGPT的影响不仅仅体现在产业上,还体现在社会、教育、人际交往的变化上。
彭敏:ChatGPT在效率提高这件事上,毋庸置疑。这一通用人工智能产品的目的并不仅仅是提高信息检索一个优势,更重要的是在落地到垂直领域,比如装备制造、集成电路、大型工程设计等等这些方面,都可以借助于它的智能能力,提高效率。在将来可能会出现类似于工业5.0,推动整个社会和人类的进步,而不仅仅说给我们增加了一个很方便的小工具而已,这也是为什么现在大家都会对它有期待。另外一个角度,我们要看到这个信息产生以后可能也会出现很多问题。比如,大家用它去写作带来的著作权问题。还有一个很重要的方面,就是信息的真伪问题。所以效率的提高,未来也会带来其他问题。
李祖超:人类历史的发展总体上来看就是生产效率的不断提高的过程。ChatGPT是当下信息时代的蒸汽机,实用性很高。用户使用ChatGPT获取信息的效率不亚于现在已经非常成熟的搜索引擎。ChatGPT基于用户需求以及世界性知识为人类的创造提供灵感,提高了效率,这将对所有的人类创作领域产生重要的影响。也许未来,人类创作中发挥的作用是作为鉴赏家对人工智能创作进行筛选以及微调。但与此同时,ChatGPT在提高创作效率的同时,生产会越来越多地具备人工智能体形态的行为主体。这类新形态的行为主体,遵循新的组织行为规则,其权责边界和供求关系都将产生一系列新现象、新问题。
人工智能体创造各种作品,使用大量来源广泛的知识资源,那么这些作品所涉及的知识产权如何界定?其行为表现及后果与相关自然人法人之间的法律责任如何确定?这些问题都会成为值得关注的焦点。
例如,如果医院门诊的大多数功能,像挂号候诊、检查检验、病情诊断、医嘱处方等都可以由人工智能体承担,那主诊医生与人工智能体的职能划分和权责关系如何界定?特别是人工智能体如果达到诊断差错率显著地低于主诊医生误诊率的水平,那处方权应归谁?在更多的行业都将发生类似现象。对此,都须有新的规则来维护新的秩序。
ChatGPT有时会“一本正经地胡说八道”,存在事实性错误、知识盲区和常识偏差等诸多问题。主要是什么原因,产生了这样的可能性?
梁正:ChatGPT可以无中生有,所以叫做“生成式”。背后有大量的人类的知识以及我们对它的引导和奖励的策略。人类告诉它,什么是对错。它在专业领域讲得头头是道,如果聊个人的喜好情绪等,它的能力远远没有到拟人的程度。“一本正经地胡说八道”可能也是它创造性回答的部分。ChatGPT“一本正经地胡说八道”,那么谁来判断?只有人才能判断。当然有一些工作不要求创造性,它可以做得很好。那么这种条件下人去做什么?人就是要去做创新性的、创造性的工作,包括艺术、创意这样真正叫无中生有,也就是客观世界里没有,只存在于人的这个脑海当中的东西。我们先不讲大模型再大到一定程度,是不是有自主意识产生了,如果说有,可能技术专家可以去回答,那是另外一回事了。起码到现在,不能够说ChatGPT能替代人。所以这方面呢,我觉得它其实反倒会引起我们的反思,就是我们的创意创造的源泉、我们的优势到底是在哪里。
彭敏:“有没有胡说八道”主要是看它的知识点和计算能力有没有到这个层面。为什么知道是胡说八道的话他还会讲?因为他不知道是错的,因为这一模型缺乏可解释性和验证性。这也是在这10年深度学习出现以后,许多研究者一直在努力做的工作。
李祖超:ChatGPT本质上依托于一个参数量巨大的神经网络模型,其训练过程是基于网上现有的语料进行的,而这些训练数据本身良莠不齐,并不全都是优质文本,因此有可能出现事实性错误问题。此外,ChatGPT给出的答案只是基于其理解生成的最佳结果,然而对于某些训练的知识盲区问题,且可能根据字面意思进行推理,从而出现了“一本正经胡说八道”的现象。此外,自然语言理解困难之一是语境问题,由于缺乏上下文可能导致的对问题本身的不理解等,也会导致ChatGPT给出错误的结果。对于常识偏差的问题,这是由于ChatGPT是基于对大量文本进行预训练,而常识(比如太阳比月亮大)通常不会直接包括在这些文本中,因此缺乏对常识的理解。
记者陈静茹