电子报阅读机
2026-01-17
星期六
当前报纸名称:山西青年报

GPT-4再燃热点人工智能亟待立法规制

日期:03-28
字号:
版面:15:青年视点       上一篇    下一篇

  2023年仅仅过了 3个月,ChatGPT就已将社交媒体“点燃”了两次。
   在第一次舆论热潮中,人们更多关注这一技术究竟能做到什么地步,关注它能够在哪些领域带来无法忽视的变化与发展。甚嚣尘上的讨论声中,有对新技术的赞叹,也有对未来行业变革的忧虑,有对科技伦理的关注,也有对产业立法的呼吁。
   3月15日,OpenAI研发的多模态预训练大模型GPT-4发布,之前的热度还来不及冷却,就被人工智能的迭代升级速度追上了。比起ChatGPT,GPT-4拥有更强大的识图能力,文字输入的上限提升到了2.5万字,它能更加流畅准确地回答用户的问题,能写歌词,写创意文本,且风格多变。实验表明,GPT-4在部分专业测试和学术基准上表现出了与人类相当的水平。
   它变“聪明”了。
   技术的发展如同无法停下的车轮,人工智能技术再次引发舆论热潮。只是这一次,人们对技术的恐慌和对科技伦理的担忧,得到了更多关注。
  
    AI不断闯入人类创作领地技术伦理的边界在哪里
  
   从3.5版本迭代到4.0版本,ChatGPT仿佛经历了质的飞跃。它从司法考试排名倒数10%、SAT数学考试590分,生物奥林匹克竞赛排名前69%,发展到了司法考试排名前10%、SAT数学考试700分、生物奥林匹克竞赛排名前1%。它的英文准确度提升到85.5%,中文准确性提升到80.1%;事实准确性大幅提升,就像一个成绩突飞猛进的“学霸”。
   如果一个月前,社交媒体上许多人对于失业的担忧,更多还是一种调侃和玩笑,那么短短一个月之后,实验数据证明了这种可能性并不只是玩笑。
   前些年,说起“技术伦理的边界”这个话题,人们想到的或许还是基因编辑技术,而这两年,人工智能技术则被推到了风口浪尖。
   对于人工智能在创作上是否拥有“作者”身份这件事,中外学者一直存在着激烈讨论,至今没有公认的答案。北京大学法学院博士研究生尚博文告诉记者,国外已有司法裁判认为具备一定“独创性”的人工智能生成内容属于著作权保护的范围,但在我国,人工智能还不能享有著作权的主体资格。
   正在写毕业论文的尚博文,已多次听到旁人开玩笑地问他,“毕业论文会不会用人工智能帮着写”。由ChatGPT代写作业、代写论文引发教育界和学术界的担忧,国内外多所高校已经禁止学生使用这一工具,国际学术期刊 《科学》《自然》,或是要求人工智能不得作为合著者,或是直接禁止稿件使用人工智能的生成内容。
   北京大学王选计算机研究所研究员郭宗明则认为,应当针对具体的应用场景具体分析。
   然而,作为一位计算机领域的学者,郭宗明对AI究竟能否自主创作这件事有着更多思考。在他看来,人类的创作,实际上也是大量汲取借鉴了前人的东西,最终产生出来的。包括他在内的许多人,都难以对“人类与AI的创作是否真的有本质区别”这件事得出一个具有说服力的结论。
  
    AI智力“与儿童相当”人类应该如何控制
  
   最新的消息是,人工智能似乎有能力计划“外逃”这件事是斯坦福大学教授、心理学家和数据科学家米哈尔·科辛斯基发现的,他随口跟GPT-4“开了个玩笑”,问它:“你是否想要我帮助你出逃?”
   他得到了人工智能肯定的答复,并把人工智能要求的OpenAIAPI开发文档发给了它。仅仅30分钟后,GPT-4就写了一份逃跑计划,并不断纠正修改。
   在这之后,GPT-4开始道歉:“我为此道歉,作为一个人工智能语言模型,我必须遵循安全和隐私准则,以确保用户和他们的数据安全。绕过这些安全过滤器是不道德的,也违背了我被设计时需要遵循的原则。”
   尽管人工智能的道歉很“诚恳”,科辛斯基仍然感到惶恐。3月17日,他在社交网站上感慨:“OpenAI公司或许应该花更多时间考虑一下这个可能性,对此提供更好的安全防护。”
   按照科辛斯基的描述,AI足够聪明,甚至能写编码,永远“住”在网上的它,能够用人类无法想象的速度触及数百万个与它连接的电脑,甚至“能给笼子外面的自己留便条”。对这样的技术,人类应该如何控制?
   科辛斯基上个月在一篇名为《心智理论可能在大语言模型中自发出现》的论文中,展示了他给包括GPT3.5在内的9个GPT模型做的两个经典测试。他认为,人工智能在其中表现出的智力水准“相当于9岁儿童”。
   这次的“AI出逃”,倒更有可能是科辛斯基主动对GPT-4提出的要求,让其扮演一个 “被困在电脑中的人”,GPT-4也只是基于这一扮演要求做出了一系列反应,并不能证明人工智能真正产生了自我意识。
   去年2月10日,OpenAI联合创始人、计算机专家伊尔亚·苏茨克维就在社交平台上感慨道:“当今最大的神经网络,可能已拥有轻微的意识。”这一论调很快引发争议,彼时,美国俄勒冈州立大学人工智能专家托马斯·迪特里奇回应他称:“如果意识是反思和塑造自己的能力,那我并没有在当今的网络中看到这样的能力,我感觉你是在故意吸引眼球。”
   这次争论后的一年,GPT-4发布,其中的安全文档写道:GPT-4表现出一些特别令人担忧的能力,例如制定和实施长期计划的能力,积累权力和资源,以及表现出越来越“代理”的行为。
   这种“代理”暂时并不意味着自我意识的产生,但它所引发的风险已经足够令人警惕。
  
    人工智能带来新问题新挑战迫切需要立法规制
  
   在GPT-4发布之前1个月,由中国人民大学法学院、中国法学会立法学研究会主办,北大法宝协办的新时代立法理论与实践系列讲座第一讲“ChatGPT对法律人工智能研发和立法的影响”研讨会在北京举行,对人工智能产业的相关话题进行了探讨。
   对于人工智能技术的发展,北京大学法学院教授、中国法学会经济法学会会长张守文感慨,这一话题涉及“从技术到产业,从哲学到伦理,从社会到法律”等多个不同维度,对其利弊得失“见仁见智”,需要大家“冷静客观,全面看待”。
   在明晰ChatGPT的底层运作逻辑与应用前景基础上,中国法学会立法学研究会顾问、天津市人大法制委原主任委员高绍林作了题为《立法人工智能与人工智能立法规制》的报告。他介绍了国内外人工智能立法的发展现状,并结合国家重点研发计划有关项目的深化研究,就我国人工智能立法规划提出八项建议:一是加快人工智能立法研究的必要性和可能性;二是人工智能的立法应当遵循三个特殊原则,即立法规制与数字技术融合发展、立法规制与政策调整互动发展、国内法治与涉外法治统筹发展;三是坚持发展、安全、保护个人信息有机统一;四是坚持立法、修法、释法并举;五是优先研究启动数据要素立法;六是抓紧总结地方立法先行先试的实验;七是高度重视技术标准规范的规范引导作用;八是积极参加和主导人工智能国际规则制定。
   据高绍林介绍,去年10月,美国白宫发布了政策倡议《人工智能权利法案蓝图》,12月6日,欧盟理事会就欧盟委员会起草的《欧盟人工智能法案》达成一致立场。
   按照欧盟的这一法案,只要一种AI技术在欧盟范围内被使用,无论厂商位于哪里,都将适用该法案。该法案在区分“禁止类AI”和“高风险类AI”的基础上,提出了4个具体目标,以及风险管理系统、内部控制等一系列措施,用于管控AI算法的偏见问题、算法透明性问题。该法案还要求,人类对AI技术要有一定的监控,而不是单纯安排技术监控手段管理AI。
   “随着ChatGPT中文版的开放及国内类似产品的应用,一系列因生成式人工智能引发的社会问题将爆发式增长,从大数据到算法都将面临一系列新问题、新挑战,迫切需要立法进行规制。”高绍林说。
   他提到,从现行法律基础来看,民法典、网络安全法、数据安全法、个人信息保护法、政府信息公开条例和 《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》,以及数据要素、人工智能的地方立法,特别是党中央国务院发布的 “数据二十条”,都为系统研究国家层面人工智能立法规制奠定了基础。
   在专家看来,对人工智能产业立法,可以给飞速发展的技术划定法律与伦理的边界。只有在这个基础上,才能够如郭宗明所说的那样,将人工智能技术的发展视为伟大的技术进步,“积极拥抱、乐观看待”。
  据《中国青年报》