全媒体记者 陈婷
随着DeepSeek、ChatGPT等人工智能技术加速渗透日常生活,其在医疗、教育、金融等领域的革新成果引发社会热议。然而,近期多起AI误判、数据泄露及伦理争议事件,也为技术狂热者敲响警钟。
从“有事问百度”到“有事问DeepSeek”,这一转变给人们带来体验感的升级。但在互动中,AI可能也会“挖坑”。
“AI查阅文献是如此的不靠谱。”近日,广州某高校教授通过DeepSeek查询文献信息,核实后却发现它所提供的作者是假的、年份是错的。
这并非个例。近期,越来越多的博主在社交平台发出警示,告诫网友“警惕AI幻觉”。不少博主指出,AI的强逻辑,让网友产生幻觉,认为“AI完全正确”,但实际上,不少迹象表明,AI经常出现“一本正经胡说八道”的现象。
在社交平台上,不乏看到有些网友使用AI的意见炒股。当输入某只股票代码,询问支撑位和压力位时,它给出的答案与真实情况会有差异。以DeepSeek为例,记者尝试与软件对话发现,它的数据库截至2023年12月,其数据有一定的滞后性,跟不上变化莫测的股票市场。
在社交媒体上,人们找AI诊断、开方的操作已屡见不鲜,但在专业人士看来,即使是经过专业的学习训练、已在医院开展普遍应用的“AI医生”(AI医学大模型),在医疗行为中也只能承担辅助功能。“AI医生”的误诊会给人们带来不必要的焦虑,也可能耽误病情。
其实不难理解,AI更多的是对现有互联网信息进行推理和二次创作,一旦源头资源和数据有误,它生成的内容自然会有差错。从目前使用体验看,AI暂时不具备甄别网络信息真伪的能力。
AI其实也有“自知之明”。记者尝试询问DeepSeek,它不能在哪些领域提供建议或决策,它给出的回答包括医疗健康、法律事务、金融投资、心理健康、学术诚信、个人隐私与安全等。如今,DeepSeek会在每一条答案后加上一个黄色方框,显示“本回答由AI生成,内容仅供参考,请仔细甄别。”