AI语言模型的“幻觉”问题是当前人工智能系统面临的挑战之一,可能对高风险任务造成影响。
开发者们正在努力解决这个问题,但目前尚不清楚需要多长时间才能达到足够的可靠性。
虽然技术的改进可能会有所帮助,但一些专家认为这个问题在技术与实际需求之间的差异中根本无法解决。
OpenAI的首席执行官Sam Altman于2023年6月6日星期二在阿拉伯联合酋长国的阿布扎比发表演讲。
与ChatGPT等人工智能聊天机器人相处足够长的时间,你很快就会发现它们有时会输出错误的信息。
这种现象被形象地描述为“幻觉”,即机器人做出的捏造或纯粹的编造。对于那些试图让生成式AI系统编写文档并完成工作的企业、组织和高中生来说,这是一个实际问题。有些人甚至正在使用它进行高风险的任务,如心理治疗、研究和法律写作。
Anthropic公司的联合创始人兼总裁Daniela Amodei说:“我认为现在没有任何一种模型能够完全避免产生一些幻觉。”Anthropic是聊天机器人Claude 2的制造商。
“它们实际上只是设计来预测下一个词的,”Amodei说,“因此模型肯定会有一定的错误率。”
Anthropic、ChatGPT的制造商OpenAI以及其他大型语言模型的AI系统的主要开发者都表示,他们正在努力使这些系统更加真实。
然而,这需要多长时间,以及它们是否能变得足够好,比如,能安全地提供医疗建议,仍有待观察。
华盛顿大学计算语言学实验室的主任、语言学教授Emily Bender说:“这个问题无法完全解决。这是技术与预期用例之间的固有不匹配。”
生成式AI技术的可靠性影响着许多事情。麦肯锡全球研究所预测,它将为全球经济增加相当于2.6万亿至4.4万亿美元的价值。聊天机器人只是这种热潮的一部分,还包括能生成新的图像、视频、音乐和计算机代码的技术。几乎所有的工具都包含一些语言成分。
谷歌已经向新闻组织推销一种新闻撰写AI产品,对于这种产品来说,准确性是至关重要的。美联社也在探索使用这项技术,作为与OpenAI合作的一部分,OpenAI正在付费使用美联社的部分文本档案来改善其AI系统。
与印度的酒店管理学院合作,计算机科学家Ganesh Bagler多年来一直在努力让AI系统(包括ChatGPT的前身)为南亚菜系,如新型的基于米的biryani,发明食谱。一个“幻觉”成分可能就是美味和难吃之间的区别。
当OpenAI的CEO Sam Altman在6月访问印度时,这位在Indraprastha信息技术学院的教授提出了一些尖锐的问题。
Bagler在拥挤的校园礼堂中,对Altman说:“我猜在ChatGPT中的幻觉仍然可以接受,但当一个食谱出现幻觉时,就变成了一个严重的问题。”
他最后问道:“你对此有什么看法?”
Altman表示他对改善幻觉问题保持乐观态度,尽管这并非一个明确的承诺。
Altman表示:“我相信我们能够改善幻觉问题,让其变得更好。我预计这可能需要一年半或两年的时间。但到那个时候,我们将不再需要讨论这个问题。在创新和准确性之间,需要找到一个平衡,模型需要学习何时需要重视一个或者另一个。”
然而,对于已经研究过这项技术的专家,如华盛顿大学的语言学家Bender来说,这些改进还不够。
Bender将语言模型描述为一个“模拟不同词语形式字符串可能性”的系统,这取决于模型训练的文本数据。
这就是拼写检查器能够检测出你打错单词的原理。它也帮助提供自动翻译和转录服务,“使输出看起来更像目标语言的典型文本,”Bender说。许多人在编写文本信息或电子邮件时使用的“自动完成”功能,就是基于这项技术的一个应用。
如今,最新一批的聊天机器人,如ChatGPT、Claude 2或Google的Bard,试图将这项技术提升到新的高度,生成全新的文本段落。然而,Bender表示他们仍然只是在一个字符串中反复选择最可能的下一个词。
Bender指出,当用于生成文本时,语言模型“被设计成能编造事情。这就是它们的全部工作。”它们擅长模仿写作的形式,比如法律合同、电视剧本或十四行诗。
“但由于它们只会编造事情,当它们生成的文本恰好被解释为我们认为正确的信息时,那只是偶然的,”Bender说。“即使它们可以调整为更加准确,它们仍然会有失败模式,而这些失败可能在阅读文本时难以察觉,因为它们更为晦涩。”
对于一些一直向Jasper AI寻求帮助编写销售文案的营销公司来说,这些错误并不是一个大问题,该公司的总裁Shane Orlick表示。
Orlick说:“幻觉实际上是一个额外的奖励。我们有许多客户告诉我们,它为他们提供了新的想法,Jasper为他们创造了他们自己从未想过的故事或观点。”
这家位于德克萨斯州的初创公司与OpenAI、Anthropic、Google或Facebook的母公司Meta等合作伙伴合作,为其客户提供了一系列定制的AI语言模型。对于关注准确性的用户,公司可能会提供Anthropic的模型,而对于关注他们专有源数据安全的用户,可能会得到一个不同的模型,Orlick表示。
Orlick承认,解决幻觉问题不会容易。他期望像Google这样的公司,他说它的搜索引擎必须有“非常高的事实内容标准”,将大量的资源投入到解决这个问题。
Orlick表示:“我认为他们必须解决这个问题。所以我不知道它是否会变得完美,但我相信随着时间的推移,它会变得越来越好。”
包括微软联合创始人比尔·盖茨在内的一些技术乐观主义者,他们一直预测着乐观的前景。
“我乐观地认为,随着时间的推移,AI模型可以被教会区分事实与虚构,”盖茨在7月发布的博客文章中详细阐述了他对AI社会风险的看法。
他引用了OpenAI在2022年发表的一篇论文,作为这方面“有希望的工作”的例证。
然而,即使是Altman,在为各种用途的产品进行市场营销时,也不依赖这些模型来获取他自己需要的信息。
“我可能是地球上最不信任ChatGPT所给出回答的人,”Altman在Bagler大学的一次演讲中告诉听众,引起了一阵笑声。
#免责声明#
①本站部分内容转载自其它媒体,但并不代表本站赞同其观点和对其真实性负责。
②若您需要商业运营或用于其他商业活动,请您购买正版授权并合法使用。
③如果本站有侵犯、不妥之处的资源,请联系我们。将会第一时间解决!
④本站部分内容均由互联网收集整理,仅供大家参考、学习,不存在任何商业目的与商业用途。
⑤本站提供的所有资源仅供参考学习使用,版权归原著所有,禁止下载本站资源参与任何商业和非法行为,请于24小时之内删除!