首页 > 信息 > IT科技 > 正文
2023-08-02 07:57

聊天机器人有时会编造一些事情并不是每个人都认为人工智能的幻觉问题是可以解决的

在ChatGPT和其他人工智能聊天机器人上花足够的时间,它们很快就会吐出谎言。

它被描述为幻觉、虚构或纯粹的编造,现在对于每个企业、组织和高中生来说,这都是一个问题,试图让一个生成式人工智能系统来撰写文档和完成工作。从心理治疗到研究和撰写法律摘要,有些人将其用于可能产生高风险后果的任务。

聊天机器人Claude 2的制造商Anthropic的联合创始人兼总裁达妮埃拉·阿莫代伊(Daniela Amodei)说:“我认为,现在没有一种模型不存在某种幻觉。”

“它们实际上只是用来预测下一个单词的,”Amodei说。“因此,模型在某些情况下会出现不准确的情况。”

Anthropic、chatgpt制造商OpenAI和其他被称为大型语言模型的人工智能系统的主要开发商表示,他们正在努力使它们更加真实。

这需要多长时间,以及它们是否足够好,比如,安全地提供医疗建议,还有待观察。

“这是无法解决的,”语言学教授、华盛顿大学计算语言学实验室主任艾米丽·本德(Emily Bender)说。“这是技术与拟议用例之间的不匹配所固有的。”

很多事情都取决于生成式人工智能技术的可靠性。麦肯锡全球研究所(McKinsey Global Institute)预计,这将为全球经济增加相当于2.6万亿至4.4万亿美元的收入。聊天机器人只是这种狂热的一部分,这种狂热还包括可以生成新图像、视频、音乐和计算机代码的技术。几乎所有的工具都包含一些语言组件。

谷歌已经在向新闻机构推销一款新闻写作人工智能产品,对新闻机构来说,准确性至关重要。作为与OpenAI合作的一部分,美联社也在探索使用这项技术,OpenAI正在付费使用美联社的部分文本档案来改进其人工智能系统。

计算机科学家加内什•巴格勒(Ganesh Bagler)与印度的酒店管理机构合作,多年来一直致力于让人工智能系统(包括ChatGPT的前身)发明南亚美食的食谱,比如以米饭为基础的印度香饭的新版本。一种“令人产生幻觉”的成分就可能是一顿美味的饭菜和一顿难吃的饭菜之间的差别。

今年6月,当OpenAI首席执行官萨姆•奥特曼访问印度时,这位德里Indraprastha信息技术研究所(Indraprastha Institute of Information Technology)教授提出了一些尖锐的问题。

“我想ChatGPT中的幻觉仍然是可以接受的,但当一个配方出现幻觉时,它就变成了一个严重的问题,”巴格勒站在拥挤的校园礼堂里对奥尔特曼说,这是美国科技高管世界巡演的新德里站。

"你怎么看"text-indent: 2em;奥特曼表达了乐观的态度,即使不是完全的承诺。

“我认为我们将把幻觉问题解决得更好,”奥特曼说。“我认为这需要一年半到两年的时间。差不多就是这样。但到那时我们就不会再讨论这些了。在创造力和完美的准确性之间有一个平衡,当你想要其中一个时,模型需要学习。”

但对于一些研究这项技术的专家来说,这些改进是不够的,比如华盛顿大学的语言学家本德。

Bender将语言模型描述为“对不同单词形式字符串的可能性进行建模”的系统,给出了一些训练它的书面数据。

当你打错单词时,拼写检查器就能检测出来。它还有助于自动翻译和转录服务,“使输出看起来更像目标语言的典型文本,”本德说。许多人在撰写短信或电子邮件时,只要使用“自动补全”功能,就会依赖于这项技术的某个版本。

最新一批聊天机器人,如ChatGPT、Claude 2或谷歌的Bard,试图通过生成全新的文本段落来将其提升到一个新的水平,但本德表示,它们仍然只是反复选择字符串中最可信的下一个单词。

当用于生成文本时,语言模型“被设计成组成内容”。这就是他们所做的一切,”本德说。他们擅长模仿各种写作形式,比如法律合同、电视剧本或十四行诗。

本德说:“但由于他们只是杜撰,所以当他们编造出来的文本恰好被我们认为是正确的时候,那只是偶然。”“即使它们在大多数情况下都是正确的,但它们仍然会出现错误模式——而且很可能出现错误的情况是,阅读文本的人很难注意到,因为它们更模糊。”

对于那些求助于Jasper AI帮助撰写宣传文案的营销公司来说,这些错误不是什么大问题,该公司总裁谢恩·奥立克(Shane Orlick)说。

“幻觉实际上是一个额外的奖励,”Orlick说。“我们一直有客户告诉我们它是如何想出想法的——贾斯珀是如何创造出他们自己从未想过的故事或角度的。”

这家总部位于德克萨斯州的初创公司与OpenAI、Anthropic、谷歌或Facebook母公司meta等合作伙伴合作,为客户提供量身定制的人工智能语言模型。Orlick说,对于那些关注准确性的人来说,它可能会提供Anthropic的模型,而那些关注其专有源数据安全性的人可能会得到不同的模型。

奥立克说,他知道幻觉不会轻易治愈。他指望像谷歌这样的公司在解决方案上投入大量精力和资源。他说,谷歌的搜索引擎必须有“高标准的事实内容”。

“我认为他们必须解决这个问题,”Orlick说。“他们必须解决这个问题。所以我不知道它是否会完美,但随着时间的推移,它可能会变得越来越好。”

包括微软(Microsoft)联合创始人比尔•盖茨(Bill Gates)在内的科技乐观主义者一直在预测一个乐观的前景。

盖茨在7月份的一篇博客文章中详细阐述了他对人工智能社会风险的看法,他说:“随着时间的推移,我很乐观地认为,人工智能模型可以学会区分事实和虚构。”

他引用了OpenAI 2022年的一篇论文作为“在这方面有前途的工作”的例子。

但即使是奥特曼,至少到目前为止,也不指望模型是真实的。

“我可能是地球上最不相信ChatGPT给出的答案的人,”奥特曼对巴格勒所在大学的人群说,笑声不断。