当前位置:主页聚焦 > > 正文

全球热资讯!OpenAI 将用新方法来训练模型 以对抗人工智能“幻觉”

时间: 2023-06-01 05:10:15 来源: 科创板日报


【资料图】

财联社 6 月 1 日讯(编辑 牛占林)美东时间周三,OpenAI 发布的最新研究论文显示,该公司正在用一种新的方法来训练人工智能 ( AI ) 模型,以对抗人工智能 " 幻觉 "。

人工智能幻觉指的是人工智能模型生成内容的能力,这些内容不是基于任何现实世界的数据,而是模型自己想象的产物。人们担心这种幻觉可能带来的潜在问题,包括道德、社会和实际问题。

当 OpenAI 的聊天机器人 ChatGPT 或谷歌公司竞品 Bard 纯粹在捏造虚假信息时,就会发生人工智能幻觉,表现得就像是在滔滔不绝地谈论事实一样。某些独立的专家对 OpenAI 这样做的效果表示怀疑。

举个例子,在谷歌 2 月份为 Bard 拍摄的宣传视频中,这个聊天机器人对詹姆斯 · 韦伯太空望远镜做出了不真实的表述。最近,ChatGPT 在纽约联邦法院的一份文件中引用了 " 伪造 " 的案件,导致涉案的纽约律师可能面临处罚。

OpenAI 的研究人员在报告中写道:" 即使是最先进的人工智能模型也很容易产生谎言,它们在不确定的时刻往往表现出捏造事实的倾向。而这些幻觉在需要多步骤推理的领域尤其严重,因为一个逻辑错误就足以破坏一个更大的解决方案。"

该公司提出的新策略是:训练人工智能模型时,奖励每个正确的推理步骤,而不仅仅是简单地奖励正确的最终结论。根据研究人员的说法,这种方法被称为 " 过程监督 ",而不是 " 结果监督 ",它可能会提高人工智能的性能与准确性,因为这种策略鼓励模型更多地遵循类似人类的 " 思维链 "。

OpenAI 的数学研究员 Karl Cobbe 指出:" 检测并减轻模型的逻辑错误或幻觉,是构建通用人工智能 ( AGI ) 的关键一步。" 他指出,这项研究背后的动机是解决人工智能幻觉,以便使模型更有能力解决具有挑战性的推理问题。

Cobbe 补充道,OpenAI 已经发布了一个附带的数据集,其中包含 80 万个人类标签,用于训练研究论文中提到的模型。

此前一天,科技界高管和人工智能科学家正在对 AI 敲响警钟,他们表示,这项技术带来的灭绝风险堪比疫情和核战。

超过 350 人签署了人工智能安全中心 ( Center for AI Safety ) 发布的一份声明,该组织表示,与疫情和核战争等其他社会规模的风险一样,减轻人工智能带来的灭绝风险应该成为全球的优先事项。

关键词:

相关文章

全球热资讯!OpenAI 将用新方法来训练模型 以对抗人工智能“幻觉”

财联社6月1日讯(编辑牛占林)美东时间周三,OpenAI发布的最新研究论文显示,该公司正在用一种新的方法来训

来源:科创板日报2023-06-01

nedc油耗11l算什么水平(nedc综合油耗是什么意思) 每日播报

大家好,小乐来为大家解答以上的问题。nedc油耗11l算什么水平,nedc综合油耗是什么意思这个很多人还不知道,

来源:乐拇指2023-06-01

钧评:美国这种恶人先告状的把戏该收一收了 天天报道

5月26日,美军一侦察机蓄意闯入我位南海训练区后,我军依法依规进行了处置,但美方不仅不知羞耻,反而装成

来源:@钧正平2023-06-01

《最终骗局》:枫叶时代科幻新作紧张筹备中|世界速看

近未来的世界充满了科技的神奇和便利,我们可以通过智能手机、电脑和其他智能设备轻松地获取信息、社交、学

来源:哔哩哔哩2023-06-01

世界动态:农村穷苦电影_穷苦农村电视剧大全

1、bv948。

来源:科学教育网2023-05-31