首页 / 国际 / 正文

OpenAI试图减少聊天机器人的“幻觉”

放大字体  缩小字体 2024-11-25 00:39  浏览次数:0

ChatGPT面临的问题之一包括聊天机器人幻觉,这是机器人编造随机信息并将其作为事实呈现的能力。

社交媒体上流传着许多抱怨,聊天机器人的幻觉让人们陷入了麻烦。最近的一个例子包括一位纽约市律师,他引用了ChatGPT建议的案例,但事实证明这些案例从未发生过。这名律师最终可能会因将虚假信息当作事实传播而面临制裁。

在苹果首次亮相VR之前,meta发布了Quest 3混合现实耳机

最近,CNBC报道了Open AI研究人员在这方面所做的研究。报告指出,“即使是最先进的模型也容易产生谎言——它们倾向于在不确定的时刻创造事实。”这些幻觉在需要多步推理的领域尤其成问题,因为一个逻辑错误就足以破坏一个更大的解决方案。”

为了解决这些问题并使聊天机器人更加可靠,OpenAI的工程师们目前正专注于改进其软件。新的策略是训练人工智能模型在得出答案时,对每一个正确的推理步骤进行奖励,而不仅仅是对正确的结论进行奖励。

虽然改进需要时间,但在此之前,聊天机器人的幻觉有可能再次发生