ChatGPT面临的问题之一包括聊天机器人幻觉,这是机器人编造随机信息并将其作为事实呈现的能力。
社交媒体上流传着许多抱怨,聊天机器人的幻觉让人们陷入了麻烦。最近的一个例子包括一位纽约市律师,他引用了ChatGPT建议的案例,但事实证明这些案例从未发生过。这名律师最终可能会因将虚假信息当作事实传播而面临制裁。
在苹果首次亮相VR之前,meta发布了Quest 3混合现实耳机
最近,CNBC报道了Open AI研究人员在这方面所做的研究。报告指出,“即使是最先进的模型也容易产生谎言——它们倾向于在不确定的时刻创造事实。”这些幻觉在需要多步推理的领域尤其成问题,因为一个逻辑错误就足以破坏一个更大的解决方案。”
为了解决这些问题并使聊天机器人更加可靠,OpenAI的工程师们目前正专注于改进其软件。新的策略是训练人工智能模型在得出答案时,对每一个正确的推理步骤进行奖励,而不仅仅是对正确的结论进行奖励。
虽然改进需要时间,但在此之前,聊天机器人的幻觉有可能再次发生