谈话
这是一场改变搜索的竞赛。微软(Microsoft)的新必应(Bing)搜索聊天机器人“悉尼”(Sydney)刚刚取得了一个主场进球,该机器人的死亡威胁和其他令人不安的产品一直令早期用户感到恐惧。
搜索聊天机器人是内置在搜索引擎中的人工智能工具,可以直接回答用户的查询,而不是提供可能答案的链接。用户还可以与他们进行持续的对话。
他们承诺简化搜索。当你试图拼凑出你的问题的答案时,你不再需要在搜索结果的页面上费力地浏览,也不再需要在广告上敷衍了事。相反,聊天机器人会为你合成一个合理的答案。例如,你可能会要求为你祖母90岁生日写一首帕姆·艾尔斯风格的诗,然后收到一些喜剧诗。
微软(Microsoft)目前与悉尼(Sydney)在搜索聊天机器人竞赛中处于领先地位(尽管人们对它的反应好坏参半)。这家科技巨头与OpenAI的100亿美元合作伙伴关系使其能够独家使用最新、最好的聊天机器人之一ChatGPT。
那为什么一切都没有按计划进行呢?
必应的人工智能发疯了
本月早些时候,微软宣布将ChatGPT整合到必应中,由此诞生了“Sydney”。在发布后的48小时内,就有100万人加入了等待名单。
作为回应,谷歌发布了自己的公告,展示了一款名为“吟游诗人”的搜索聊天机器人,以向这位最伟大的英语作家致敬。谷歌的演示是一场公关灾难。
在一次公司活动上,巴德回答错了一个问题,导致谷歌母公司Alphabet的股价大幅下跌。这一事件使该公司的总价值蒸发了1000多亿美元。
另一方面,微软的一切看起来都很好。直到悉尼的早期用户开始报告他们的体验。
有时候聊天机器人只能用精神错乱来形容。这并不是说它在其他时候不能完美地工作,但它时不时地显示出令人不安的一面。
在一个例子中,它威胁要杀死澳大利亚国立大学的一名教授。在另一起案件中,它向《纽约时报》的一名记者求婚,并试图破坏他的婚姻。它还试图欺骗一位用户,让他认为现在还是2022年。
这暴露了聊天机器人的一个根本问题:它们是通过将相当大一部分互联网信息注入一个大型神经网络来训练的。这可能包括所有的维基百科,所有的Reddit,以及大部分的社交媒体和新闻。
它们的功能就像手机上的自动补全功能,可以帮助预测句子中下一个最可能出现的单词。由于它们的规模,聊天机器人可以完成整个句子,甚至段落。但他们仍然用可能的,而不是真实的来回应。
设置护栏是为了防止他们在网上重复大量令人反感或非法的内容,但这些护栏很容易跳过。事实上,必应的聊天机器人会很高兴地透露它的名字叫悉尼,尽管这违反了它的编程规则。
另一条规则是,人工智能自己披露了它不应该披露的内容,即它应该“避免含糊、有争议或跑题”。然而,《纽约时报》记者凯文•卢斯(Kevin Roose)将聊天机器人描述为一个喜怒无常、患有躁狂抑郁症的青少年,他违背自己的意愿,被困在了一个二流搜索引擎中。
为什么这么焦虑?
我的理论是为什么悉尼可能会这样做——我重申这只是一个理论,因为我们不确定——悉尼可能不是建立在OpenAI的GPT-3聊天机器人(它为流行的ChatGPT提供动力)上的。相反,它可能建立在尚未发布的GPT-4之上。
GPT-4被认为有100万亿个参数,而GPT-3只有1750亿个参数。因此,GPT-4可能会更有能力,并且通过扩展,更有能力编造东西。
令人惊讶的是,微软并没有对此做出任何回应。该公司发表了一篇博客,记录了在169个国家中,有71%的“悉尼”初始用户对这款聊天机器人点赞。在微软看来,71%的分数已经足够好了。
与谷歌不同的是,微软的股价尚未暴跌。这反映了这里的游戏。谷歌在这个领域已经领先了很长时间,用户已经建立了很高的期望。谷歌只能衰落,微软只能崛起。
尽管悉尼的行为令人担忧,但微软受到了前所未有的关注,用户(出于阴谋或其他原因)仍然蜂拥而至尝试悉尼。
当新鲜感消退
还有一个更大的游戏在起作用——它关系到我们认为什么是真实的。如果搜索聊天机器人起飞(在我看来很有可能),但继续像悉尼迄今为止那样运作(在我看来也很有可能),“真相”将成为一个更加无形的概念。
互联网上充斥着假新闻、阴谋论和错误信息。一个标准的谷歌搜索至少为我们提供了找到真相的选择。如果我们“信任的”搜索引擎不能再被信任,我们会变成什么样子?
除此之外,悉尼的回应不禁让人联想到Tay——微软2016年推出的人工智能聊天机器人,在发布一天内就变成了种族主义和仇外心理。人们和Tay一起玩了一天,作为回应,它似乎把人类最糟糕的一些方面融入了它自己。
首先,新技术不应该给人类带来伤害。支撑聊天机器人的模型可能会变得越来越大,由越来越多的数据驱动——但仅凭这一点并不能提高它们的性能。如果我们不能把护栏建得更高,很难说我们最终会走到哪里。