在美国国会本周举行的一场热门听证会上,我们听到了一个6个月前在硅谷以外鲜为人知的人的讲话。
山姆·奥特曼(Sam Altman)加入了美国科技公司首席执行官的行列,他们既受人爱戴,又令人敬畏,因为他是OpenAI公司的负责人,ChatGPT是一款基于文本的在线聊天程序,它能够对人类的问题做出比以往任何时候都更好的计算机回答,因此引发了头条新闻的爆炸式增长,也让科技行业感到心痛。
当然,我们说的是人工智能——尽管你不需要再用长篇大论了:它就是人工智能。
这场听证会是一场超现实主义的听证会,在聚光灯下的政客们经常会就他们一无所知的话题向人们提出尖锐的问题。但更不寻常的是,与社交媒体帖子或搜索引擎不同,人工智能的实际工作方式很少被理解,而它的结果却如此迅速地被理解,感觉就像魔术一样。
你可以问ChatGPT一个问题——任何问题——它会在几秒钟内提供一个惊人的得体的回答。人们对人工智能最不了解的是什么?我问。
“人们对人工智能的一个常见误解是,它是一种有情感和意识的有知觉的生物。实际上,人工智能是一个编程系统,旨在执行特定任务,并根据数据和算法做出决策。此外……”接下来还有三句话,都是完全合理和准确的。
人工智能不仅可以讴歌自己。医生们报告说,当被问及具体的医疗问题时,他们对它的回答的准确性感到震惊。微软的计算机科学家报告称,他们的人工智能系统已经开始显示出人类推理的迹象。当声称来自流行音乐人德雷克和威肯的新歌在网上发布,后来被揭露完全是由电脑创作的时候,互联网一代爆发了。许多人看不出其中的区别。
这就是事情真正开始的时候:我12岁的女儿上周告诉我,她和耶稣(或者更确切地说,是一个被设置成模仿其创造者认为正确的耶稣版本的聊天机器人)进行了一次非常有趣的对话。她传达了它复杂的哲学和伦理思想,这些思想完全符合基督教信仰,而且出人意料地很好地反映了基督教信仰。但她对它对阿道夫·希特勒和第二次世界大战问题的回答感到失望。
一位朋友兼邻居解释说,她曾使用ChatGPT来改进给高级管理层的电子邮件回复。
“帮我处理一下,”她问闪烁的盒子,提供了她的回复草稿,几秒钟后,她得到了一个更坚定、更自信的回复。她拧了一下,发了出去。
另一个朋友——好莱坞一位成功的电视编剧——目前正在罢工,部分原因是编剧工会担心电影公司会使用人工智能来生成剧本,然后付给他们的成员很少的钱来“出拳”。现在的职业将变成一份零工。
这就是恐惧——以及因此而来的国会听证会——发挥作用的地方。我们还不知道这项技术会对我们的生活产生什么影响,但它已经在做一些难以解释的事情,而且似乎准确地模仿了聪明而有思想的人类,以至于很难分辨出它们之间的区别。
参议院司法委员会(Senate Judiciary Committee)的一名成员提到了一封由数千名忧心忡忡的科学家和技术专家签署的信,信中要求“暂停”特定人工智能技术的开发6个月,因为它“对社会和人类构成深刻风险”,并询问人们的担忧是否正确。
ChatGPT的奥特曼说:“如果这项技术出了问题,它可能会出很大的问题,我们想要直言不讳。”
他满脸是汗,承诺“与政府合作,防止这种情况发生。”
如果这一切看起来有点夸大其词,那么奥尔特曼对纽约大学(New York University)名誉教授加里·马库斯(Gary Marcus)的看法就不一样了。马库斯警告说,民主本身受到了威胁,唯一能阻止我们和导致不可避免的社会崩溃的大规模混乱之间的,是内阁层面的新监管机构。
但这些都是真的吗?人工智能是否真的有毁灭人类的风险,因为人类无法认识自己,并被我们的手机引向毁灭的花园小径?
答案当然是否定的。事实是,人工智能对人类根本不是威胁。它威胁的是我们人性的缺失。
这些系统已经存在了很长时间,人们已经开始习惯它们了。就像当时所有其他技术进步如此之新,似乎无法立即理解一样,人工智能也有人类经验轻易超越的界限。
一开始可能会让人感到困惑,因为人工智能给人的印象是一个聪明而见多识广的个体。而你或我可能要离开去查找一些东西来提供一个好的答案,答案就在它的指尖。原因是,它完全建立在知识和工作的基础上,这些知识和工作是由许多人积累、撰写和发布在网上的。数以百万计的维基百科帖子是其基础的重要组成部分,就像它们对谷歌一样,因为它们不仅是由人类撰写的,而且是由更多的人类监管和纠正的。
机器只是把我们集体告诉它们的东西反射给我们。他们能够给医生准确的诊断,因为其他医生已经发现了问题,并把它写了下来,这样其他人就可以分享这些知识。
这是一件了不起的事情,它有潜力带来巨大而积极的社会变革,它允许我们以更有效的方式利用所有人类的知识和智慧。
问题在于,作为一个种族,我们也可能相当愚蠢:容易产生偏见,愿意相信不真实的事情,被误导的胡说八道逗乐。所有这些都存在于互联网上,人工智能很难分辨出其中的区别,因为——这是关键——它并不是真的很聪明。是的,从军事或间谍这个词的意义上讲,“情报”只是指“可能是真的也可能是假的信息”;这并不聪明。它擅长完成特定的任务,却不擅长完成某项工作。人工智能所代表的危险是我们自己的愚蠢被扔回我们身上——而我们相信了这一点。
人工智能在很大程度上仍然是一台计算机。它无法把握、感受和理解情绪,或成功或失败,它只是存在。尽管一些计算机科学家尽了最大的努力,但人工智能只能以最像机器的方式复制人类。例如,治疗师被训练来控制自己的情绪反应,人工智能在模仿这种不自然的互动方面做得很好。但是要求它建立一个真正的连接,它每次都失败。人们报告说,当他们收到来自他们认识的人的人工智能写的电子邮件时,他们会感到有点惊讶、恼火或不安。它给人的感觉是冷酷的,甚至是欺骗性的。
是的,对不起德雷克的粉丝们,但他的很多音乐都是如此相似和重复,电脑可以把它们全部吸收,咀嚼和组合,然后创造一个尚可的新版本。但如果你没有真正倾听,你只会被人工智能版本愚弄。这首歌听起来好像音乐家没有全身心投入。
事实是,尽管这项技术既有趣又非凡,但我们都在为它聪明但无用的部分而兴奋,就像停下来听一对夫妇在博物馆外互相大喊大叫一样。
我们确实需要企业、政府和监管机构密切关注人工智能可以做些什么,就像我们应该阻止社交媒体变得如此卑鄙一样。但人工智能的魔力很快就会消退,我们将像对待其他技术进步一样对待它。
与此同时,有一种极其简单、有效且肯定生活的方法可以避免所有的混乱:关闭你的设备。