如果人类灭绝了,那么关于税收的争论就没有意义了。许多参与人工智能(AI)开发的科学家对这种可能性发出警告,这令人担忧。这需要认真对待吗?我们有周期性的世界末日痉挛,比如气候变化,一些活动人士也说气候变化会威胁到人类的灭绝,但几乎可以肯定不会,或者核武器,在某些情况下可能会。
多年来,人们一直认为人工智能将对人类大有裨益,它可以使人们从单调的工作中解脱出来,并找到治疗疾病的方法。如今,常被称为“人工智能教父”之一的约书亚•本吉奥(joshua Bengio)教授表示,如果他意识到人工智能的发展速度,他会把安全性放在实用性之前。另一位先驱杰弗里·辛顿博士从谷歌退休,他说他后悔自己的工作。然而,他们的同事Yann LeCun教授(与他们共同获得了著名的人工智能开发图灵奖)表示,世界末日的警告被夸大了。
企业家埃隆•马斯克(Elon Musk)也更为乐观:“我不认为人工智能会试图毁灭人类,但它可能会把我们置于严格的控制之下,”他最近表示。似乎没有人真正知道,因此在他们的担忧成为现实之前,对AI的扩张施加限制至关重要。
人们可能很容易将这些担忧视为夸大,但考虑到那些最担心的人的专业知识,它们必须得到认真对待。1945年第一颗原子弹被引爆时,曼哈顿计划(Manhattan Project)负责人罗伯特•奥本海默(Robert Oppenheimer)引用了印度经文:“现在我变成了死神,世界的毁灭者。”AI开发者现在对他们的创作有同样的感觉吗?