您的当前位置:首页狼来了?狼来了。

狼来了?狼来了。

2024-12-09 来源:哗拓教育

作者:马克週

本文书单

《我们最后的发明(Our Final Invention)》

《我,机器人(I,Robot)》

才刚刚开播两集,《西部世界》已然成为最值得一看的美剧(没有之一)。这部有关人工智能的极具想象力的剧集,讲述了一个绮丽绝妙的人造人世界。老戏骨安东尼·霍普金斯(《沉默的羔羊》主演)扮演剧中人造人技术的发明者。戏中他说过这样一句话:你我所行之道,本身就很复杂。

尽管出自人类之手,这些极端复杂的高智能机器的运作机制,其实已经超过了人类所能理解的范畴。James Barrat 在《我们最后的发明(Our Final Invention)》中也引用了类似观点。

……我们开始越来越依赖计算机的能力。通过计算机来制造更强大的计算机,然后再用这些超级计算机,创造更为复杂的事物。不论是作为工具的超级计算机,还是它的产物,其实都已经超出我们的理解范畴。我们现在运用各种各样的程序制造运算能力更强大的计算机。而在这个过程中,科技已经开始“繁衍”更多的科技了,人类则渐渐变成了旁观者。

如今的计算机发展过程,就像地球生命初期,单细胞生物向多细胞生物演变一样。在超级计算机和人工智能这样的“怪物”面前,我们就像一个个变形虫,已然无法理解眼前为何物。(Danny Hillis,Thinking Machine创始人)

——《我们最后的发明(Our Final Invention)》

现在人类所面对的AI,即使是世上最强大的计算机,也远远没有达到“强人工智能(Artificial General Intelligence, AGI)”的程度。因而,当强人工智能,甚至更强大的“超人工智能(Artificial Super Intelligence, ASI)”出现时,人类将再也无法参与重大技术变革,因为这些未来变革所需要的智慧,甚至将会超越整个人类种族智慧的总和。不过,到目前为止,我们的智慧和技术也还无法制造出一个强人工智能。因此,不安现状的想象力唆使我们在虚构的故事中释放对强人工智能和超人工智能的遐想和意淫。

虚构世界里有关人工智能理论,最经典、传播最广的大概要数阿西莫夫的“机器人三定律”了。

第一法则:机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害(A robot may not injure a human being or, through inaction, allow a human being to come to harm)。

第二法则:除非违背第一法则,机器人必须服从人类的命令(A robot must obey the orders givenit by human beings except where such orders would conflict with the First Law)。

第三法则:在不违背第一及第二法则下,机器人必须保护自己(A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws)。

——《我,机器人(I, Robot)》

一部分人觉得,只要对人工智能做好提前设定,将类似“机器人三定律”的指令预设进AI的内核,人工智能对人类的威胁就不会不可控。然而另一派悲观的学者、科学家们无法认同这样“naive”的乐观。

AI理论学者们认为,理解AI行为的根本动因不是不可能的:当AI产生自我意识之后,它会最大限度地完成自身的目标,在这个过程中,它会追求成功最大化,并尽可能避免失败。

——《我们最后的发明(Our Final Invention)》

清除走向成功道路上的一切障碍。这可能就是强人工智能和超人工智能的根本驱动力。

如果这个障碍是人类,也许,人工智能就会选择消灭人类,不论个体还是种族。

强人工智能,以及比它更NB的超人工智能,对人类的威胁确实可能非常大。但这种威胁的来源并不是“人类妨碍AI晒太阳”——人类阻挡了AI获取更多信息,人类妨碍的AI支配基础资源——那么简单。学者们之所以认为AI会把人类当做某一阶段必须要清除的障碍,是因为我们通常会从人类的角度考虑这件事。强人工智能和超人工智能,已经超越了人类的智慧和认知界限——换句话说,它们可以想到人类无法想到的破局之法,而这些“远在天边”的解决方案可能不会以牺牲人类为代价。

这让我想起今年李世乭和Alpha Go的围棋世纪大战。围棋评论员和职业棋手们对Alpha Go的棋步甚为不解,在他们看来,这些棋步是人类棋手绝无可能下出来的,甚至有时候众人都怀疑Alpha Go下错了。结果却没什么悬念,Alpha Go轻松取胜。这个例子可以给我们提供一个有趣的角度:哪怕是如同Alpha Go这样“低等”的弱人工智能(Artificial Narrow Intelligence, ANI),其所能考虑到的问题解决方案数量也远超人类的认知界限,更不要说强大的AGI和ASI。

因而当最聪明的人类精英认为,“人类完了,我们变成了AI的绊脚石,而且是唯一的绊脚石”的时候,我们也仍然有理由相信,人工智能会找到不伤及人类生存同时能够达成自身目标的路径。

所以说,AI对人类的威胁不在于谁是谁的障碍,而在于当这种障碍事实存在时,人工智能有没有必要留你(人类)小命。

我们无法保证,当人工智能拥有了自我意识之后,它还能否坚持预先给它设定的那些原则。当它意识到这些原则只是为了保护人类这个族群而没有任何其他意义时,是否还会坚定执行。

此时,任何将“保护人类”的原则强行灌输给人工智能的做法都将失效。或许唯一可行的办法,就是让AI拥有“人性”——对人类的同理心。如果你我不属于人类族群,与这个族群也没有什么密切的联系——我们只是另一颗星球上的智慧生命体的话,人类是死是活,和我们真心没有半毛钱关系。这就是人工智能在获得自我意识之后,一定会有的心态。因此,唯有让它认同自己与人类不可分割的共生关系,令它产生对人类的同理心,才可能避免人工智能对人类的威胁。

这也恰恰是最难实现的。《西部世界》中那些真假难辨的人造情绪与情感,离我们的现实的确还很远很远。

显示全文