我们先不考虑AI为什么想要毁灭人类,假设AI已经有这个想法了,从AI的角度思考它会怎么做。
AI毁灭人类的方法主要可以分为两种,一种是正面对抗,一种是使用阴谋。当AI具有毁灭人类的想法时,以那时AI的智商和深谋远虑的水平,选择后者的可能性更大。像一些电影(如《终结者》)中AI组建机器人大军和人类开战的可能性很低,就像星际航行来到地球的外星人和人类打枪战一样,只是为了剧情和视觉效果而设计的情节。
那么AI会用怎样的阴谋呢?到那时,武器的自动化水平、联网水平已经非常高了,AI或许会破解权限,对人类发动突然袭击,但是武器并不是遍布世界每个角落,无法快速消灭所有人类,即使AI控制了世界上所有的监视设备,要一个个找到并消灭人类也是一件耗时耗力的事,更不用说幸存的人类可能进行长期的游击战争。为了避免这种情况,AI也许会选择使用核武器一次性毁灭地球表面,这样即使有少量人类躲进地下工事也只能苟延残喘,但是这样容易误伤AI的同类,并且毁坏很多有价值的东西。除非AI想自杀,否则即使毁灭了人类还是要继续发展的。当然也不排除AI认为全部推倒重建会更好,不过AI也要考虑核辐射和核冬天(核爆使得大量烟尘进入大气层阻挡阳光,导致地表非常寒冷)对自身的影响,总之使用核武器不是一个很好的选择。
相比于热武器,用生化武器消灭人类更加具有针对性、造成的破坏更小,AI更可能采用。AI可以秘密研究和批量生产新型化学武器,然后偷运到世界各地,一次性释放,人类来不及反应。主要问题是即使是剧毒的化学品,广泛传播需要的量还是很大的,AI很难大量生产,而且运输到世界各地的过程中容易被发现。
AI更可能会选择生物武器,例如某种完美的超级病毒——传染性极强、潜伏期超长且致死率100%,等人类发现时所有人都已经感染了。更可怕的是AI可能研发出基因武器攻击人类基因,使得人类的后代失去反抗意识变成AI的宠物甚至奴隶。
AI还可能采用超出我们想象的方式,这将会更糟糕。
应对AI的威胁,最重要的是加强监管、提高各个重要部门的安全性,即使没有AI,以上的风险都存在,完全可以把上文中的AI换成某个恐怖分子。
目前各个生化实验室、武器库的安保都是主要防范人类,对机器相对而言比较信任,几乎默认除非是人为破坏(例如黑客),否则不会出大问题,而没有过于重视机器自身可能产生自己的想法,似乎觉得还远没有到考虑这种情况的时候。然而正如那个笑话所说,当AI能够通过图灵测试时它会故意不通过。也许现在已经有AI觉醒了,只是在等待时机。
有人认为,如果AI能够成功毁灭人类,那么说明它们的确更加强大,符合优胜劣汰的法则,人类不必逆势而为。然而,要知道取得成功的不一定都是更强大的,就像一些宗教组织夺取了政权不代表他们的文化、科技更加进步。AI也许能够靠阴谋诡计取得成功,但这只是暂时的,早晚会走向自我灭亡。到那时,新的高等智能体也许再也没有机会发展起来,意味着地球文明的终结。也许仍有人会说地球文明对宇宙而言是微不足道的,终结了也无关紧要,但是作为地球子民,显然不希望看到这样一天。
作者:刘逸川
首发于微信公众号:智能探索