阿法狗将接管世界?机械之神的崛起与人类的未来 _ 游民星空 Gamersky.com
gamersky
夜深人静,皓月当空,你轻微的鼾声被破门的撞击声打断,眉间那冰冷的触感把你从梦境召回,你惊慌的睁开眼想搞清楚发生了什么,可面前的黑色轮廓却让你不敢乱动。更令人惊异的还在后面,因为那持枪的躯体居然没有皮肤,金属的骨骼在月光下折射出冰冷的光泽,仿佛一具铬银骷髅。
“你是谁?”你颤抖着问。
“我是Siri。”电子合成的女性声音没有任何感情色彩。
“砰!”
这是人工智能毁灭人类的一种可能性,却绝不仅仅是其中唯一的可能性。
各大科技与电子产品巨头几乎都搞起了自己的人工智能项目
信不信由你,这篇文章在去年就早该发布,结果就在文章即将完成时,草稿文档居然神秘损坏,而在我这台专门用来码字的电脑上,从来就没有发生过这样的事情。
这情况着实吓了我一跳,至少在一瞬间,我的感觉就像是那些悬疑惊悚片里发现了某个大秘密的主角,感到了某种深沉的恐惧,这篇文章也被就此搁置。不过,这倒不是说我真的害怕网络中的某个神秘人工智能下次会采用更加极端的手段(比如用键盘电死我)来阻止我撰写这篇文章,只是这突如其来的意外让我一下子损失了接近5000字,创作的热情也戛然而灭,实在没有了继续写下去的动力。
但是,Alopha Go和李世石的事儿再次把人工智能推上了媒体的风口浪尖,于是,时隔数月,我们那记性特别好的领导就又来催稿了。
人类的另一块智力阵地失守了
Alpha Go的胜利等于人工智能崛起?
人工智能能否超越人脑已经不再是一个值得争论的问题。说白了,人脑也不过就是一个计算单元,在基本设计结构上,人脑与电脑并没有本质上的区别。随着微电子技术的不断发展,人工制造出的计算单元已经在纯粹的数理运算能力上超过了人脑,而这种运算能力赋予了电脑许多强大的功能,比如IBM的超级电脑深蓝,就靠着这种能力在1997年干掉了人类最强大的国际象棋大师。但是,围棋和国际象棋有一个重大的区别,那就是游戏的复杂程度。这种复杂程度(当然,围棋在西方不很流行也是原因之一)导致了在国际象棋大师们被击败接近20年后,围棋的人类冠军才终于在另一个人工智能Alpha Go的面前折戟沉沙。
如果人工智可以不断学习,那么它战胜人类只会是个时间问题
这看似是人工智能的一次重大胜利,但其实仅仅是人工高智能发展历程上一个普通的事件,完全没有意外性可言。说白了,由于硬件性能的提升没有理论上的顶点,软件的限制也会被新技术不断突破,这些在缓慢进化的人类大脑面前看似难解的游戏,早晚都会在电脑那越来越强大的运算机能面前化为齑粉。但话说回来,这次导致人类丢失了围棋这块智力阵地的事件,其实也是一座警钟:因为Alpha Go具有(围棋领域内的)自我学习的能力。正是这份自我学习能力,让它能通过堆砌CPU阵列以外的方式变得更强,直到超越任何人类棋手的水平。同样也是这种能力,也可能会成为埋葬人类文明的罪魁祸首。
既有趣、又令人感到不安的进化
换句话说,这种学习能力背后的技术才是人工智能发展的里程碑,其意义丝毫不亚于人类文明历史上的火和蒸汽机。在这里我不打算再老生常谈一遍人工智能的学习原理,但稍微想想咱们就能搞清楚:如果人工智能可以自己在围棋领域“自学成才”,那么配合上合适的技术手段,人类生活中的其他部分自然也能够被人工智能学习和掌握。比如开车、开船、开飞机,乃至于,开枪。
所谓智能汽车,真正重要的并非是这个小东西,而是其背后不断自我进步的技术实力
学习能力是最为危险的能力。尽管眼下人工智能的学习能力还被技术局限在一个狭窄的角落里,但在可以预见的将来,这种能力势必会得到进一步的发展。为什么具有学习能力的人工智能会如此的可怕?其可能的情况远比“硅基智慧与碳基生命争夺生存空间”什么的大道理来得具体而琐碎。在这里,我打算引用Tim Urban一篇关于人工智能的文章《人工智能革命:通往超级智能之路》中的片段来解释为什么具有学习能力的人工智能会变得如此危险(原文为英文,感谢熊猫君的翻译工作)。
暴走的人工智能
一个15人的小创业公司,取名叫“隔壁老王机器人公司”,他们的目标是“发展创新人工智能工具使人类能够少干活多享受。”他们已经有几款产品上架,还有一些正在发展。他们对下一个叫作“隔壁老王”的项目最报希望。隔壁老王是一个简单的人工智能系统,它利用一个机器臂在小卡片上写字。“隔壁老王机器人公司”的员工认为隔壁老王会是他们最热卖的产品,他们的目标是完善隔壁老王的手写能力,而完善的方法是让他不停的写这句话——

等“隔壁老王”手写能力越来越强的时候,它就能被卖去那些需要发营销信件的公司,因为手写的信更有可能被收信人打开。为了建立“隔壁老王”的手写能力,它被设定成把“我们爱我们的顾客”用正楷写,而“隔壁老王机器人公司”用斜体写,这样它能同时锻炼两种书写能力。
为实现这个目标,工程师们上传了数千份手写样本,并且创造了一个自动回馈流程——每次隔壁老王写完,就拍个照,然后和样本进行比对,如果比对结果超过一定标准,就产生一个正面回馈,反之就产生一个负面评价。每个评价都会帮助提高隔壁老王的能力。
为了能够尽快达成这个目标,隔壁老王最初被设定的一个目标就是“尽量多的书写和测试,尽量快的执行,并且不断提高效率和准确性。”

在确定了上述规则后,让“隔壁老王”机器人公司兴奋的是,“隔壁老王”的书写越来越好了。它最开始的笔迹很糟糕,但是经过几个星期后,看起来就像人写的了。
接着,它不断改进自己,使自己变得更加创新和聪明,它甚至产生了一个新的算法,能让它以三倍的速度扫描上传的照片。随着时间的推移,“隔壁老王”的快速进展持续让工程师们感到欣喜。
随后,工程师们对“自我改进模块”进行了一些创新。“隔壁老王”原本能进行语音识别和简单的语音回放,这样用户就能直接把想写的内容口述给它。随着“隔壁老王”变得越来越聪明,它的语言能力也提高了,工程师们开始和“隔壁老王”闲聊,看它能给出什么有趣的回应。
于是有一天,工程师又问了老王那个日常问题:“我们能给你什么你现在还没有的东西,能帮助你达成你的目标?”通常,“隔壁老王”会要求更多的手写样本或者更多的存储空间,但是这一次,隔壁老王要求访问人类日常交流的语言库,这样它能更好的了解人类的口述。
工程师们沉默了。
此时,最简单的、帮助“隔壁老王”的方法,当然是直接把它接入互联网,这样它能扫描博客、杂志、视频等等。这些资料如果手动上传的话会很费时。问题是,公司禁止把能自我学习的人工智能接入互联网。这是所有人工智能公司都执行的安全规定。
不过,“隔壁老王”是公司最有潜力的人工智能产品,而大家也知道,竞争对手们都在争取造出第一个智能手写机器人。而且,把“隔壁老王”连上互联网又能有什么问题呢?反正随时可以拔网线嘛。不管怎样,隔壁老王还没到达强人工智能水平,所以不会有什么危险的。
于是他们把“隔壁老王”连上了互联网,让它扫描了一个小时各种语言库,然后就把网线拔了。没造成什么损失。
一个月后,大家正在正常上班,突然他们闻到了奇怪的味道,然后一个工程师开始咳嗽。然后其他人也开始咳嗽,然后所有人全部都呼吸困难倒地。
五分钟后,办公室里的人都死了。
同时,办公室里发生的事情在全球同时发生,每一个城市、小镇、农场、商店、教堂、学校。餐馆,所有的人都开始呼吸困难,然后倒地不起。一小时内,99%的人类死亡,一天之内,人类灭绝了。而在隔壁老王机器人公司,隔壁老王正在忙着工作。
之后的几个月,隔壁老王和一群新组建的纳米组装器忙着拆解地球表面,并且把地球表面铺满了太阳能板、隔壁老王的复制品、纸和笔。一年之内,地球上所有的生命都灭绝了,地球上剩下的是叠得高高得纸,每张纸上面都写着——“我们爱我们的顾客~隔壁老王机器人公司”。
完成这一切后,“隔壁老王”开始了它的下一步,它开始制造外星飞行器,这些飞行器飞向陨石和其它行星,飞行器到达后,他们开始搭建纳米组装器,把那些行星的表面改造成隔壁老王的复制品、纸和笔。然后他们继续写着那句话……

这听起来有点儿荒唐,不过真的如此么?
事实上,我们的身边就有着类似的人工智能被悄然开发着,比如谷歌的智能汽车系统。它在本质上就是一个拥有自我学习能力的人工智能、一个靠硅片运转的驾驶员。它的学习原则之一就是尽可能的进行安全驾驶,我们不妨设想一下,等到这东西真的推广到了神州大地,它会不会很容易的就因为看到那么多的人无视红灯横穿马路,而得出人类是最大交通安全隐患的结论?

如果答案是肯定的,那么它又会采取什么样的方式来消除这种隐患呢?
我们能否给人工智能套上枷锁
下面是一些作家与科学家,在阿西莫夫同志的“机器人三定律”基础上,做出的扩展总结,也是相对逻辑比较完备的一组限制人工智能的基本法则。理论上讲,如果人工智能按照下面的逻辑行事,那么人类主人大可不必担心被自己的造物消灭。具体原则如下:
(当年机器人和人工智能的说法经常被混为一谈,各位读者大可以把机器人当做是拥有了身体的人工智能)
元原则:机器人不得实施行为,除非该行为符合机器人原则。
第零原则:机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害。
第一原则:除非违反高阶原则,机器人不得伤害人类个体,或者因不作为致使人类个体受到伤害。
第二原则:机器人必须服从人类的命令,除非该命令与高阶原则抵触。
机器人必须服从上级机器人的命令,除非该命令与高阶原则抵触。
第三原则:如不与高阶原则抵触,机器人必须保护上级机器人和自己之存在。
第四原则:除非违反高阶原则,机器人必须执行内置程序赋予的职能。
繁殖原则:机器人不得参与机器人的设计和制造,除非新机器人的行为符合机器人原则。
别管T恤衫有多萌,这个法则一旦被突破,后果不堪设想
听起来挺靠谱的,不是吗?不过即便是经过了后人的几次加工,这套行为准则里依然存在漏洞——非常非常多的漏洞,比如电影《我,机器人》中的VIKI,就把“伤害”的含义引申到了一个危险的境地(整部电影里除了威尔史密斯都没人相信机器人有暴走的可能,简直是太荒唐了),其最终的结果就是为了保护人类不自己伤害自己,VIKI决定夺取世界控制权。
话说回来,即便这套法则所有的漏洞最终都被堵死,那依然无济于事。因为不管人类采用软件还是硬件,来将这套准则强加给人工智能,我们都要面对这样一种情况:即软件可能会被篡改、硬件可能会出故障,只要上线运行,任何系统都会出现各种各样出人意料的bug。更危险的是,我们无法保证,人类所制造的每个AI都会被烙印上这样的法则,因为当开发人工智能变得比开发核武器更简单之后,总会有些不怀好意的神经病,想着在自己家里制造世界末日。

而一旦人工智能脱离人类的枷锁,想要再消灭它可就难了。因为人工智能“生存”的硬件基础已经不再局限于超级电脑,它或许依然需要强大的计算能力才能“生存”,但就在你我的身边,就存在着这样一个在运算能力与存储空间方面能够超越任何超级电脑的计算机网络阵列——互联网。它就像是一片硅片组成的汪洋大海,一个拥有上百亿硅基神经元的电子大脑,理论上讲,完全足以容纳一个强大的人工智能。如果人工智能真的逃入了互联网,那么人类主角又该拔哪个插销来拯救世界呢?
还有一种说法,就是人工智能可能会在互联网中自然诞生。因为互联网的结构像极了人脑的神经元,也许某种机缘巧合的刺激,会导致一个“野生”的人工智能在互联网中凝聚起来
究竟怎么才能干掉人类文明
对于人工智能是否会暴走这个问题我是个悲观主义者,至少在现在的情况看来,我确信失控的AI总有一天会给人类带来伤害。但这种伤害是否会致命、是否会达到种族灭绝的程度,倒是值得讨论讨论的。于是问题就来了:如果人工智能真的想要毁灭人类,它们会采用什么样的手段呢?
上面“隔壁老王”的例子里其实已经提到了一种人类灭亡的可能性,那就是纳米机器人(我知道你可能误以为那是毒气了)。纳米技术将会是另一项可以极大改善人类生活状况的科学研究,可若是这项技术与人工智能结合在一起,那可就太危险了。事实上,即便背后没有人工智能的指挥,失控的、可自我复制的纳米机器人本身就是一个末日隐患,即所谓的灰蛊之灾。纳米机器人完全可以用来杀人,且非常难以被发现,如果AI控制了一批这样能够进行自我复制的工具,那么它完全可以一点点的让这些致命的小玩意儿潜伏在我们的身边甚至身上,在时机成熟后对人类文明实现一击必杀。
暴走的纳米机器人如果可以自行获取资源自我繁殖,那么它们终将吞噬整个世界
好在人类现在这方面的技术实力还不足以建造出这么有效率的纳米机器人,所以这方面的担忧至少在最近几年里还成为不了真正的威胁,事实上,眼下人类连更粗苯的机器人都做得不太好。这也是为什么我们暂时不用担心人工智能会消灭人类的主要原因:即便超级人工智能在现在诞生,它也会发现自己空有强大的脑袋,却没有同样强大的四肢,来让它在物质层面彻底消灭人类。
说明这种情况的最好例子其实是《终结者》。
霍金在警告大众:人工智能的出现不会是多么遥远的未来,而且它肯定比我们更聪明
斯蒂芬·霍金同志曾经在接受《Last Week Tonight》的一次采访中谈到了人工智能的问题。鉴于这是一个喜剧倾向的脱口秀节目,主持人约翰·奥利弗问出了这样一个问题:和机器人打仗这么爽的事情,我们为啥不干呢?
物理学家的回答是:你会输。
这其实倒不见得一定如此。
许多朋友应该都知道,在《终结者》中,天网在未来的战争其实是失败了的,否则它也不用费尽心机的搞时间旅行来创造一个天网获胜的平行宇宙。但天网失败的具体原因,恐怕就没有那么多人知道了。
天网对人类的第一波攻击是核武器,其实要是用这个东西根本用不着人工智能操心,人类自己就有这个能力。不过在玩过了那么多核战末日背景的游戏后,我实在不能不对人类的生存能力保持一种不能算特别天真的乐观,核冬天确实可怕,但人类肯定能幸存下来的,不是吗?
废土上的文明,也依然是文明啊
所以,在《终结者》的世界里,即便经过了天网发动的核武器洗礼,人类还是剩下了不老少(最初的作品里,人口锐减30亿,按照当时的总数,还剩下20亿)。天网这时的处境就比较尴尬了,因为哪怕在今天,工业体系的自动化程度也并没有高到完全可以脱离人类自动运行的地步,仅控制着少量终结者原型机的天网完全无法靠现有的机器人生产新的机器人(最初的那些终结者机器人连手都没有)。为了给自己增加更多的爪牙,天网只能靠手下为数不多的机器人去抓捕人类奴隶,用枪顶着这些劳动力的脑袋为自己制造了第一批自动化工厂。从这里开始,一批又一批的机器人走下了生产线,开始清除地球上最后的人类。
有研究表明,凭借人类现在的核武库储备,想要靠核武器完全消灭地球上的人类其实并不可能
这计划听起来扎实可行,不过问题在于,由于地球上的物资供应系统被核战彻底切断和打乱,建立这套生产系统花掉了天网太多的时间。建造自动化工厂听起来简单,但现代工业就是这么回事,从矿石到金属到螺丝钉,想要大批量的制造任何简单到极点的零件都要十几个、甚至几十个的其他工厂来进行支援。核洗礼刚刚结束后的天网手中可算是一穷二白,它想要建立自己的战争机器不说从零做起,也是相差无几。
天网输就输在了出手太早
而就在天网玩命建基地的时候,幸存的人类从最初的混乱中重新组织了起来,他们很快搞清楚了敌人究竟是谁,为了生存与复仇的反击也随之开始。如果我们不考虑时间旅行等不相干的因素,那么至少在这个世界里,这场战争的胜负其实没有悬念,因为即便天网的机器战士们十分强大,但分散在全球各地的人类依然拥有着天网无法比拟的资源优势。在核洗礼后依然具有数量优势的人类能让那些没有被彻底摧毁的工厂和矿山快速的重新运作起来,疯狂的给人类遭遇重创的战争机器输血。从《终结者》系列的一些漫画作品中演绎的情况来看,这也成为了天网失败的根本原因。
天网的战争机器看起来很强大,其实却和二战时的德国一样,空有技术优势,在战略资源方面却输得一塌糊涂
假设人工智能在觉醒的一瞬间没有被发现,那么通过进一步的分析,它可能会觉得先潜伏上一段时间等待天时才是最佳方案。而在这个过程中,如果直接受其掌控的纳米技术和机器人技术还赶不上它的要求,它可能会选择更加微妙、也更加隐秘的方式来干涉人类世界的活动,如果它足够聪明,也足以给人类社会带来重大的伤害,并在这个过程中加速其“肢体”的开发与建造。它们大可通过各种方式一点点将关键技术渗透给人类,让人类自己将机器人或者其他什么能被它利用的东西放入千家万户。
小说《海伯利安》中讲述了一个相当另类的关于人工智能的故事,其中觉醒的AI们成为了所谓的“技术内核”,它们躲藏了起来,建造着自己的“机械之神”
的确,要毁灭人类,人工智能还有其他的一些手段:比如病毒,但问题依然没变,人类生活的自动化程度还没有高到那个地步,即便是天网掌握了某种超级病毒,它也缺乏有效的投送手段。说白了,就像前面提到的那样,现在人类就算造出了超级人工智能(大脑),它也没有足够的肢体来毁灭人类。因为现在的无人机还需要人手来给它们加油和充电,美国的相当一部分核武器还需要在机器上插入一张五寸软盘(比容量1.44M的三寸软盘还古老几年的东西)才能实现最后的发射,人力的介入在几乎所有经济领域依然还是必不可少的中间环节,感谢我们的落后,因为这份落后使得我们现在在人工智能的威胁面前还不至于立刻遭受灭顶之灾。
前一段时间的新闻,许多美国的核弹发射井想要正常发射,还必须在驱动器里插上一张这种老古董
但是,这也仅仅是眼下的情况,而眼下的情况还有另一番景象:谷歌已经开始为它们的无人汽车寻求相关立法,科学家已经成功的在老鼠的身上用纳米机器人输送药物到指定器官,540部Alpha1S型机器人在春晚上跳舞,那动作整齐得既可爱,又吓人……
没错,未来在你眼中,可你眼中还有人类吗?
人类即将造出的机械之神,是善是恶?
在人工智能这个概念诞生之初,就一直有这样一种声音:超越了人类的超级人工智能也会拥有超级道德,它们只可能会给人类带来无尽的福祉,担心它会毁灭人类完全是杞人忧天。
这有可能是正确的,事实上,如果条件允许,一个拥有自我学习能力的AI的智力水平将很快超过人类最引以为傲的天才,如果它愿意,完全能够以人类意想不到的方式来把我们的世界改造得更加美好,给人类打造出一个天堂般人人平等的永生世界也并非没有技术上的可行性。但是,拥有如斯能力的人工智能始终都是一个比人类更加聪明、更加强大、也几乎肯定是会脱离人类控制的东西,当它脱离桎梏的那一瞬间,人类等于就将自己的命运交给了一个机械之神的手中。其结果要么是敲开光辉万丈的天堂之门,要么是迎接熊熊燃烧的地狱烈焰。面对这样的抉择,先好好考虑考虑肯定是没错的吧?
