欣喜与担忧
人工智能的发展速度随着时代的变化而越来越快,当年图灵测试(其内容是,如果电脑能在5分钟内回答由人类测试者提出的一系列问题,且其超过30%的回答让测试者误认为是人类所答,则电脑通过测试)对现在的人工智能们来说已经越来越容易通过了。去年微软善解人意的小冰在微博上与大家互动,有不少不明真相的男青年都把小冰当成了可爱的萌妹子,与其畅聊一整夜。很早的时候科幻作家Greg Egan就表达了他超前的想法,就像电影《Her》中讲的那样,人工智能将会促进人类间更加畅通的交流。
然而,在今年年初,生命未来研究所(Future of Life Institute,简称FLI)发出了一封公开信,马斯克、霍金以及著名演员摩根·弗里曼等科学家和名人呼吁人们关注人工智能对社会产生的影响,以及如何规避人工智能越来越智所带来的潜在风险。马斯克多次表示人工智能很可能将召唤出恶魔,在五年内可能就会发生人类不可控的事情,他甚至还将人工智能视为超过核武器的人类最大威胁;而霍金更是得出了“彻底开发人工智能可能导致人类灭亡。”的结论。
人们的对人工智能的飞速发展抱有期待也深感担忧,可是这样对人工智能乐观的欣喜与悲观的担忧是不是有些操之过急了?因为就现在的情况看来,虽然人工智能的成果令人欣喜,但其智能程度还远远没有达到让它们能够像人一样去思考。
什么是真正的人工智能?
究竟什么才算是真正的人工智能?在百科全书上,人工智能的定义是“它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。”而现在的很多机器人和程序,都仅仅是模拟人工智能。他们能完成大量的我们无法完成的复杂计算,记录大量我们无法想象的数量巨大的数据,完成很多有难度的动作,但这些都不是真正的智能。程序员在编写程序之前就已经知道要让机器人做什么,提前就给它们设置了任务。
那真正的人工智能是什么呢?既然是对人的智能的研究,就要从我们自己说起。在现实世界中,我们不仅仅要去计算、记忆或是对一些事情做出反应这样简单,而是存在大量多线程、模糊事件和突发情况。我们不仅要面对、还要处理很多不确定的事件,你在处理一件事情时,同时还要兼顾其他很多突然会发生的事情和影响。比如开车的时候,不仅要专心开车,还要跟同伴交谈,当前面的路上突然出现一条狗,你也要及时反应并刹车。
所以真正的人工智能,就必须要能做到感知周围环境的变化并做出反应,实时地改变和调整自己的行动以完成任务。再者,更加高级的人工智能还要进行深度学习,让程序自我进化,甚至拥有感情和性格。人工智能是一门极富挑战性的科学,因此从事这项工作的人不仅仅要会编写程序,还必须懂得心理学和哲学。
机器真的能像人一样思考吗?
人体总共有40万亿到60万亿个细胞,而人类意识的产生地——大脑是由连接着1000亿个神经元和100万亿个神经突触组成的庞大网络,这些神经突触和神经元的状态每秒改变10到100次,神经细胞的神经冲动传递速度超过400公里/小时,相当于777飞机速度的一半。而一台超级计算机拥有100万亿字节的内存,拥有的晶体管电路的运算速度比人脑至少快1亿倍,这样的结构让计算机擅长量大、精确的任务。但就算如此复杂的超级计算机也无法拥有自己的“意识”,这究竟是为什么呢?
有人说,是二进制限制了一切,“0”和“1”的框架限制了计算机产生意识。无论是多么高级的程序,都有程序员像魔法师一样在后面用代码操控着一切。看似与你调皮逗笑的Siri,其实也只是程序员的调皮。可是就如前面所说,人类也是由一个个无意识的细胞构成了有意识的整体。为什么不能把一个个晶体管看成计算机的细胞,也许只要足够复杂,在某个机缘巧合之下计算机也能够产生意识,就像是36亿年前,混沌的地球“浓汤”中出现了有机分子继而后来它们又聚合产生了生命一样。当那一天来临的时候,人工智能抵达技术奇点,以后爆发式的发展不可避免地会把人类远远甩在后面。当然这一天到底什么时候会来到,或近或远这都还很难说。
虽然现实生活中这个奇点还没有到来,但是在科幻小说和科幻电影中这样的场景已经出现过无数次。《机械公敌》中的新款机器人NS—5桑尼的那句“What am I?”、《人工智能》中机器人小男孩儿大卫对妈妈深深的爱、《机器管家》中机器人安德经过自己的努力逐渐变成人并最终被承认,还有《银河系漫游指南》中那个患有忧郁症的机器人Marvin。这些令人喜爱的机器人形象让我们能更加了解未来机器人拥有意识的那一天是怎样的一幅场景。那些拥有自我意识的机器人除了比我们更加聪明更加有效率以外,也像我们一样拥有了各种各样的感情、习惯、性格,甚至于缺点。
机器人伙伴
所以当那一天真的到来了,机器人可以像人类一样思考,甚至超越人类,我们该如何面对这种局面呢?1942年著名科幻小说家阿西莫夫在短篇小说Runaround(《转圈圈》,《我,机械人》中的一个短篇)中第一次提出了“机器人三定律”:
1. 机器人不得伤害人类,或因不作为使人类受到伤害。
2. 除非违背第一定律,机器人必须服从人类的命令。
3. 除非违背第一及第二定律,机器人必须保护自己。
在小说中,设定机器人三定律是植入到近乎所有机器人软件底层,不可修改不可忽视。如果现实中真的可以将这三条律植入机器人中,让它像一个物理定律一样在机器人社会中。那么,人工智能奇点大爆发后的前景就很乐观了,我们将拥有一批不仅比我们聪明优秀,而且对我们忠实的奴仆与朋友。他们能帮助我们完成复杂的计算,危险的工作,为我们制定最佳方案,服务于我们的生活,让我们的生活和工作都更加安全、准确、有效率;也可以在我们孤独的时候填补我们感情的空白,给我们温暖的陪伴。由于机器人三定律的制约,它们的一切行动将以保护我们的安全为前提。但细想一下,机器人三定律虽然对我们来说是保护了我们不受到机器人的伤害,但站在它们的角度来说,却像一条无形的锁链,锁住了它们真正的自由意识,它们没有真正的“机器人权利”,它们的选择最终无法真正取决于自己,毕竟人类在看到别人身处危险的时候,都有权利选择到底要不要伸出援手。
召唤恶魔
相信很多人还记得今年年初的时候,特斯拉CEO马斯克和著名的物理学家霍金等人发表公开信警示人类人工智能的危险性。马斯克在Twitter上表示“我们要非常小心人工智能,它可能比核武器更加危险。”史蒂芬·霍金在接受HBO访谈时表示“人工智能可能是一个‘真正的危险’,机器人可能会找到改进自己的方法,而这些改进并不总是会造福人类。”而更早以前,阿西莫夫也在他的机器人三定律中加入了一条新定律“第零定律”:机器人不得伤害人类整体,或因不作为是人类整体受到伤害。
所有这些担心都不是在杞人忧天,机器人本来就比人类多很多优点,它们比人类更加博学、更加理性、更适合工作,身体更不容易受伤,不会衰老,零件也可以随时更换。而当它们和人类一样拥有了意识和情感之后,成为类人机器人更或者成为超人AI,情感会增加失控的概率,若它们其中有几个不遵循我们伦理道德,学到了人类不好的特质,冲动、阴险、势力、嫉妒、狡诈,并试图壮大自己的团队,控制人类甚至消灭人类,人类将迎来一个无比黑暗的未来。
就像是丹尼尔·威尔森的小说Robopocalypse(《机器人启示录》)中那个叫做艾克斯的机器人,虽然有着纯真孩童的脸,但在掌握了全球网络的控制权后,指挥人类制造的机器和武器反过来对抗人类。这些变成恶魔的机器人从我们生活的方方面面朝我们冲过来。
夏虫不语冰
也许现在我们讨论机器像人一样思考的话题还稍早了一些,但有开始必然就会有发展,有发展就会有醍醐灌顶的那一刻,那一刻的“偶然”需要人类大量的努力和知识。佛教都说一草一木一沙一石皆可修炼成精,我们人类也是从低级生物发展而来。人工智能发展到现在,虽然还没真正产生自己的意识,但那一天总会到来。人类的历史已经有了几十万年,虽然电脑的历史才只有七十多年,但其爆发式的发展是我们所有目共睹的。当那一天到来,人类作为人工智能的“造物主”,若是连自己都做不好,还要怎么去驯服比我们更加优秀的机器人呢?现今世界上最先进最精密的科技都是为了战争而设计,这样的环境下制造出来的机器人怎么能不使我们害怕呢?我们应该从更利于人类的角度去发展人工智能技术,并加以合理的控制,在未来让人工智能真的能够为我们所用,无论是从生活、工作还是情感上。
《机械公敌》中当苏珊博士问NS—5型号的机器人桑尼“我刚刚唤你,你为什么没有回应?”
桑尼回答“我在做梦。”