这几道题放着我来!
1. 你认为人工智能能超越人类大脑吗?
前年的时候,听说过阿尔法狗对战李世石的新闻,结果是李世石战败,当时没有当一回事,心想,围棋嘛,毕竟是中国人的玩意儿,你一个韩国人输掉比赛太正常了,呵呵。与此同时,中国少年天才棋手柯杰也大放狂辞:“阿尔法狗赢不了我!” 嗯~当时抱着支持国人的想法吧,对于柯洁的实力还是蛮期待的,然后转眼到了2017年,柯洁正式接收阿尔法狗的挑战。然后结局让像我一样盲目站队柯洁的人大吃一惊——柯洁战败!从此,我对人工智能真正地刮目相看,也开始对这一领域产生了好奇心~平时有关人工智能的话题或者新闻我都会格外留心,也零零散散地总结了一些心得。
至于——人工智能能超越人脑吗?我的答案是:不可能!原因如下:
一、 智能并非单一维度,所以“比人类更聪明”这种概念本身就没有意义。
关于人工智能最常见的误解其实来自对自然智能的普遍误解。很多人认为,智能是单一维度的,这种理解其实并不正确。多数技术人员往往会像尼克-博斯特罗姆(Nick Bostrom)那样绘制智能进化图谱——他曾在《超级智能》(Superintelligence)一书中把智能描绘成一种单一维度、呈现线性发展的东西。
例如,一端是低智能的小动物,另外一端则是高智能的天才——感觉智能就像是可以用分贝来量化的声响一样。当然,如果认同这种观点,自然就可以对其进行扩展,认为智能的强度还会进一步增加,并最终超过我们自己的高智能状态,成为一种超强智能,甚至最终爆表。
这种模式就像阶梯一样,一层一层逐级递进,每一个层次的智能都比前一个层次更加进步。低等动物位于我们之下,而智能更高的人工智能必然位于我们之上。具体发生的时间并不重要,重要的是等级——也就是衡量智能优劣程度的指标。
但这种模型的问题在于,这只不过是一种像进化阶梯一样的错误观念而已。在达尔文进化论诞生之前,人们也认为自然界是呈现阶梯化发展的,低等动物低于人类。即便是在达尔文进化论诞生后,这种阶梯化进化理论仍然十分盛行。这种理论认为:鱼类进化成爬行动物,然后进化为哺乳动物,再进化为灵长类动物,最终进化出人类,每一级都比上一级进步一点(自然也会更聪明一些)。所以,智能阶梯与物种阶梯相互平行。但实际上,这两种模型都不符合科学观念。
一、 人类并没有通用思维,人工智能同样不具备这种能力。
人类智能并不处在中心位置,其他专项智能也并不是围绕它发展的。相反,人类智能只是一种非常具体的智能形式,经过了数百万年的进化后,使得我们这个物种在地球上生存下来。如果对所有可能的智能类型所处的空间进行了解后,便会发现人类这种智能只是“偏居一隅”,就像我们的世界处在浩瀚的银河的边缘一样。
我们肯定可以想象,甚至发明一种类似于瑞士军刀的多用途思维。它可以完成很多事情,但却没有一种能够做到极致。人工智能也会无法突破这种极限:不可能针对所有维度进行优化,只能进行权衡,做出妥协。不可能开发出在每项具体的功能上都表现优异的多功能通用人工智能。
一个庞大的“全能”思维,不可能在所有事情上都像专用人工智能一样表现出色。由于人们认为人类的思维是通用思维,所以往往也认为认知不必受限于工程师的权衡妥协,认为完全可以开发出一种在所有思维模式上都做到极致的智能技术。
但我没有看到任何证据支撑这一论调。我们并没有开发足够多样的思维模式,因而也就无法看到可能性空间的整体状况。
二、 在其他媒介上模拟人类思维将会受到成本因素的制约。
人类之所以认为可以在通用思维上做到极致,其实一定程度上源自通用计算的概念。这个概念之前在1950年被称作丘奇-图灵假说(Church-Turing hypothesis)。这种假说认为,达到特定门槛的所有计算都是等价的。因此所有的计算存在一个通用的核心:无论组成一台机器的零件速度是快是慢,甚至就算发生在生物体的大脑中,都会遵循相同的逻辑过程。这就意味着你可以在任何一台能够进行“通用计算”的机器上模拟任何的计算过程(思维)。
奇点论者利用这套理论来支撑自己的预期:他们认为,我们可以制作一种具备人类思维的“硅脑”,甚至可以开发能像人类一样思考的人工思想,而且远比人类更加聪明。我们应该对这种期待心存怀疑,因为他们误解了丘奇-图灵假说。
这项理论的出发点是:“如果拥有无限的磁带(存储)和时间,所有的计算都是等价的。”问题在于,在现实世界中,没有一台计算机拥有无限的存储和时间。当你在现实世界中进行实时操作时,这甚至会产生天壤之别。没错,如果忽略时间因素,所有的思维都是等价的。的确,你可以在任何一个矩阵中模拟人类思维,前提是你要忽略时间维度,或者存储及内存等实实在在的局限因素。
然而,如果把时间考虑在内,就必须重新阐述这条定律:在两个差异巨大的平台上运行的两套计算系统不可能实时等价。还可以这样来说:想要让不同的思维模式等价,唯一的方法就是让它们在等价的基底上运行。你的计算究竟能够实时处理好哪些类型的计算,很大程度上取决于它所依赖的物理因素——随着复杂度的提升,这种现象也会越发明显。
我会进一步扩展这种论调:想要达到与人类相似的思维流程,唯一的方法就是在类似于人类的血肉组织上进行计算。这也就意味着,那些在冷冰冰的硅片上构造的复杂的大型人工智能虽然可以生成复杂的大型思维,但却不同于人类的思维。如果能使用像人类这样可以增长的神经开发出有血有肉的人工大脑,它们的思维或许会与我们更加相似。这种血肉大脑带来的好处,与它所依赖的基底跟我们之间的相似程度成正比。创造“湿件”(wetware,指人类的神经系统)的成本巨大,而它的组织结构与人脑组织越接近,“制造”人类的成本效率就越高。毕竟,我们只要怀胎9个月就可以“制造”一个人。
另外,正如上文所说,我使用整个身体来思考,而不仅仅依赖思维。有很多数据都可以显示人体的神经系统如何引导我们的“理性”决策过程,甚至能够预测和学习这一过程。我们对整个人体系统了解得越深,就越有可能复制它。处于不同载体上(例如从有血有肉的人体转移到冷冰冰的硅片上)的智能会产生不同的思考方式。
我不认为这是个漏洞,反而认为这是一项可以利用的功能。正如我在第2条中所说,与人类拥有不同的思维方式恰恰是人工智能的优势所在。正因如此,我才认为,用“比人类更聪明”这样的说法来定义它是一种误导。
三、 智能的维度并不是无限的。
超人类人工智能——尤其是认为这种人工智能将会不断自我提升的观点——的核心在于,他们认为智能可以拥有无限的规模。我没有发现这方面的证据。同样地,以单一维度来看待智能的错误观念也对这种看法形成了促进,但我们应该对此加以理解。以目前的科学研究来看,宇宙中还没有哪一种物理维度是无限的。
温度不是无限的——无论冷热都有极限。空间和时间也不是无限的,速度同样也有极限。数字或许是无限的,但其他的物理属性都有极限。于是,问题变成了:智能的极限在哪里?我们往往认为,这个极限远超自身的能力范围,肯定“高于”我们,就像我们“高于”蚂蚁一样。
暂且抛开单一维度这个递归问题不谈,我们有什么证据证明人类本身不是智能的极限?为什么人类智能就不能是智能的极限呢?或者说,人类智能有没有可能距离极限水平只有很短的距离?为什么我们认为智能可以继续无限提升下去?
现在有些人可能会把这些东西称作超人类人工智能,但这些思维的多样性和特异性却会引导我们使用新的词汇“智能”和“聪明”,并对其产生新的认识。
其次,相信超人类人工智能的人会假设人工智能可以呈现指数级增长(以某些未经确认的单一参数为标准),这很可能是因为他们认为它已经实现了指数级增长。然而,目前没有任何证据表明人工智能正在呈现指数级增长——无论用哪种方式衡量都不例外。
我所说的指数级增长指的是每过一段时间,人工智能的性能便可实现翻番。证据何在?我找不到。如果现在没有证据,为什么认定未来会发生?唯一能以指数级增长的就是人工智能所获得的输入数据,也就是用于生成智能的资源。但输出表现并不能像摩尔定律一样增长。人工智能无法做到每过3年性能翻番,甚至连每过10年性能翻番都做不到。
我问过很多人工智能专家,有没有证据表明人工智能的性能实现了指数级增长。他们都表示,目前没有指标来衡量智能,而且他们也没有从事这方面的工作。但当我向坚定看好人工智能飞速发展前景的雷-库兹韦尔(Ray Kurzweil)询问人工智能呈现指数级增长的证据时,他表示,人工智能并没有实现爆发式增长,而是表现出层级式增长模式。
他说:“人工智能每上一个台阶,都需要计算和算法的复杂度实现指数级提升……所以我们可以预计线性的层级式增长,因为每上一个台阶都需要在复杂度上实现指数级增长,而我们这方面的能力的确实现了指数级进步。我们与大脑皮质之间相差的层级不多,所以我认为2029年可能实现。”
库兹韦尔似乎是在说,人工智能本身没有呈现指数级增长,反而是开发人工智能所作的努力呈现这种增长态势,而实际输出效果仅仅是一次一个台阶地迈进。这几乎与人工智能大爆发的前提假设完全相反。这种情况今后可能发生变化,但人工智能目前显然没有呈现爆发态势。
因此,当我们设想“人工智能爆发”的情形时,不应该将其视作一种级联式繁荣,而应该设想为新型的散发式发展。用一个更形象的比喻来说明,这更像是寒武纪物种大爆发,而不是核爆炸。几乎可以肯定的是,技术加速发展的结果并不是催生“超级人类”,而是“超常人类”。换句话说,它会超脱于我们的经验范围,但未必能“高于”我们。
五、智能只是推动科技和社会进步的诸多因素中的一项而已。
很多认同人工智能将实现爆发式增长的人预计,这项技术将会实现高速进步。我把这种神话般的观念称作“思考主义”(thinkism)。在他们看来:思考能力或智能水平是阻碍未来进步的唯一因素。但这完全是第一种谬论。(很多喜欢思考的人也都怀有这样一种信念:思考是一种神奇的超能力,甚至无所不能。)
以治愈癌症和延长寿命为例。这些问题不是单凭思考就能解决的。光靠“思考主义”根本无法发现细胞的衰老方式和染色体的衰退过程。无论多么言之凿凿,也不可能单凭阅读所有已知的科学文献想清楚人体的运作模式。没有一种超级人工智能可以简单地思考现在和过去的所有核裂变实验,然后在一天之内想出核聚变技术。
除了思考之外,想要从未知过渡到已知,还必须辅以很多元素。需要在现实世界中进行很多实验,每次实验都会产生大量相互矛盾的数据,因此需要通过进一步的实验来确立正确的假说。单纯思考潜在数据根本无法得出正确数据。
思考(智能)只是科学的一部分,甚至只是一小部分。例如,我们根本没有足够的数据来解决生老病死的问题,甚至连冰山一角都没有揭开。具体到生物体的运作机制,多数实验都需要用时间来慢慢酝酿。细胞新陈代谢速度很慢,无法加速进行。可能需要数年、数月,至少也要数天时间,才能看到结果。
虽然我认为超人类人工智能在遥远的将来可能对我们的生存构成威胁(而且值得考虑这个问题),但由于这种概率很低(根据目前的证据来看),所以不应该因此而影响我们的科学、政策和发展方向。