生命3.0-在亿年的尺度下审视生命的演进

去年曾读过的《Life 3.0》,最近出了中文版,在豆瓣上获得了8.6的高分,这并不稀奇。等到我拿到湛庐出版的寄的样书后,我发现整本书翻译的质量很高,全书语言流畅,而且对于极权主义等敏感话题也没有一丝一毫的删减。更难得的是,由于译者是原书作者的好友,因此在翻译的过程中,加入了一些新的内容,包括18年AI领域的新鲜事,因此可以看成原书的升级版。

/pic/1_lvR3V2qtkGfbvMlvgaPCqV3YIVgulw.jpg

不过书还是要批判性的去读,因此下面是针都是这本书的一些不足。作者在书中将生命从分为动植物,人类,人工智能这三个阶段,判定的标准是能不能自主的决定自己的硬件和软件。按照这个标准,目前的AI无法自主的决定自己能够在什么样的机器上运行,只能改变模型的参数,这只能算自主的修改其软件,而且只是软件中顶层的一小部分。真正要做到生命3.0,需要的是脑机接口和人机融合,但书中却没有提到这个技术,这不应该简单的归结于作者知识上的欠缺,而应该考虑到是这本书的宏大语境使得作者并没有局限在具体的技术上,而是通篇从理论的可能性上在思考问题。

这本书的开篇是一个短篇的科幻故事,讲的是强人工智能是如何一统天下的。当我拿到中文版,第二次阅读这个故事时,发现这个故事中的每一步都是读起来顺理成章的。但正如狗没有叫才是线索,这反而是有问题的。过去的农人说起皇帝,会说他们拿着金锄头在犁地,如今我们看待强AI,也会犯类似的错误。技术的进步会带来文化,经济,政治等多方面的改变,但作者却按照当下的逻辑,去构思强AI如何成为统治全球者。因此引言仅仅应对被看成是一个故事,用来引出这本书真正想讲的话题,如果强AI出现了,那该怎么办。而这正是这本书最多被谈起的部分,作者列出了强AI可能对各行业产生的冲击,穷举了强AI出现后的历史走向,如同科幻小说的开放结局。这些结局从好到坏,可以分成以下12种:

1 AI做主导者的自由主义乌托邦

2 AI成为人类的善意独裁者

3 AI和人类平等共存的乌托邦

4 AI作为人类幸福的守护者和指路灯

5 AI主导着人类,也保护人类的安全

6 AI奴隶着人类

7 AI征服了人类

8 人类灭亡后,AI继承了人类的文化和记忆

9 AI把人类当成宠物养在动物园里

10 AI成为独裁者的工具

11 AI消灭了人类对地球的影响,让人类回归田园时代

12 AI 和人类一起走向共同灭亡

但不同于羡慕皇帝用金锄头犁地的农人,当下的物理学告诉了我们智能的极限,不管是怎样的智能行为,都是要符合物理定律的。既然计算是由一个记忆状态向另一个记忆状态转变的过程,那计算就涉及到信息的存储和擦除,而这是需要消耗能量的,而且对一比特的信息,物理学能给出理论上拆除信息所需的最小能量值,正是基于这一点,物理学家能够在给定的能量限制下,给出智能机器所能达到的极限能力。而这一极限能力大的惊人,书中写道,“从数量级上来说,今天最好的超级计算机与1千克“终极计算机”之间的距离,比它和汽车转向灯之间的距离还要远,转向灯只能存储一个比特的信息,每秒只能在开和关之间转换一次。”

在这本书的第六章里,作者在当下的理论前提下,做了一些看似是科幻小说,但实际是硬科学的推导。这一章很容易被误读,从而让读者忽略了这一章真正的精华。我觉得从这一章中,你可以看出,对于智能生物来说,越大越慢的诅咒永远都在,生命的结构不能太小,太小则布朗运动的影响会带来持久的耗散,而太大则会受制于信息传递的速率。打蚊子时你就会发现自己的反应要比蚊子慢,但蚊子却从来没有叮到你的眼睛,如果眼皮的运动还要像手那样经过大脑,那就不一定的。

书中写道:对一个智能信息处理系统来说,身体变大是一件喜忧参半的事,会带来此消彼长的有趣均衡。一方面,变大意味着它可以拥有更多粒子,也就能带来更复杂的思想。而另一方面,如果它想要真正的全局思维,这反而会降低速度,因为信息需要花更长的时间才能传遍它身体的各个部分。这像级了大企业大帝国的反应迟缓,为此要做的是等级化的管理和放权,比如人类的本能就来的比有意识的反应要快,而这就是将身体基本机能的控制权下放到小脑的结果。这个和尺度相关的普遍规律告诉我们,即使是从一本完全都在谈论形而上的问题的书中,也能够学到做事的智慧。

费米悖论,宇宙间的不同智能该如何合作,这也是这本书讨论的问题,因此这本书不应该只被看成是和AI有关的一本书,而应当看成是升级版的《生命是什么》,同样的是从第一性原理来解释生命现象,《生命3.0》谈论的是生命的目的,而不是生命的机制。而这就体现谈论目标和意识的第七和第八章。而这里最值得细说的是第七章,古代人们害怕神灵的惩罚,但这不同于当下人们害怕的强AI崛起,前者我们决定自己可以知道神灵的目的,但面对强AI,人类真正害怕的是强AI误解或者产生一些人类想不明白的目标。如何让一个给你聪明多的东西赋予目标,这需要理解目标的根源。

而这就涉及到不在同学科的角度下,目标是如何生成的,从物理学的熵增和耗散结构,到生物学在有限理性的前提下将目标从耗散改为复制,再到心理学用感觉完成了对基因规定的规则的反叛。用书中的话说,就是目标导向行为的三个阶段:

◦ 第一阶段,所有物质似乎都在努力实现耗散的目标,即熵增;

◦ 第二阶段,其中一些物质拥有了生命,转而聚焦于子目标-复制自身;

◦ 第三阶段,生物重新排列的物质越来越多,以实现自己的独特的目标。

随着人类掌握的东西的增加,意味着即使不发生智能爆炸,很快,地球上大部分展现出目标导向性质的物质都会是设计出来的,而不是进化出来的。而所有设计出的东西的目标不仅变得越来越多样化,而且变得越来越复杂。对于强AI来说,人们害怕的到不是其是恶意的,而是害怕其由于过于高效的完成它的目标后造成的意外后果。很多的传奇故事中精灵帮助人们实现三个愿望时,第三个愿望都是“请收回前两个愿望,因为那不是我真正想要的东西。”但对于强AI来说,试错的成本则显得太高。

接着作者列出了让AI明白人们正在想要的是什么,目前可行的技术方案,第一种是让机器从行为中推断目标,这个在《The book of Why》中有过介绍,第二种是逆向增强学习”(Inverse Reinforcement Learning),即通过观察许多人在许多场景中的行为,包括真实场景、电影和书籍,最终构建起关于人类偏好的精确模型。但对于AI来说,这个窗口却不确定会有多长,在任何一个领域,要在AI越过了愚钝得无法理解你之后,又要在聪明的你无法理解之前,教会他目标是什么,还要如保证AI在未来的新坏境下能够保持这个目标。

书中写道:一个4岁小姑娘憧憬着,当她长大了,变得更聪明了,她就要给自己建造一间巨大的姜饼屋,然后在里面坐上一整天,除了吃糖果和冰激淋以外什么都不干。和她一样,地球上的生命也可能会长大成熟,而不再执着于童年时期的兴趣。就好像一只制造了人类水平的通用人工智能的老鼠想要建一座奶酪城市,听起来十分荒谬。这说明了强AI在未来一定要改变其目标,但另一方面,即使是类似的幼儿园伦理,也好过完全没有限制的AI,每个设计机器的工程师都应该思考,机器在使用过程中,有哪些事情是可以做但不应该做的,然后考虑如何避免用户不管是出于恶意还是愚蠢,实施这样的行为。

在关于目标的这一章的结尾,作者指出了当前的研究表明AI既不能回答如何让AI和人类有共同目标的能力,而伦理学又无法对生命体的终极目标取得共识。但作者还是给出了一些在大的尺度上值得优化的数量,在过去,对单一指标的过分关注曾经让人类犯下了很多的错误,因此对未来强AI要在宇宙尺度优化的值,就需要给予最大的讨论,而本文也将在这里结尾,最后是一个投票,看看读者一下那个目标应该是未来的强AI应当最追求的。

总结一下,在这本书的后记中,作者写道自从他14岁知道核军备竞赛以来,就一直担心我们的技术力量比我们控制它的智慧增长得更快。而类似的担忧,我也曾在最近的几本读书笔记中有所体现,只是我关注的更多是现实中露出苗头的问题,是数据驱动而不是理论驱动的思考方式。前者的好处是能够给出至少部分的解决方案,而理论驱动则是从第一性原理出发,不会遗漏其他的可能性。最后列出几篇相关的读书笔记,以供参考。

读《数学杀伤性武器》-大数据的字里行间写着吃人

从前慢背后的道理-读《The efficiency paradox》

《十条立刻删除你的社交媒体账号的理由》这本书说了什么

AI会怎样改变战争的未来-读《Army of None》

WTF阅读笔记-一个老实人对未来的理性乐观

Astrostar2018-08-04 11:33:42

时隔一年,真出了…已加购物车。

见鹿Jane.Risa2018-08-07 18:55:48

英国版的封面是国贸,于是收了…