关注“AI鸿沟”-读《如何创造可信的AI》
《Rebooting AI》这本书,英文版出版于今年10月,俩位作者一个是科学作家,另一个作者Gary Marcus是NYU的认知心理学教授,作为圈内曝光率很高的一位AI怀疑论者。中文版今年5月由湛卢文化推出,书中Marcus系统性的阐述了对当前AI研究界的批判,并针对性的给出了解决之道。
日常最经常用的AI是人脸识别,最经常被吐槽的AI是语言助手,而最出名的AI则是下围棋的阿尔法狗。所有这些例子中的AI,都是窄AI,只用来解决在一个清晰定义的细分领域的特定问题,且假设问题出现的环境是固定不变的。
目前解决这类问题的套路如下:首先收集大量的带标注数据,之后从头开始,在不加入任何先验假设的前提下,去训练一个端对端的黑箱模型,等模型部署后出了问题,通过对模型或者数据的微调,去解决眼前遇到的问题,而不是试图系统性的进行升级。
在这本书中,作者为零基础的读者,准备了很多形象生动的例子,说明为什么沿用上述的方法论,无论投入多少资源,都无法实现大众幻想中的AI,例如西部世界中那些理解人类语言,能够和人类在物理世界流畅互动的机器人伴侣。书中将当前AI的局限性详细分成了9个类别,其中最典型的就是鲁棒性的缺失,并指出在没有充分理解人工智能技术目前局限性的情况下大量开发人工智能应用将承担相当大的风险。
接着作者给出了11条建议,论述根据对人类自身的认知过程的研究,可以为未来的AI研究,提供启示及研究方向(这应对了这本书标题中的重启reboot这个词),分别是:
1,不要去寻找单一的终极算法,关注组成人类认知的多个模块如何相互作用2,先验于数据的内在模型和表示方式,对人认识世界必不可少
3,培养基于小数据的抽象能力和概述能力,是人类认知的核心
4,人类的认知是高度结构化和层次化的,模块之间有明确的边界与分工
5,即使是认知过程中看起来简单的部分,也需要复杂的工具去实现
6,人类的语言和思考是由简单的命题根据与或非这样的逻辑组合而成的
7,对世界的健壮的认识,取决于自下而上和自上而下的俩种模式的组合8,对概念的认知,取决于概念出现的上下文和其所属的理论框架
9,因果联系的判定对我们认识和理解世界有奠基作用
10,人类会对每个事物和人的个体分别进行观察和跟踪11,认知过程并不是从一无所有的白板开始的
以上的每一条,对于学术界都是未来的潜在研究热点,还不确定自己的研究方向的新科博士,可以从中选择自己感兴趣的子课题。例如小样本学习,元学习,多任务学习,终身学习等,在之前的文章中有过介绍谈谈元学习的技术实现框架,类脑计算背后的计算神经科学框架。
这本书之后的章节,讨论了如何让机器具有常识,从而避免某些在人类看来是显而易见的错误。这是当前的研究热点,但Gary指出基于知识图谱得到的概念网络,不管是手动输入的,还是从维基百科等网络文本中自动生成的,都只能包含显性的知识,例如概念的从属关系,语义的互动关系,而无法涵盖如何使用这些知识的方法,以及对概念本体的理解。
书中给出的通向常识之路包含4个关键子任务,首先是理解时间的流逝意味着什么,明白所有的人类语言中,都隐含了时间的长短,或者暗含了时间的先后顺序;其次是要理解空间以及在其中的人与物,即在不同的场景和背景环境下,识别不同物体代表的含义,书中举的例子是对画中的一把刀和真实场景下的刀,能区分出不同;在时间和空间的理解基础上,才能在没有人类编码的前提下,进行类似人类的因果推断,而不是像当下这样(阿尔法狗),使用对未来的多次模拟(蒙特卡罗树),来判定因果关系。
而常识的最终目标是让机器获得逻辑推演的能力,能够进行总结和概述,传统的AI为了实现这个目标,使用的是由专家系统手动输入判定逻辑,深度学习是将判定逻辑当成黑盒子,而要实现常识,则是要像孩子一样,从下而上的去学会推理,同时认识到孩子具有某些先天就有的偏好和特征,使其具有了学习能力。
在本书的最后一章,讨论了如何让机器变得值得信赖,从而人们愿意让其在一些影响深远的领域承担责任,例如医疗诊断,自动驾驶等,书中给出的4个建议,对于从事行业落地的读者会有所帮助。
首先要超额的完成准确度要求,例如建筑上桥的载重50吨,实际设计最大载重100吨,从而确保ai在极端情况下的健壮性;同时可以根据常识,进行自我检测,判断模型是否犯错,如发现模型有可能出错,启动默认的安全模块,避免问题扩展到其他系统或模块;还需要提高对AI解决方案debug的能力,当前的AI解决方案,如同药物,你不知道其为什么有效或者无效,这样就不利于其工程化的应用;最后是要考虑和AI相关的伦理问题,以及相关法规及其能否执行。
总结来看,说一个发展迅速的行业在根本上走错了方向,这并不讨人喜欢,但正如三体中提到的,即使北宋的床弩射程和机关枪差不多,但俩者基本原理上的差距决定了俩者之间的不同。本书的批判对于绝大多数主流的AI界是适用的,但这不意味着你学习深度学习就是无用的,首先编程工具,例如pytorch等是通用的,其次当前学界也在针对上述问题,进行有意识的调整。这本书对当前AI研究提出的建议(关于如何让人们信任AI)有三条,首先是将关注点由数据/统计优化驱动变为关注deep understanding,即先理解问题的本质及涉及的知识的概念本体,再去用小数据验证假设,其次是要从软件工程中的实践中学到保证稳健性的“好习惯”,最后是对AI的强有力的监管。
更多阅读站在AI与神经科学交叉点上的强化学习
从Nature 封面文章“天机”芯片看脑科学与AI的融合
ICLR认知科学@AI workshop一览