新浪新闻 国内

大数据时代的人工智能,并不是“真正的人工智能”?

新京报

关注

原标题:大数据时代的人工智能,并不是“真正的人工智能”?


“有些心理学研究表明,人就是有因果模式

(pattern)

的,人是从因果模式进化而来的。我们该如何想象让机器去进化出这些东西?所以侯世达很怀疑现在的人工智能。虽然如今人工智能很火,而且在社会上应用得很广泛,但我想说,那种应用不是真正意义上的人工智能,而是大数据应用的一些方式。在我看来,‘人工智能’这个名字名不副实。侯世达想要做‘真正的人工智能’,因此他必须自觉地与现在做人工智能的人保持距离。这是因为他们对自我的理解、对人的理解是非常不一样。人不是一个算法,这是侯世达一个很核心的观点。” 梅剑华说。

自我是不是一种幻觉?自由意志存在不存在?意识是什么?如果人只是一个纯粹物理性的存在,那所有的道德、情感、伦理和美该如何解释?想要做出侯世达眼里“真正的人工智能”,即一个跟人类一样的人工智能,就必须要解释以上的难题。在“人工智能威胁论”甚嚣尘上的今天,这种反思显得非常必要。我们在设计人工智能的过程中,也是一个不断发现和认清自我的过程。

1月6日,曾写过 “神书”《哥德尔、埃舍尔、巴赫——集异璧之大成》的作者侯世达的新书《我是个怪圈》,在中信书店芳草地店举行了新书发布会。在会上,首都师范大学哲学系教授梅剑华、果壳网的联合创始人小庄和中科创南的CTO、高级副总裁邹鹏程一起谈了谈作者侯世达、人工智能与生命和人类意识的秘密。

《我是个怪圈》,作者:侯世达,译者:修佳明,中信出版集团 | 湖岸,2019年1月

“现在的人工智能走在一个错误的道路上”

梅剑华认为,侯世达不能算一个严格意义上的哲学家,但是他的著作在哲学家中激起了强烈的反响。他的作品融汇了科学和哲学。他经常谈到哥德尔定理。假如要简单地用一句话去概述什么叫哥德尔定理,那就是“可证的不完全,完全的不可证”,即如果一个系统是可证的话,那么这个系统就不是完全的,肯定有漏掉的真理不能被定理表述出来;反过来说,如果这个系统是完全的,那么这里面起码有一个真理我们是证明不了的。

在梅剑华看来,这就是侯世达远离当下的人工智能研究的原因。侯世达认为,我们现在谈论的人工智能和“真正的人工智能”有很大区别。人可以发现一个形式系统里面不能证的东西,然后可以判定这个系统是不完全的,但是计算机却发现不了。侯世达认为,现在的人工智能走在一个错误的道路上。

侯世达

所以,侯世达并不是一个人工智能研究者,而是一个认知科学家。他在漫长的研究中发现,大家现在做的人工智能,不论是机器学习还是深度学习,都是数据整合,在根本就是算法。而我们的大脑是不能被算法所穷尽的。不能被穷尽的东西有很多。比如说,我们的意识,我们的感受,都不能被穷尽。说得更根本一点,算法连我们的因果评判能力都不能穷尽,连再弱的意识都不行。这样如何让机器学习做因果推断?这是不可能的。但小孩就能很快学会。比如说,小孩偶然间碰到火会“烫”,那下次他自然而然就不会去碰火。这是因为人有因果模式,并不是算法。

自我是一个幻觉?

那么,侯世达是如何理解意识和人的呢?我们通常认为人有两个部分——身体和心灵,或者更古老的说法叫灵魂。我们称之为身心二元论。这个立场也是哲学界的主流立场,无论是中国古代还是西方都有这种两分法,比如说,我们的灵魂最终会升向天空,或者是灵魂转世。但是,如果我们接受科学训练,或去读一些当代自然主义的作品,或当代的心理学、神经科学的作品,我们可能会得到一个相反的观念:人就是一个物理的存在,一个功能体,除此之外什么都不是。你所有的道德、情感、伦理、美都是源自这个东西,没有一个独立的心灵去为它承担解释。

当然,知道这个真相是很残酷的,所以很多人要守护我们的心灵,给人类留下最后的空间。梅剑华提到,昨天下午他刚在中国人民大学就这个问题争论过一次,他系里的同事叶峰老师是一个很强硬的物理主义者,和侯世达的观点非常一致。他说这个世界上唯一存在的就只是物理系统,其他所有东西都是派生的。“实质上成为一个物理主义者,或者是一个没有自我感觉的人的日常生活是非常平静的。叶峰老师就彻底无我,他把他所有关于项目的经费全都捐给我们去做很多学术活动了。他真的永远没有情绪,只有理性。”梅剑华调侃道。

所以,按照侯世达和叶峰的理解,自我是一个幻觉,实际上没有大家所认为的自我。这个观点其实比较像佛教,佛教最后也是要去掉“我执”。所以,当代心理学、心灵哲学和印度哲学,佛教有很多接轨的地方。很多人会讨厌这种说法,假若自我是一种幻觉,人实际上是没有自由意志的,这听起来很难受。但这就是哲学家的“求真强迫症”,他们想要向世界揭示这样的真相。

《哥德尔、艾舍尔、巴赫——集异璧之大成》,作者:侯世达,译者:严勇、刘皓明、莫大伟,出版社:商务印书馆,1997年5月

如果说自我是一个幻觉,那么活着的意义何处安放?如果说自我是一个幻觉,那我们的道德、伦理从哪里来呢?我们除了大脑里几亿个神经元的活动之外,实际上没有更多的东西,那么我们的选择和决定不就可能被预测和把握了? 

梅剑华认为,可能有很多人因此会认为,自我是我们不能放弃的最后一个精神领地。但事实上,自我实际上是我们自己建构起来的幻觉,我们当然可以去把玩这种幻觉,只是这种幻觉对我们的生存来说有好多用处。

但梅剑华要补充的是,“自我是一种幻觉”绝不是心灵哲学的主流。实际上,有很多观点是反对它的。其中侯世达的学生大卫·查尔默斯就坚定地反对这种观点。他是一个反物理主义者,他要为意识和感受留一个余地。他不认为我们的心灵或所有的意识必须依附在物理上,因为我们并没有“最终的科学”。神经科学、大脑科学,远远没有到我们能够搞清这个问题的地步。

其次,查尔默斯为自己说法提供了一个论证,这个论证就是所谓的“僵尸实验”。我们通常会认为我们的心灵和物理之间是没有隔阂的,它们的关联是本质的、必然的,永远拆散不了的。但我们可以设想,完全可能存在着一些“哲学僵尸”,它和人类在外形和行为上一模一样,我们可以通过给它植入芯片来植入记忆。但是,这样的僵尸会有“内在层面”吗?比如说,我们现在在说话,我们能感觉到自己坐在这说话,因为我们有一个“内在层面”,可是僵尸没有。若是这种僵尸可能存在的话,那么这就表明心灵层面和物理层面是可以互相分离的,这也就表明,侯世达和叶峰等人都是错的。这就是查尔默斯的观点。

在理解心灵的问题上,还存在着很多截然不同的立场。比如“泛心论”。什么叫“泛心论”?有些人会认为天地万物都有“心”。他们认为,从人到植物,从低级动物到高级动物,心是一种程度,并不是说“有心”或“没心”,而是它们有百分之多少的“心”。

还有一种观点更简单,我们称之为“唯心论”。从极端“唯心论”到“泛心论”到身心二元论到物理主义,我们会发现关于心灵的看法很多。但在当代的讨论里,侯世达和查尔默斯所代表的两派是比较主流的看法。

只有把人类大脑的图景画出来,我们才能去建立类人的人工智能

梅剑华一直强调算法是有问题的,不完备的,但小庄认为,我们除算法也别无选择。我们确实没有完美地理解“我”是从哪里产生的,或意识是如何建立的。我们要认清自我是一个很漫长的过程。这当中很多观点和想法,都是这个大厦建设当中的某个部分,或是某个形成关键突破很重要的部分。

我们该如何理解人类大脑中上千亿的神经元?如果我们能把这样一幅图景画出来,我们才能去建立类人的人工智能。但这项工作特别难。人类基因组计划耗费了全世界科学家十年的努力才完成。他们要面对的只是三十亿个碱基对,而研究大脑要面对上千亿个神经元,他们的互相连接是指数级的。所以我们需要等待。

但是,像自我是什么这样的话题,始终可以被拿出来讨论,时代和科技的进步是讨论的基础。像自由意志,自我这样的话题,从物理的角度被认真的探讨应该可以追溯到1943年的《生命是什么》。虽然这本书没有什么新知识,但是它把一些基本的框架都提了出来,包括统计学如何在生命中起作用。为什么这个世界需要那么多的原子和粒子才能构成物体,为什么这么复杂?其实很好理解。只有在这么巨大的数量下,统计学才能起作用。如我们所看到的磁体的现象,如果我们放大去看,我们会发现,磁铁里并不是所有的原子都按照磁极分布的,在南极的一部分的原子可能是朝北的。但是在整个大的层面上,南极是朝南的,整个磁体才会呈现出这样的磁性。

《生命是什么》,作者:埃尔温·薛定谔,译者:张卜天,出版社:商务印书馆,2014年12月

人的思维会不断地跳跃,这是人和人工智能最大的区别

邹鹏程认为,人工智能并没有那么复杂,它和计算器一样只是工具,能放大他的智能,但它不会取代他的大脑。

侯世达认为人类思维中类比是很重要的。邹鹏程觉得,类比这个词有点淡,可以换成联想。因为联想有许多层次,它的特征是跳跃的。人的思维不断地跳跃,是人和人工智能最大的区别,这也是我们不用特别担心人工智能的原因。

梅剑华也表示赞同。在生活当中,类比论证可能比逻辑论证更重要。比如说,我们如何知道今天的自己和明天的自己是同一个人呢?最早讨论这个问题就来自于类比论证: “忒修斯之船”——请想象一下,一艘海上航行的船,其船身的木板逐步被新的木板替换,直至最后被完全替换,那么现在这艘船还是原来的那艘吗?这个例子跟侯世达讲的 “意识上传”的例子是类似的:如果把你的所有数据都上传到云端,那么云端的那个你是不是原来的那个你呢?

梅剑华认为,我们现在经常区分强人工智能和弱人工智能,其实我们根本无法模仿人的意识或情绪。有人认为,强人工智能我们是达不到的,但弱人工智能可以实现,但哥德尔就会说不可能。而Judea Pearl则会说,人跟机器如果有关键性区别的话,那就是人有一种因果性推理的能力。因此他曾尝试为因果推理建立了一个数学模型,但谷歌现在不给他投钱了,这使得这项研究面临着许多困难。

而除了因果之外,类比也是人理解世界和与人交往的一个基本方式。有时候在禅宗里面,经常会有所谓的“一句禅”,我们从中悟出些什么。这里面就有类比和因果的联系,我们的思维在当中进行跳跃。在科学哲学里面,类比也是一个很重要的话题,甚至在心理学里面,比如联想作为类比的一种,被分为图像式的联想、概念式的联想或者结构式的联想,都是很重要的议题。

因此,虽然梅剑华对人工智能的未来是乐观的,但从理论的层面来看,梅剑华对人工智能是悲观的。因为哲学家所定义的类人的人工智能是无法实现的:不仅是因为技术原因。即使技术水平达到了,人也会为自己保留一定的特权。不过,梅剑华觉得这种悲观的态度也无所谓,因为它和我们现在做的人工智能关系不大。

机器没有意识,是因为它没有生物基础,这会不会过于人类中心主义?

梅剑华提到,有一种观点认为,机器是没有意识的,因为它没有生物基础。从另一方面来想,这样会不会过于人类中心主义了呢?机器没有生物基础,但是它们也有可能用另一种方式在理解着我们。在语言哲学里,什么是理解的条件?其中一个条件就是,我要把你所说的话当作真,否则我无法跟你交流。此外,我还需要一个条件,就是“宽容原则”

(the principle of charity)

,即你所说的话不仅要前后一致,还得有所论断,无论是肯定还是否定,这样我才能理解你。其实机器也能做到这些。

小孩子学语言,究竟怎么样才算是掌握了一门语言呢?这个问题现在依然没有定论。在语言理解最浅显的层面来说,人和机器其实没有什么差别。哲学家约翰·塞尔有一个非常有名的“中文屋”思想实验:你一觉醒来发现自己所在的房间里堆满了篓子,篓子里都是中文符号,还有一本使用手册。你虽然看不懂中文,但可以看懂使用手册。突然间,有人从门缝递进来一张字条,上面写着一个中文符号,你翻看使用手册时,发现里面写道:“当你收到这个中文符号,就把另一个特定的中文符号递出去。”于是,你就照做了。很快,你就把整本使用手册都背了下来,不管接到哪个中文符号,都可以很快地把对应的符号再递出去。这样一来,虽然你并不懂中文,但你所做的事情和懂中文的人没有两样,因此房间外面的人也会相信你是懂中文的。同样的,如果你就是一台机器,那么你就通过了图灵测试。但是,我们依然会认为,机器确实是不懂中文的。梅剑华认为,这就是人类的“我执”。

哲学家约翰·塞尔

随着人和人工智能接触越来越多,人反而会不会变得像人工智能?

现场有观众提问,我们都在讨论怎么样把人工智能做得像人,但随着人和人工智能接触得越多,人会不会变得更像人工智能?人类的自我会不会渐渐消失?

邹鹏程作为工程师,因此对这个问题相对乐观。他认为,人工智能所暴露出来的问题,最终还是要依靠人去解决,甚至要依靠哲学家,要依靠文明和法律解决。所以他不担心人会因为人工智能而改变,因为我们不会像机器一样四处乱学,而会有一个方向性。这是因为人类文明延续下来的伦理。

梅剑华认为,我们会发现,我们待人方式和我们的孩子辈就不太一样。因为他们更独立,更愿意和机器打交道;机器也开始变得像人,这个鸿沟只会越来越小。1998年,查尔默斯和另外一个认知科学家安迪·克拉克合写了一篇论文,叫“Extended Mind”

(《延展心灵》)

,里面说,我们的心灵不是在大脑里面,我们的心灵延展到环境,其中手机就是延展的一个重要的部分。我们的认知不光靠大脑,还要和环境互动。

而关于我们的自我是否会逐渐消失,梅剑华的想法是不会的。他认为,我们塑造自我的方式只会变得不同。新的时代有新的自我。我们和机器人接触,会多一种塑造自我的方式。比如说,以后人和机器人有可能谈恋爱,这也是一种塑造自我经验的方式。即使你对机器人的爱不会完全像对人一样,但梅剑华认为这只是量的变化而不是质的变化。

自我是在不断流变的,我们很难划出自我的边界在哪。我们的手机让我很有自我感,但没有了它我们也能活下来;甚至于没了手或腿我们也能活下来,所以我们很难划出自我的界限。但是我们有自我感,我们根据这种自我感去筹划我们的人生。这在任何时代都是一样的。因此,我们并不会因为人工智能的到来而丧失自我。

作者:新京报记者 徐悦东

编辑:徐悦东 校对:何燕

加载中...