“脑机融合”比人工智能更危险
2017-05-26 09:52:08
  • 0
  • 20
  • 20

文 | 中山大学人机互联实验室 翟振明 朱奕如

本文首发于南方周末

微信号:nanfangzhoumo

马斯克和霍金都在预警人工智能对人类的极大威胁,马斯克还宣称有了应对措施:先把人脑与人工智能融合。他还说干就干,成立了新公司。

但我的预警却是:马斯克要做的事对人类的威胁,比人工智能的威胁要大得多。我们要联合起来,坚决抵制!

1

致命的问题

埃隆·马斯克(Elon Musk)成立的新公司Neuralink要把人脑与计算机直接融合。马斯克宣称,人类社会即将全面进入人工智能时代,为了避免被新物种——超人工智能威胁甚至消灭,人们唯一的出路就是将自己的大脑与AI融为一体。

无独有偶,我最近在很多场合做演讲谈到VR(虚拟现实)的未来发展,期望头盔越来越小越来越轻变成一般眼镜的样子,就经常有业界人士接茬说,以后哪里需要眼镜,接到脑中枢就是了。

马斯克希望“脑机界面”能进行人类意识的实时翻译并将之转化为可输出的电子信号,从而可以连接并控制各种外部设备,用他的话说就是“当你的念头一闪而过时,电视机或车库门便自动打开了”。初一看,这里说的是人脑控制信号的输出,但是所有的控制都需要信号的反馈,也就是说,在设计输出的接口时同时还要设计输入的回路,才能实施控制。

但是,无论是马斯克之流的AI脑机接口派还是VR领域的直接输入派,都没回答过这样一个致命的问题:“你们知道如何防止人类的自我意识被彻底抹除吗?”

2

信息与信号的分离或混淆

我们的自然感官,主要是让我们接受认知性的信息,而不是让外来的控制信号随便侵入,这就为保护和维持我们每个个体的主体地位打下了基础。有鉴于此,我们必须要坚持如下三条初始状态的“非对称原则”:

1.从客体到主体这个方向,信息越通畅越好,控制信号阻滞度越高越好。

2.从主体到客体这个方向,控制信号越畅通越好,信息密封度越高越好。

3.以上两条的松动调节,以最严苛的程序保证以各个主体为主导。

那么,如果现在放开搞“脑机连接”,危险在哪里呢?对照以上原则,我们可以归纳出以下几方面的可能风险。

其一,由于现今人类对自己的大脑与自我意识的关联的认识还非常有限,也对认知性智能与自由意志之间的关联的认识基本为零,在这样无知的前提下贸然实施大脑直接干涉,很有可能将人类的自我意识(或曰“灵魂”)严重破坏甚至彻底抹除。

其二,就算没有抹除,在作为认知材料的“信息”和控制人的行为的“信号”之间不能做到基本分离的社会和技术条件下,有了绕过人的自然感官直接刺激脑中枢的技术手段,将给一部分人控制另一部分人提供极大的方便,对人的自由和尊严构成严重的外来威胁。

其三,当人们还没达成法律共识将脑机接口的信息和信号的流向设置权完全赋予同一主体之前,一个人由于可能直接被外来意识控制所带来的损失,比他可以直接控制外部设备所带来的方便,或许要大得多。

以上几条不同层面的风险,哪一条都足以构成我们联合抵制马斯克等人的“脑机融合”项目的充足理由。

3

被夸大的人工智能的威胁

当今,渗透到人类生活各个层面的互联网、飞速运转的计算机、海量储存能力的云储存以及时下大热的虚拟现实与人工智能等新兴科学技术,将人类抛进一个既似熟悉又还陌生的环境中。人们熟悉的是,以往传统生活模式中的基本事务的处理在这些技术的协助下变得更为方便快捷,而陌生的是,在如此快速的技术迭代下,人们对现实与虚拟之间的界限的感知变得越来越模糊、对人类与机器的关系的把握越来越恍惚、对人类社会既定的规范制度的有效性的判定也越来越迷茫。以2016年阿尔法围棋(AlphaGo)与李世石的博弈为例,围棋世界冠军、职业九段选手李世石以4:1的总比分落败于一款人工智能围棋程序,过后不久,AlphaGo更以Master为账号横扫所有人类顶级对手。这样的结果,让不少观者开始忧心忡忡,甚至担心发展到具有“人类意识”的人工智能会不会统治甚至毁灭人类社会。马斯克、盖茨、霍金这些偶像级的大人物,都在发出警示。

而马斯克还即刻付诸行动,要将人类每个个体先用AI全面武装起来,以对抗垄断AI的假想的邪恶势力。但是,从上文我们已经看到,如此具有行动力的人,却有着一个思想力上的致命伤,对人的自我主体意识问题缺乏思考,从而成为了一个危险人物。

马斯克在哲学界有个同道,这就是尼克·博斯特姆(Nick Bostrom)教授。他相信无论只有智能的AI还是具有自主意识的AI,都完全是由计算来实现的。由此他还做出了一个逆天的判断:我们人类的意识,在接近100%的概率上,不是真实存在的意识,而是被计算机模拟出来的“假意识”。但是,第三人称世界的对象可以分真假,第一人称世界中的意识何以分真假?博斯特姆基于自然主义的计算主义使他陷入到虚妄的境地之中。更为严重的是,大企业家马斯克之流也循着这个思路前行的话,就会彻底忽略“脑机连接”项目最致命的危险。

笔者经过多年的独立研究,加上近来与美国量子物理学家亨利·斯塔普(Henry Stapp)的讨论,笔者已经得出结论,物理主义和计算主义对人类意识的解释是误入歧途的,因为这些解释者都不可避免地陷入了“整一性投射谬误”(Fallacy of Unity Projection)之中不可自拔(见《哲学研究》2015年第6期笔者发表的论文)。笔者得出的结论是,以计算机模仿神经元网络的方式造出来的人工智能不可能具有真正的自我意识,只有按照某种非定域原理(比如量子力学)建造出来的人工系统,才有可能具有第一人称视角的主观世界和自由意志。所以,除非有人以确凿的证据向我们证明如何按照非定域原理把精神意识引入某个人工系统,不管该系统的可观察行为与人类行为多么相似,我们都不能认为该系统真的具有了精神意识,该系统都还是属于工具性的“弱人工智能”。

弱人工智能是在特定领域类似、等同或者超过人类智能/效率(不具备自我意识)的机器智能。就目前已广泛应用的人体识别、机器视觉、自动驾驶、机器深度学习等AI技术而言,都属于擅长单一活动的弱人工智能范畴。可以“战胜”李世石一百次的AlphaGo也不例外。AlphaGo的工作原理是训练多层符号化的人工神经网络进行“深度学习”,这种“学习”,实质是将大量矩阵数据作为输入,通过非线性激活方法取权重,再产生另一个数据集合作为输出,调整权重分配,反复迭代逼近期望值,直至满意,就把权重矩阵固化下来,从学习状态转到工作状态。本人与斯塔普的研究表明,这样的学习过程,从头到尾都没有任何机会让“自我意识”涌现。

以雷·库兹韦尔为代表的未来学家认为“智能爆炸”正在发生,但他们并没有论证过人类的自我意识和人类的智能的分别在哪里,也就无法揭示这种所谓的“智能爆炸”到底是福还是祸,从而所谓的“乐观”还是“悲观”的区分都显得肤浅和不得要领。虽然我们在这里没法展开系统的论证,分析一下这种威胁论的直接起因,还是可行的。

首先,人工智能可以通过“学习”无穷迭代改进其“能力”,而这种权重分配为何能达到这个能力,却是一个无人可以破解的黑箱内的矩阵状态。这样的事态,听起来就会引起大家的心理恐慌。此种危机意识是人类自己将“对未知领域的不确定和不可控性”“对未知领域可能产生的巨大影响”与“缺乏学理根据的科幻想象”糅合之后的产物。也就是说,这种危机感类似于被迫害妄想症,而问题症结不在于人工智能这项技术,而在于有这种意识的人群本身。因为在没有完全弄清楚人工智能与自主意识的问题之前,将人工智能拟人化或主观赋予其行为动机都是出于人们臆想的焦灼和恐惧,所以这种威胁实属“人为”而非“机为”。

其次,以马斯克为代表的一部分人担忧,如果怀有恶意的个人/组织/集团/政府率先掌握了超人工智能技术并用其实现自己的邪恶计划,那么人类的处境将会变得岌岌可危。这类危机来源围绕的仍旧是人的动机,关涉的依然是人与人之间的操纵与被操纵的“政治”问题,而无关乎人工智能是否具有“征服”的意图。只要不脱离人际间的关系,看似由人工智能所导致的控制危机实质上就仍然属于人类自古以来一直都在面对的统治与被统治的话题。这与黑幕后的政客或极端恐怖分子掌握大规模杀伤性武器本质上是一样的,也与我们造了大坝却对其后果难以预测和把控的情况相差无几。所以,人工智能这项新型技术可能会对我们过往经验构成严峻挑战,但并不会产生完全不同类型的新问题。也就是说,人们担心的“智能爆炸”所引发的后果并不是一个新难题,而是一系列老问题的叠加。

再次,对于人工智能技术的焦虑还来自另一类认为它将取代人类劳动力,从而造成大量人类失业的威胁。这类忧虑,实则是对人类内在价值的误读。其实,“不劳而获”只是在有人“劳”另有人“获”时才是坏事,而使得所有人都可以“不劳而获”,正是所有技术进步的应有目的。人类谋生所需的体力劳动和脑力劳动被机器替代是必然的趋势,而这正是我们所有经济发展技术创新所谋求的主要目标。由此看来,人工智能取代人类劳动,我们应该拍手叫好才是。只要我们的分配制度与人类劳作的关系理顺了,人类并不会因为失业就丧失了生活的意义,反而这让人们有更多的机会去使其内在价值大放异彩,直接谋取生活的意义。

所谓人类生活的内在价值,是与其外在价值或工具价值相对而言的。比如,单从一个人来说,为了购买食物让自己生存下去而不得不从事一份枯燥乏味的工作,这种工作并没有任何独立的价值,其价值完全是工具性的、附属于生存需要的。另一方面,内在价值却是非工具性的。或许哲学家们在几千年的争论中还未能将具体哪些是人类的内在价值给出一个精准的划分和描述,但诸如幸福、自由、正义、尊严、创造等这类基本内在价值是鲜有否定的。这些价值不是为了其他价值或目的而存在,它们本身就具有至高无上的价值,失去这些价值诉求,人们生活所欲求的全部内容将不复存在。而人工智能取代人类劳动力从事基础工种的劳动,恰恰是将人类从劳作谋生的桎梏中解放出来,让人们投身到艺术、认知、思想、情爱、创造等实现人的内在价值的活动中去。

最后,正如最近大热的科幻剧集《西部世界》和《黑镜》系列所隐喻的那样,部分人认为人工智能的“觉醒”才是对人类最致命的威胁。他们害怕人工智能发展到具有自由意志和自主意识的强人工智能阶段后,会拥有跟人类一样的“人性”腹黑面而与人为敌。但是,正如以上所说,现今冯·诺依曼框架下的二进制计算机的工作原理依赖经典物理学的“定域原则”,永远不可能“觉醒”,而只有以“非定域原则”为构架的计算机(比如量子计算机)才有可能产生自我意识。所以,在现今神经网络人工智能独领风骚的情况下,这种担心完全多余。

那么,如果基于量子力学我们真的制造出了具有自我主体意识的强人工智能呢?这时我们就要彻底转变思路了,此时有意识和情感的人工智能也具有与人类对等的人格结构,在社会地位与权利尊严等方面应与人类一致。拿它们去买卖,相当于法律上的贩卖人口。进一步地,我们必须将它们看成是我们的后代,与我们在实验室培育试管婴儿并无本质上的差别。自古以来,我们都希望自己的后代超越自己啊,“强人工智能”比我们强,我们庆贺都来不及,还焦虑什么呢?

总之,按照人文理性的要求,面对自己创造的具有自我意识的强人工智能存在体,我们的基本态度应是接受并认可他们是人类进化了的后代。正如经过上万年的演变后,躲在山洞里的智人成为穿梭于摩天大厦里的现代人的历史进程一样,人类以崭新的方式繁衍出一种新面貌的超级智能人,这不是灭世的劫难而是人类的跳跃式进化。

但是,目前以Neuralink为代表的科技公司所试图做的脑机互联,却极有可能将人类个体变成徒有人形的机器人,亦即行走的“僵尸”,彻底终结人类文明。如若仅仅出于害怕人类在超人工智能时代到来时不能与AI在劳动力市场相匹敌甚至被淘汰而企图将人类变成AI,这将是对人类最紧迫且最严重的威胁。就像上文所说的那样,人脑是迄今为止我们所知的最为复杂精巧的东西,在我们还没有基本摸清其运作原理之前,对其进行任何加工改造都是极端危险的行为。

4

虚拟现实的颠覆性

著有《未来简史》的哲学家赫拉利最近在英国的《卫报》发表了一篇文章,题为“无需就业就实现人生意义”,宣称人工智能的发展将大多数人变成“不可就业”后,虚拟现实让人们直接实现生活的意义。他还把人们在VR世界中与生产力脱离的活动类比于古往今来的宗教活动,试图说明人们从来都是在生产活动之外才找到深层意义的源头。

赫拉利认为劳作不是生活意义的源头,与我们以上的观点不谋而合。但他将人们在虚拟世界中的活动与宗教类比,却忽略了一个最重要的问题,那就是,在宗教中,人一般被当成被造的存在,而在虚拟世界中,每个人都可以是世界的“造物主”。他没注意到,“创造”与“被造”,是相反的。

在VR与物联网整一起之前,VR只是一个体验的世界,很多东西并不会在真实社会中直接造成实质性后果。VR和物联网整在一起就不一样了,那就是ER,扩展现实,我们此时就可以从虚拟世界操作现实世界中的物理过程,完成生产任务了。这方面我们界定完了以后,就可以讨论,到底在现实世界不能干的事情,是否可以允许人们在虚拟世界中去实现。

有人认为现实世界不许干的事都是坏事,那可不一定。因为,现实中的自然限制不一定符合人的需求,人为的规矩也不一定是最合理的规矩。比如说孙悟空,还有《山海经》那种古代传说中的很多东西,我们在现实中就干不了。但是如果我们看不出这种神仙般的能力有啥不好,或许很好,我们就让大家high起来啊。再比如说,现实生活中有国界,而虚拟世界中可以没有国界,没国界到底是好事还是坏事?没有进一步讨论之前,我们先不要轻易下结论。一下子从管制角度看,它好像是坏事,但是终极来看也许并不是坏事。是我们制度要适应这种东西,而不是倒过来,让我们适应已有的制度。这就需要非常严格的逻辑思维,对人类社会本性有一种透彻的理解,对我们的生活的内在价值,都要有一些比较深刻的理解,才能想清楚这些我们必须面对的新问题。这就有很多思想资源,有两千多年来哲学家讨论的东西,平时人家不关心这些。现在虚拟世界和人工智能等东西来了,那些东西就变成任何人都要面对的事情。我们立法,和人建立关系打交道,都变成要思考最抽象的哲学问题了,这就要激活大家的人文理性。

VR领域真正的问题,其实是与马斯克的“脑机融合”项目类似的问题。虚拟现实行业的不少人与马斯克有类似的危险想法,就是绕过人的自然感官直接刺激脑中枢来给人输入虚拟世界的信号。经过我们以上的分析,我们知道,这是万万使不得的。

不同的是,这边形势更加紧迫,却少有人关注。虚拟现实与物联网的结合是不久后几乎必然要发生的事情,我已在实验室中做出了可操作的原型了。做出这个,就是要警示大家,弄好了我们接近神仙,弄不好呢,马斯克还没来得及做的事,被虚拟现实大牛抢先了。一旦大家脑部被插,无论是在VR还是AI领域的人干的,可能结果就是人类文明终结。

 
最新文章
相关阅读