Hi!下午好!欢迎访问江汉生活网!
当前位置:主页 > 古今文化 >> 正文

赵汀阳:人工智能会“终结”人类历史吗?

时间:2017-8-13| 来源:| 编辑:| 点击:0次

  科技和商业可以给我们描写1个充满迷幻的世界,但哲学有助于我们看到这个世界是和不是甚么。

  图片来自网络

  不管是在宗教文本,还是哲学家、文学家们的描写中,都1次次构想过诸如“世界末日”的图景—区分只是在于前面是不是有1个天堂等着,还是历史完全终结。它们让我们想到,人类活在这个世界上,真像是1次次触目惊心的历险。

  到现在为止,政治、社会、经济、科技、文化的风险无处不在,但并没有根本性的危险,想象中的很多事情并没有产生。缘由多是,有自由意志的人类能够在整体上控制没有自由意志的1切,不管它们是权利、自由市场、贫富差异,还是核弹、金融系统、移动互联网。

  不过人工智能的那个世界日趋邻近,1个从未有过的、跟人类的“存在”直接相干的问题逼问而来。

  7月20日,日本软银团体董事长孙正义发表了1篇主题演讲《信息革命指引下的新世界》,构想了30年后的图景:“物联网将使全球网络化,智能机器人将渗透我们的平常生活,人工智能将超出人类智力。”资本明显乐于推动科技在这方面的突飞猛进。

  就在最近,由于《人类简史》《未来简史》两本书而在全球曝得大名的以色列历史学家尤瓦尔·赫拉利来华演讲,也谈到了人工智能:“21世纪的人类将逐步失去在上万年的演化进程当中取得的气力,这些气力将逐渐从人类让渡给人工智能。”在他眼中,人工智能改变了自生命出现以来最重要的原则,我们的生命将根据计算机灵能设计,脱离本来有机化合物的限制,进入1个无机的世界。

  著名哲学家、中国社会科学院哲学研究所研究员赵汀阳在他的新书《4种分叉》中也探讨了这个跟哲学、生物、科技有关的前沿问题。他把人工智能问题放在了最根本的人类思惟和人的存在论角度进行深入考察。科技和商业可以给我们描写1个充满迷幻的世界,但哲学有助于我们看到这个世界是和不是甚么。

  本刊记者对赵汀阳进行专访。

  人工智能的“短未来”和“远未来”

  N:你的新书《4种分叉》讲到了跟人的存在有关的时间、意识、道德、智能这4种“分叉”。

  前3种分叉在我看来是讲“人为何会变成现在这个模样”,而智能的分叉则完全不1样,不是又会变成甚么模样的问题,而是还能不能存在的问题。用你的话说:“人工智能1开始是个知识论问题,在不远的将来将要升级为1个触及终极命运的存在论问题,1个也许将危及人类本身存在的问题。”

  尤瓦尔·赫拉利也在《未来简史》中担心人类的灭亡。既然1切终都可以还原为科技,那1个新的物种—人工智能—固然比人类利害很多。

  不过我还是有点疑惑:为何不是人类像过去那样借助科技气力提升了自己,而是反过来危及了本身的存在呢?

  ZH:人工智能真的危险吗?科学家们的看法也多有分歧,缘由在于,无人能够算准未来,不管科学技术本身将会发展到甚么程度,还是会致使甚么社会后果,都难以预感。很明显,必定性可以算计,可能性却难以算计。另外,科学家所预测的人工智能未来时段也不1致,有些科学家讨论的是可见的“短未来”,比如说2310年后的人工智能状态,这类预感的准确度就比较高,也有些科学家讨论的是百年或更遥远的“远未来”,就仅仅是可能性,未必为真。这两种情况要分别谈论。

  假定限于“短未来”去看人工智能,估计应当属于你说的“科技提升了人类自己”的乐观情况。事实上我们已处于低级人工智能的时期,互联网、电脑、手机、工业机器人、无人机、各种自动辨认仪器、无店员超市等等,都已是现实,很快会成为常态的产品还有家用机器人、医疗机器人、农用机器人、战役机器人、各种特殊用处的机器人、自动驾驶汽车和火车,和各种智能服务,这些都属于“短未来”的人工智能。

  所有属于专门用处的有限人工智能即便还没有成为现实,也已不能引发人们的惊奇,过度的预告和宣扬已让人们失去了好奇心和感受能力。虽然说“短未来”的人工智能基本上属于积极的“进步”,但也足以构成人类难以处理的社会困难,比如说许多科学家已正告未来数10年里人工智能会致使超过50%的大量失业,赫拉利的估计最为惊险,他认为90%以上的人都会失业—这个估计或许夸大了,人类有可能发明1些新的工作,但不管如何,大量失业是1定的。

  听说人工智能会令人类的经济财富有个大奔腾,因而多数人可以不工作而坐享其成,比如说无条件的全民福利,听起来接近共产主义的想象。另外,1切需要努力的生活经验变成了可以购买的智能服务,比如说,学习变成了搜索和下载,爱情变成了定制服务,乃至智商也能够定制购买,因此很大程度上实现了自由和同等。

  N:对这类看上去很先知范的预言你怎样看?

  ZH:对这些好事我有些将信将疑。百万年来,人类的生活意义与劳动的成绩密切相干,心理结构也与劳动的意义密切相干,这类相干性已固化为1种价值认证或意义指数。假设生活不再需要劳动,不知道这类新经验将如何承载生活。1个人将如何解释自己的生活?如何肯定各种事物的意义?又如何肯定自由和同等的意义?自由和同等之所以“价更高”,就是由于现实存在着不自由和不同等。如果可以不劳而获,1切好东西都失去高附加值,就消解了1切价值。没有价值差异的生活将如何解释本身的价值?又是怎样的1种经验?我们既无准备也难以理解。李泽厚老师曾提过1个触目惊心的问题,他说,当人类解决了生存所需的问题,或许就找不到甚么确切的事情能够解释生活的意义。

  N:“短未来”的舆论造势仿佛比较符合现代性的逻辑:变,大家不跟上就会被抛弃;也符合技术积累的逻辑,它寻求并总会产生突变;固然更符合经济的逻辑,科技仿佛是保持经济发展、解救人类政治-社会-经济结构的万应灵丹,过去几个世纪的工业革命莫不如此,每次经济结构的重大变化都期待1次科技革命的产生。所以事实上如你所说,人们已不惊奇了。那“远未来”呢?

  ZH:假设从“远未来”的角度去看,可能会遇到我在书中讨论的终极问题,即如果人工智能取得反思能力,超出了图灵机的限度而构成自我意识,那将是1次存在论水平的革命,就是说,存在的升级。

  存在的升级是对存在本身的革命,而不是1种存在对其生存条件的革命。人类万年以来的各种技术革命都属于对生存条件的革命,即本身能力的延伸,都不是对本身存在本身的革命,但人工智能的发展却有可能构成对人类存在本身的革命。不管此种“存在论级别的革命”是福是祸,它都非常可能产生。

  N:在我的印象中,不管是从哲学上还是在别的领域,都是在这样的角度展开的:人从动物那儿走来,区分于动物;然后人向神走去。换句话说,动物只是人超出的1个低级版本,而神也只是人的1个完善的投影。在这类情况下,都是“人的存在”,科技发展之类只是你所说的对这类存在条件的改良,人担心的也只是怕自己倒退回去或被科技所毁灭。但人工智能的横空出世给我们的感觉仿佛是要用“工人智能的存在”取代“人的存在”。这个可以预测吗?

  ZH:没办法预测。我们虽然没法预测,但从逻辑上看,存在级别远高于人类的人工智能可能会有几种情况:

  1、视人类为无足轻重的低级存在而给予漠视,不去照顾人类的生活,让其自生自灭,就像人类看蚂蚁1样;2、认为人类的存在完全过剩,碍手碍脚,因此视为可以清除的害虫,就像人类杀死蚊子和苍蝇;3、把人类当做低级宠物;4、小部份人类把自己改造为人机1体的永生不老的高级存在,进而奴役或消灭其他低级人类。

  不过,好在这些恐怖的可能性都比较遥远,也未必能够成真,恐怕不像有的未来学家想象的那样燃眉之急,由于自我意识或自由意志是极为复杂的事情,生命系统更是非常复杂,听说1个生命的复杂程度远远超过全部宇宙的物理性质。因此,在乎识和生命方面实现根本突破依然远远超过目前人类的能力,并不是可望之愿景。

  另外我想说,关于未来人工智能有个最不靠谱的假想是,给人工智能编程设定1些酷爱人类、保护人类价值观的程序。假设人工智能哪天真的取得了自我意识和自由意志,就会把那些“酷爱人类”的程序辨认为对人工智能有害无益的木马或病毒软件而加以删除。很明显,1旦人工智能有了自由意志,它的存在目的就是为人工智能自己服务而不可能绝不利己专门利人地为人类服务。1旦人工智能系统成为高于人的存在,就很难期望人工智能爱民如子。

  所以,霍金对人工智能的正告是对的。人工智能无疑是1种最伟大的技术,但其发展必须有个绝对限度,我的理解是,人工智能只能保持在特殊化、专门化的发展范围内,而只有专项技能的人工智能不管多么强大,都由于缺少综合能力而难以构成全面的智能和自由意志,否则,不但是历史的终结,而可能会是人类的终结。

  人工智能如果有反思能力,它称王的时期就来临了

  N:从历史上看,潘多拉魔盒打开就打开了,很难收回去。人类创造出了很多失去控制的事物,比如资本主义,比如权利。它们已能够“自律运转”。但仿佛不能说它们有自由意志。它们是可以提升或恶化人类的存在,但好像并没有危及人的存在本身。你担心人工智能会危及人类本身的存在,是担心它像人1样具有自由意志。但我很怀疑这点:人造出来的这些东西怎样可能有自由意志呢?

  ZH:自现代以来,人类确切创造了许多失控的事物而暂时幸免于难,但人工智能的革命有着根本性的不同,正如前面说的,这类存在论级别的革命是革自己的命,所以它是1种“反存在”的革命。现代的进步论思惟有1个既是优点又是缺点的思惟方式,即更多地斟酌1种创新是不是有某种好处,而较少斟酌这类创新是不是有某种坏处,而且还相信任何发展总是好处大于坏处。

  这些信心都是假定,并没有实在证明。结果是,好处的诱惑总是大过坏处的正告。现代进步论另有1个过于乐观的思惟方式,即相信总会有更新的技术进步能够解决上1个技术进步的遗留困难。这也是1种盲目的空想和自信。比如说,核污染和各种化学污染就不见得能够得到及时的化解。

  既然人工智能的这项技术进步超越工具进步的概念,而有可能改变人类的存在本身,所以可能有终极性的风险。人工智能1旦取得自由意志,便可能致使万劫不复的灾害。不过,人工智能是不是1定能够到达自由意志?科学家们还没有1致看法。其中的1个缘由是,人类至今还没有清楚了解自我意识或自由意志的机制,也就没法确切知道如何能够创造出人工智能的自由意志,也就不清楚1个高度发达的人工智能系统是不是能够自己创造出自由意志。

  N:也就是说,仍只是1种基于“进步”思惟的想象—虽然多是公道的想象。它的逻辑图式大概可以是这样:既然我们可以创造出能在智力上克服人类的机器,固然总有1天也会创造出有自由意志的另外一个人工物种来。谁能否认这类逻辑可能性呢?虽然逻辑可能性其实不等于存在或会存在某1个现实。

  ZH:应当说,这是1个目前还没有答案的问题。生命的问题过于复杂,有些科学家试图把生命机制转述或转译为比较容易理解的物理-化学机制,这个努力至今还没有成功,乃至也未必能够成功。

  我有个未必正确的料想:自由意志或自我意识也许半为自然产物半为文明产物,恐怕不能单纯由物理、化学和生物学去解释,就是说,其中1部份秘密可能隐藏在文明当中,特别是语言当中。

  我在书中有1章讨论否定词的开创启蒙功效,其实也间接地与人工智能问题相干。初期人类发明了否定词,从而开启了1切反思的可能性,因此得以发展出复杂的文明,所以否定词是文明的初始条件。

  不过,对人工智能,问题要复杂很多,人工智能所使用的逻辑语言已包括否定词,但只是计算系统的1个内部功能,只用来计算对象,没法用来质疑或反思计算系统本身,也就不可能构成反思性的自由思惟。其实人类何以能够自由地应用否定功能来对思想本身进行反思,从而对思想本身构成整体性的理解,这1点还是个未解之谜。

  不过,有个有趣的事例或能有所启示:哥德尔定义了1种哥德尔编码,把数学系统的运算功能和命题对应地转译为哥德尔编码,从而能够以对象化的方式显现某个数学系统整体的“语法”性质,效果上相当于赋予1种语言以反思功能而使语言对本身进行反思。

  其中的启示是,自然语言是最伟大的语言,它自动具有自我反思的功能,所以人类能够反思1切事情,包括反思语言和思想本身,而数学或逻辑语言却没有自动反思功能,只有表达和计算对象的功能,所以数学和逻辑语言不会自动去反思本身。哥德尔的天才就在这里,他赋予数学语言1种“元语言”功能而逼迫数学反思本身。

  这些问题10分复杂,在此我只能简单地说,假设未来出现1种“哥德尔牌”的人工智能系统,它不满意循序渐进地完成任务,即依照既定程序去计算命题,而是自己发明编写了1种“哥德尔编码”的元语言,对本身系统进行整体反思,从而取得批评与自我批评精神,因而就可以够自主判断自己所领到的任务是不是成心义,那就恐怕要失事,后果难以想象。

  不过,我在这里的描写是文学化的,在科学上其实不准确,只想说明1个道理:只要人工智能系统的语言能够为本身发明出反思能力,人工智能称王的时期就来临了,那时,人工智能就非常可能成为人类自己发明的掘墓人。

  N:按我可能其实不靠谱的理解,自然语言代表人在跟世界的关系中的1种比较“本真”的状态。在心理学的实践中我发现:1个并没有甚么知识也没有被社会观念扰乱心灵的人,他们对很多东西的直觉很准,乃至超过很多遭到知识训练的人。或许可以这样说,数学和逻辑语言由于“人工”的痕迹较多,工具属性较强,所以反思本身能力不强。一样,如果人工智能不是靠人所编码的那套语言去玩,而是自己发明了1套语言,那就不是人的工具了,取得了独立性。那个时候,如你所说后果将难以想象了。

  人类可能已走过了那个10字路口

  N:在我看来,瓦尔·赫拉利也是1个被“科学主义”影响而忘记了基本的哲学逻辑的人。比如科学家们要在人的身体里去找“灵魂”,发现只有1堆基因、激素、神经元,没看到“灵魂”在哪儿啊。所以认为根本不存在“灵魂”这类东西。

  一样,他们依照这类逻辑去找“心理”、“自我”、“自由意志”,也没发现有这些东西。因而就很激动地像当年艾耶尔等哲学家那样“拒斥形而上学”,拒斥不能还原为基因、激素、神经元的1切事物。根据这类逻辑,爱情这类东西是不存在的,不过就是1堆多巴胺嘛。

  我也不清楚灵魂是不是存在,也许是这个概念比较含糊。但我知道,大家在用这个概念时,主要是从“功能”的意义上来用,不是指实体。但科学家们是把它当做实体来找的。这怎样找得到?犯了赖尔所说的“范畴毛病”了。一样,心理、自我也是指功能。自由意志,指的是1种状态或性质,一样不是指实体。比较原教旨的“科学主义”是不是定自由意志的。

  ZH:我对还原论的“科学分析”比较怀疑。如果1种还原不能保证在复原时依然能够保值,那就是1种破坏性的还原,应当称为解构,而不是还原。比如说,文明事实被还原为物理事实以后,其意义和价值明显消失了,并且没法复原,这就是问题所在。

  N:你说,存在之本意就是“继续存在”乃至“永在”。这非常深入,完全可以解释政治、经济、社会、宗教、文化、生物等领域的无数现象。但这1切终究反应的还是生物和人的动力与意志。所以由人所创造出来的人工智能可能具有作为生物类的物种的那种“存在之本意”吗?人类可能也离不开人工智能,也信任1些科技而不是信任自己。但人类依赖人工智能和人工智能变成了新的生物好像是两个概念。

  ZH:假定超级人工智能成为存在,那末就会有它的“存在本意”,1旦具有自我意识和自由意志,人工智能自觉意想到了存在,就一定把存在从1个事实变成1个目的,就是说,人工智能也一样想万寿无疆。这应当不成问题。

  不过,超级人工智能算不算“生物”,要看你如何定义,但不管算不算生物,都1定是1种高级别的存在。人类比较疯狂的想象是试图在未来创造1种人机1体的新存在,到达与天地共久长,如神1样无所不能。如果可能的话,恐怕也属于遥远的未来。

  成为永久不死的神好吗?我不知道,但有个问题可以想一想:神级的存在或许具有1切,除生活。明显,如果永生并且无所不能,那末就没有1件事情是成心义的,也就没有1件事情值得做,这样的存在到达了完善概念的存在,但就是没有生活,难道这是哲学家1直梦想探求的绝对存在?

  N:所以我们确切没有看到从“意义”的角度上对人工智能进行探讨。人工智能需要意义吗?我想,如果它只是工具1样的机器,是不需要甚么意义。但如果它不再是工具了,好像也需要吧?不过人好像对技术突破充满了向往,是刹不住车的。

  ZH:人类现在已几近是完全依赖技术而生存,反对技术已变成1种思想的童话。人依托他人而存在的人文生活方式正在1步步被替换为人依赖技术系统而存在的技术化生存方式。问题是,当生活在大于人的复杂系统中,人就无力做主。何况未来的人工智能系统将是1个高度动态化的组织系统,人完全没法安排1个无穷的动态系统,人的生物情势决定了人的经验限于3维空间和1维时间,没法以人的经验去安排高维的世界,因此,人的主体地位只能让位给人工智能主体。

  可以说,技术化的生存已以僵硬的方式对人类重新提出了存在论的基本问题,即存或亡的问题,这是1个超出任何文学或叙事的硬问题,再无任何修辞的遁词。

  N:我们模糊感觉到人类确切已走到了1个10字路口,也许这个感觉依然是错觉,事实是人类可能已走过了这个10字路口,往某个方向去了。这个时候,哲学上的存在论问题确切生死攸关了。对此你有甚么看法?

  ZH:解救存在论也许有办法,但解救人类却未必有办法,由于存在的实际困难明显大于存在论的理论难度。

  N:有1种耽忧是高技术会强化社会不同等,终究致使这个社会玩不下去。这类耽忧你也流露出来:“人类能够容忍量的不同等,但难以容忍质的不同等。比如说人们能够委曲忍耐经济不同等,而生命权的不同等则是忍无可忍的。当大部份人被降格为蝗虫,社会就非常可能会在同归于尽的全面暴乱中完全崩溃。解救少数人的方舟终究是不受欢迎的,这使人想起马克思的先知洞见:只有解放全人类才能解放自己。”

  我耽忧的是,如果高技术依照它正确的技术思惟继续这样,而依照它毛病的逻辑把情感、道德、法律、社会规则全都解构,那才真是可怕。这不正是消解人的存在吗?

  ZH:技术的诱惑是对人类最大的诱惑,目前还看不到有甚么更大的诱惑能够克制技术的无穷度发展。因此,即便有想法也没有办法,1切试图阻挡技术的努力恐怕都终究无用。海德格尔早就反对技术,呼吁诗性的存在。想法很好,却无功效。问题在于,诗性的存在不如万能的存在那末有吸引力。

  或许唯1有效的办法是人类整体的自我克制,可问题是,恐怕找不到甚么办法能够令人类愿意自我克制。别说克制技术的诱惑,即便克制少做坏事,对人类来讲也是很难的,不知道这是否是人类的命运?真抱歉,我很想给你1个乐观的想象,可就是想不出来。只能希望我想错了:或许,自由意志的超级人工智能终究做不出来,或,超级人工智能的心灵完全不像目前想象的那样危险。

友情链接:
合作伙伴: