对于人工智能的哲学探讨
摘要:通过对阿尔法狗的分析,可以看到人工智能对于价值观和价值体系的依赖性,想要开发全面的强人工智能,首先需要知道人类的价值观究竟是什么,解答这个问题成为了推进强人工智能的关键。本文沿着微生物、动物到人类进化的路径,论述了人类隐性情感思维、显性理智思维、情感价值观与理智价值观的形成与它们之间的主次关系,并给出了人工智能借鉴人类智能继续向前推进的初步建议。关键字:人工智能,哲学,价值观,情感思维,理智
摘要:通过对阿尔法狗的分析,可以看到人工智能对于价值观和价值体系的依赖性,想要开发全面的强人工智能,首先需要知道人类的价值观究竟是什么,解答这个问题成为了推进强人工智能的关键。本文沿着微生物、动物到人类进化的路径,论述了人类隐性情感思维、显性理智思维、情感价值观与理智价值观的形成与它们之间的主次关系,并给出了人工智能借鉴人类智能继续向前推进的初步建议。
关键字:人工智能,哲学,价值观,情感思维,理智思维
当前人工智能发展迅猛,各类特种机器人在各行各业得到了广泛的应用,但是,人工智能距离全面的人类智能还很遥远。人工智能最突出的特点在于计算速度快,学习能力强,不过,所有学习都是判断与记忆的结果,判断就必须有比较,比较就要有比较的标准,有了标准才能知道孰优孰劣,也才能知道该记忆什么,淘汰什么,或该重视什么,轻视什么,这样的学习才会带来进步。人工智能想要达到人类的思想水平,就必须首先知道人类的思想究竟是怎么回事。
一、从阿尔法狗看去
从DeepMind公司的智能软件AlphaGo Master战胜人类围棋冠军的那天,人工智能开始火爆起来了,并且越来越火。AlphaGo Zero是AlphaGo Master的下一代,经过40天左右互搏的自我学习,AlphaGo Zero以100:0的战绩完胜AlphaGo Master。那么,AlphaGo Zero为何如此强悍?
DeepMind的联合创始人兼CEO,AlphaGo之父戴密斯·哈萨比斯(Demis Hassabis)曾透露,如果说上一代的AlphaGo是通过分析人类目前留下了成千上万场对决和赛局,来学习围棋的规律和制胜方法的话,那么使用了强化学习技术(reinforcement learning)的AlphaGo Zero则更加简单,它只需要知道游戏规则,就可以开始自我学习。Deepmind的资深研究员,AlphaGo的“人肉手臂”黄士杰博士,在台湾省中研院举办的“2017年人工智慧年会”上,也介绍过AlphaGo Zero:“我们拿掉所有人类对围棋的知识,只喂AlphaGo Zero围棋规则,让它自己学习下棋”。
黄博士还分享了AlphaGo Master对上一代AlphaGo的改进思路,他说:“还是采用深度学习和强化学习的方法,并不是用人类知识的方法。第一,我们加强AlphaGo的学习能力,所谓学习能力就是把网络程度加深,从第一篇论文的13层加深到40层,而且是改成ResNet。第二个改变是,把策略网络(Policy Network)和神经网络(Value Network)结合,让AlphaGo的直觉和判断一起训练,使两者更有一致性。这个解决后的版本,就是Master”。[1]
黄博士还曾给出过AlphaGo Master的上一代AlphaGo的设计思想,他说:“AlphaGo 有两个主要的网络,一个称为策略网络(Policy Network),一个称为值网络(Value Network)。前者是由学习人类的棋谱而来,经由分析数十万个人类的棋谱,它可以选出 20 个胜率最高的下一步棋,有效地减少分析的广度。后者则是盘面优势的判断机制,计算每种不同的下法进行后,胜率的变化”。
关于AlphaGo 的更多技术细节,Deepmind公司早已经公布了他们的论文,已不再是秘密。现在大家都知道深度学习是人工智能的基本做法,不过,更应该予以高度关注的则是它的价值体系。
AlphaGoZero是专用来下围棋的机器人,它的研发者对它输入了围棋规则,由此它可以形成其最初的“价值观”,在此基础上经过学习计算,即可形成AlphaGo的价值体系。有了它的价值体系,计算机才能够不断地判断并学习,所以下围棋的计算机,凭借计算速度的强大优势,可以在短期深度学习后战胜人类。
计算机的所有判断全都需要经与标准的比较后才能形成,没有标准它就无法知道对错、利弊或好坏,也就没法进行比较做出判断。AlphaGo Zero正是因为有围棋规则,作为其根本的判断标准,或称价值观,并在此基础上不断学习,形成新的分支标准,进而构成完整的价值体系,才能步步深入,不断学习不断进步。
需要注意的是,若没有最初人类把自己抽取出来的围棋规则输入计算机,计算机就没了价值观。比较与判断没有依据,也就不可能有计算机后面的判断与学习了,也就不会有计算机在围棋比赛中战胜人类的佳话了。
二、究竟什么是人的价值观
计算机在围棋赛中战胜人类之后,人们都看到了人工智能的强大,很多人都在设想,很快人类就有可能造出,真正类似人类的机器人来,甚至认为计算机必将最后战胜人类。不过,现实中强人工智能还是很遥远,现在最强的学习技能仍然在人类大脑内,有人说强人工智能要到2045年,有人说至少还要100年,黄世杰博士的回答是:“大家不要太担心,电影还是电影”。
现在人们知道了,计算机在围棋赛中战胜人类的重要原因是,计算机得到了人类输入其中的围棋价值观、判断依据或称竞赛规则,才能不断地进行比较、判断和积累,或称学习,才能最终胜出。很显然,要做出类似人的机器人,就需要先给计算机输入人的价值观。然而,相对人类社会而言,围棋的规则十分简单,人类至今还没能抽象出人类的价值观,尤其是最基础的价值观,所以,要造出真正意义上类似人类的机器人,仍然是个未知王国。那么问题来了,究竟什么才是人的价值观呢?
中外哲学已经存在两千多年了,但是,人究竟是什么?这个哲学的根本问题至今没有答案,因而,有关人性和人的价值观,也一直没有令人信服的答案。实际上关于人类身体的来源现已由进化论、生物学、医学和基因科学给出了答案。剩下的、最困难的也是关键的就是人的思想意识到底是什么、来自哪里及该去何方?这个问题至今为止,无论是哲学还是科学,都还未能回答。
前年出版的《重识哲学》对这个问题做了探讨,如果人工智能依据其论述进行设计,或可更进一步证实,人类思想意识的来龙去脉,由此解开这个困扰人类两千多年的哲学根本问题。既然人的身体来自生物进化,人类思想意识的来源,自然也最好从生物进化中去寻找答案。
1、微生物
生物学、进化论、基因科学、心理学等科学研究表明,人类来自生物进化(演变),生物进化始于单细胞微生物,单细胞微生物具有感觉。[2]实际上科学家可能还没有意识到,感觉、记忆与判断甚至是生物进行新陈代谢的必要条件,最简单的感觉就是快感和痛感,记忆成就了感觉在判断中的价值。
《重识哲学》的论述告诉人们,任何微生物、动物或人都不例外,当某一行为获得成功,就会感受到快感,形成情形、行为与快感相关联的记忆;反之,当某一行为失败就会感受到痛感,形成情形、行为与痛感相关联的记忆。当再次遇到相同或类似的情形时,带有快感的记忆造成该行为的重复,带有痛感的记忆造成该行为的规避。[3]
多次长期的重复和规避,就会造成生物的用进废退。这就造成了生物判断对于记忆中感觉的依赖,也造成了生物的复用和生存对于成功行为和快感的依赖,也正是如此造成了生物的生存与进化。生物在成功生存与进化的同时,也只能依靠快感来指导遗传与变异了。所以,快感是生物进化的根本动力。
生物进化到多细胞微生物出现之后,生物感觉的作用在多细胞生物中就更加明显了。多细胞生物的出现意味着细胞间专业化分工合作的开始,否则,就没有多细胞生物存在的理由或必要了,自然界也就会仅有单细胞分裂,不会有多细胞生物产生。
在多细胞生物内部,细胞发生了分工,生物演变出专司分隔、进食、消化、排泄、呼吸、行动、感觉与记忆等各类功能的细胞群、组织乃至器官。生物作为一个生命整体,有分工就必然有合作,感觉正是生物体内合作的主导、依靠或基础。
多细胞生物之所以会有专司感觉的细胞存在,必是因为生物在还是单细胞生物时,就已具备感觉的功能,并且感觉的功能对于单细胞生物十分重要,否则,单细胞生物在演变为多细胞生物时,就不可能演化出专司感觉的细胞来。
感觉的存在绝不仅仅会是为了感觉而感觉,感觉的存在必须为生命服务。生物具有感觉就必然有记忆,否则感觉就没有太大用处了。判断是生命存活的必要条件,只有把感觉记忆下来,感觉才能为其后的判断和指挥提供依据,才能发挥感觉应有的作用。
感觉、记忆与判断的重要性使得细胞分工必然分化出专司感觉、记忆、判断和指挥的协调细胞群,由协调细胞群收集和记忆来自其它细胞的感觉信息,依据记忆中的感觉做出判断,并协调其它细胞的行为。只有这样,多细胞生物才能是一个有机的生命整体。生命的整体概念,对于多细胞生物更显得十分重要。
2、动物
生物进化到脊椎动物出现时,生物体内专司感觉、记忆、判断和协调的简单协调细胞群,已逐渐发展成了复杂的脑组织和神经网络,并分化出了专门用于感知外部环境的感觉器官,单一的快感或痛感逐渐发展成了更多样的情感,简单的判断逐渐发展成了更丰富的思维。不过,它们的情感再多样,也仍可归为快感与痛感两大类,它们的思维再丰富也仍是无意识的思维。
高等动物的情感自然成了判断的直接标准,情感强度也就成了思维唯一的“价值尺度”,情感与行为记忆的累积,成就了它们思维与行为的惯性。动物的思维形成于从简单快感和痛感到多样情感的进化,可以叫做情感思维,它们的情感思维是无意识的隐性思维。
在拥有语言之前,人类的先祖早已具备了其它高等动物也具有的,无意识的注意、归类、记忆、比较、判断、归纳与演绎等隐性情感思维的初步能力。思维由许多的比较和判断组成,要判断就要有判断的标准,高等动物的判断标准只能是它们的情感,情感强度也就是它们进行记忆、注意、归类、比较、判断的“价值尺度”。这些能力都是早期人类和其它高等动物的生存所必须的。情感不仅代表了愿望(欲望、意志)更是愿望可否实现的标志,这一点决定了是情感而不是愿望,必然会成为包括人类在内的高等动物的思维准则。
无论是对于觅食还是逃生,也无论是产生了快感还是痛感,感觉强烈代表价值高,很重要,感觉不强烈代表价值低,不重要,没有感觉的无需理睬。高等动物必须也只能依靠情感强度作为价值尺度,高效地记忆、注意、归类、比较、判断,那些对于它们最最重要的事物,迅速采取行动,对于不重要的事物予以忽略,否则,它们若毫无效率地面对浩瀚的世界,要么耽误了觅食,要么耽误了逃生,结果都只能是丢掉了性命。
3、人类
语言和基于语言的人间交流,造就了人类独有的、有意识的、显性理智思维,从而造就了人类。然而,语言和基于语言的显性理智思维,一直是情感思维的助手,从语言开始萌发至今,人类的语言和理智思维一直在缓慢持续的发展之中,情感思维始终占据着主导地位,支撑与支配着理智思维,情感正是或类似于众多哲学家一直苦苦找寻的、内心深处的“灵魂”、“自我”、“潜意识”或“意向性”。
语言交流能够造就人类,是因为语言对人类显性理智思维的形成,具有六大决定性贡献。正是因为有了语言,1、人的思想意识才变成了人间的存在;2、人才能定义出无法以隐喻为依托的、高度抽象的、大量概念;3、人才能够有效长时地聚焦自身的注意力;4、人才能形成有意识的思考;5、人才能运用概念进行有逻辑的深入推理,才有了显性理智思维;6、人类才有了高效的人间交流。
这六条之中最重要的是语言交流,因为社会交流,人类的知识与智力得到了极其快速的倍增式提升,使人类智能飞速跨越了数亿年的进化历程,变成了具有显性理智的智能人。虽然理智思维始终受到情感思维的支配与支撑,但是理智思维对于情感思维也具有强有力的反作用。
正是语言成就了人类的理智,超群的理智正是人类与其它动物的根本区别,人类现在是世界上唯一依靠理智思维生存的文明生物。人类形成的原因有直立行走、制作工具、用火、劳动和语言等,这其中每一步也许都是必须的,但这其中最重要的因素无疑是语言。
理解了人的思想意识也就理解了人性,人独有的理智思维来自语言交流,也就是说人来自人类社会(包括家庭),人是社会人。每个人高度依赖社会,这一点是所有其它动物所不能相比的,任何人所需的一切必须,包括衣、食、住、行、用、知识、思想、交流、认可、友谊、幸福等等,几乎全都来自社会协作。随着社会化大生产的深入发展和人类知识的累积,每个人的生存与幸福就会更加依赖社会。
社会对每个人的贡献,必然给每个人带来无尽的快感(有意识的和无意识的),这也必然造成人类不同于其它动物,不仅具有利己本能,还具有利他本能。人性是利己与利他两个本能的依存、对立与统一,且正向着利他逐渐增多利己逐渐减少的方向发展的人类特性。著名心理学家马斯洛在上世纪中期,对人类具有五层渐进需要的发现就是证据,这一理论现已得到社会各界的广泛认同与应用。
从高度抽象的意义上来说,每个人就是一个人体物质与实践感受决定的惯性体,思维与言行的惯性体。情感记忆是人的惯性之载体,人的惯性只能来自对无数实践的感受,每个人从小到大所经历的实践不同,造成了每个人独特的个性。
每个人从出生前后开始的感受累积起来,造就了人的素质。素质是人从小到大一点一滴日积月累形成的,素质实质上就是人的惯性。按照可培育性,人的素质可分为:性情、能力和行为习惯。人的性情可再分为情感、欲望和性格三个方面,人的能力又可分为根本能力和组合能力。性情以中庸为好,能力越强越好,行为习惯合理才好。无论人类情感有多丰富,仍可归为快感和痛感两大类。在人的一生中,性情是方向,能力是速度,行为习惯是跑鞋,方向比速度更重要,速度比跑鞋更重要。
人的素质形成于人的一生之中,尤其是在婴幼儿时期。人的性情的形成与根本能力的发展相辅相成。人的情感、欲望和大部分根本能力在一岁前初步形成,还有一小部分根本能力在3--5岁前初步形成,逻辑的能力要到7岁才能初步形成,人的性格在3岁左右初步形成,人的组合能力形成比较晚,且因人而异。人的行为习惯通常是可以学习,可以改变的,同时也是难以改变的,越老越难以改变。
人的看、听、嗅、尝或触是人类进化形成的人体物质的特性;感知、联想与记忆不仅单纯是物质的特性,更是添加了个人以情感为价值标准的对比过程;感知与记忆是无意识的情感思维,联想(心理学概念)是可意识到的理智思维;情感强度则是情感思维进行判断的价值尺度,情感价值观是人体物质在长期实践中感受与积累的结果;观念是理智思维的价值标准,理智(理论)价值观是人经过实践、思考和认识的结果。
在遇到任何事物时,人的思想的出发点和思维方向(分析哲学称为意向性)都是由其情感决定的,他的理智推理或逻辑能力只能保证其思维是沿着直线在深入行进,而不是在兜圈子。在人的判断中起决定作用或可以驱动言行的,是人的情感价值观,理智的价值观只有经过不断影响或强烈地冲击,才能转变成情感的价值观,才能驱动人的言行。
人们经常会发生言不由衷,或行不由衷的状况,就是理智向左情感向右,所导致的情况,你明明想的是要向左走,结果人却向右转了,这就是因为你能意识到的是理智思维,而情感思维是意识不到的,可是最终指导言行的是隐性的情感思维,而不是显性的理智思维。人的价值观是有层次的,越是底层的决定性越强。人与人之间的不同,不仅发生在同层次上价值的分量不同,更是发生在他们价值的不同层次上。
人经过显性理智思维产生的结果,可能会形成理智的价值观,这个理智的价值观可能与原有情感价值观相一致,此时理智会加强情感;理智的价值观也可能与原有情感价值观相矛盾,此时理智会影响或冲击情感。影响或冲击的强烈程度,仍然是由情感思维感受到的情感强度决定的。影响越多或冲击越强,感受越深。足够多的影响或足够强的冲击,才可以颠覆从前已有的情感价值观。
三、应该如何参考人类思维
人类的思想受到情感的支撑与支配,人类的情感发自愿望是否得到实现,人类的愿望来自或消失在人类本能实现或失败后产生的快感或痛感。人的利己本能,源于动物的饥、渴、性三个原始愿望得以满足后产生的快感。人的利他本能,源于人的社会性。愿望是情感的固化,情感代表了愿望,更是愿望可否实现的标志。人在愿望成败时所感受到的情感强度,是人类判断的价值尺度。人类的情感与愿望自幼相互作用的结果,形成了成人情感与愿望的体系,也就是人的价值体系,这个体系的基础部分就是人最基本的情感价值观。
人类独有理智思维,理智思维对情感思维有影响,理论价值观对情感价值观也有影响,但是,每个人的情感思维各不相同,理智思维对情感思维影响的情况差异很大,人与人之间的价值观差异也很大。
前面讲的阿尔法狗,只是用于下围棋这个单一任务的智能工具,它遵循的围棋规则,是古人早已制定好了的规则,无论是人下围棋还是机器下围棋,都只能按照早已规定好的围棋规则进行比赛,也就是说围棋的规则现在不会按照人的意愿改变。对于任何围棋对弈来说,可以认为围棋规则是一个人和机器都须遵守的客观存在,在这种情况下,因为机器的计算速度远超人类,机器只需按照理智逻辑持续学习,就必定战胜人类。
类似于阿尔法狗,如果人工智能只用于完成,任何可由客观标准来衡量成败的单一或复杂任务,此时的人工智能只需要理智思维,几乎无需任何情感的因素夹杂其中,就能顺利完成任务。不过,这里还有一个隐性的潜在前提,那就是最初输入计算机的基础判断依据是正确的。
在围棋比赛中规则很简单很容易抽取,但在其它一些更加复杂的事物中,规则本身就已经很难得到正确的抽取。规则是由人抽取的,人的思想取决于出思想的发点、角度和逻辑,前两者是由人的情感思维决定的,只有逻辑是理智思维。
每个人的情感思维是不同的,有的人更接近真实,有的人会偏离真实,还有人会背离真实。由这三种人抽取的规则,分别输入计算机后,经过人工智能的深入学习后,获得的结果显然是不同的。
现实中的问题是,三种人中谁都认为自己是对的,别人不对,否则他也就不坚持了。该听谁的?如果把三种人抽取的规则分别输入计算机,经过人工智能的计算后,对比三种结果,有些问题一目了然可辨对错,有些问题模棱两可,还有些问题真假更加难辨。这一点对于越复杂的问题就越严重。
到底该听谁的?这又是一个千年未解的哲学难题,民主显然是不可取的,科学本身就是对民主的否定。实践是检验真理的唯一标准,但是,有很多实践须要花费很长时间,有些甚至要花几百上千年。比如现在的哲学已经两千多年了,古人提出的根本问题仍然还是问题。
更有甚者,如果人工智能的机器人需要与人打交道,比如它的任务是做家庭服务,这时评价它服务好坏的标准,是它对人的意愿满足的程度,那它就必须理解人类的思维,此时的问题就会更加复杂很多了。
例如人问机器:“我长得漂亮吗”?如果按照理智的逻辑,机器只要分析那人长相的客观情况,然后依据既定标准据实回答就好了。但是,实际并不那么简单,此时提问之人的内心,可能含有想被恭维的成分。如果此人长相中下,机器据实回答,对方一定很不满意。不仅于此,即使提问者没有想被恭维的意思,那还可能存在此人是否真的可以接受真实回答的情况,诸如此类的情况不一而终。机器若要回答的漂亮,就必须理解此人的内心所想,这类机器人就必须具备情感思维,才有可能理解人类。
人类感受到的情感强度就是人的价值尺度,就是在自己价值观指导下的,事物对于自己的价值,就是此事物对自己愿望(需要、意志)满足的程度。中国人把人的欲望分六欲:求生、求知、求美、求友、求表、求控。
1、求生:饮、食、衣、住、行、性、健、安;2、求知:好奇、兴趣;3、求美:音、形、色、香、味、舒适、整洁、美好;4、求友:友好、归属、认可;5、求表:表达、表现、赞赏、反对;6、求控:独立、控制、权利、胜过、征服。
但是,机器没有人没有那么多的需要,它只要被充满电,就可以持续的“活着”了。如此就需要人事先在机器人内预置一些模仿人类的基本愿望,诸如防卫、自尊或交流、尊重之类,并对各类愿望进行层级排列。因为它若没有这些类人的“自我”,它会被人们置于被鄙视的环境之中,它的深度学习也就有问题了。
智能机器人之愿望的底层,必然是利己与利他本能的设计。它的利他比例不该高出人类太多,不然就不能理解人类;但更万万不可低于人类,那将祸害无穷。智能机器人之情感应该是一个机制,应该以本能及愿望的实现与否来设计,至少包括快感与痛感,情感强度以愿望实现或失败后对它自己和对他人的意义的大小来设计。更困难的是人类不仅有轻重之分,还有缓急之变。愿望层级或可模仿马斯洛描写的人的需要层级设置,缓急或可按照理智逻辑来推定了。
智能机器人还有个学习环境的问题。具备围棋规则的AlphaGoZero几乎从零开始左右互搏,很快就可以成为围棋高手,是因为它们可以一局接一局不停地左右互搏。强智能机器人好像没有AlphaGo Zero这样的成长环境,它们的成熟,首先需要学习很多人类的知识,例如词义、褒贬或语气等等,很多很多。
人类的儿童是在家长和老师长达十多年的日夜陪护下,才逐渐获得了成熟必备的知识。就算有了第一台人们比较满意的智能机器人后,其它机器人可以复制第一台,那么在此之前,也至少要有个使第一台得以成熟起来的,类似人类儿童成长的学习环境。
四、余论
人工智能是一柄双刃剑,用得好有利于人类发展,用得不好亦可以毁灭人类。如果能造出抱有善意的家庭服务机器人,那是亿万难以自理的老年人的天大福音。如果人工智能用于杀人武器,人类自我残杀的凶残程度必将大幅提升。令人痛心疾首的是,如今利好还没看到太多踪影,噩耗就已经不期而至了。更加悲催的是,智能武器一旦出世,就没人敢不跟进,不跟就是坐以待毙。潘多拉魔盒已被罪恶之手打开,人类已被这恶魔逼迫,跳入了这个恶性循环。人类何以自救?
参考文献:
[1] https://www.sohu.com/a/204141164_100020967
[2]布鲁斯.H.利普顿,信念的力量,2011年中文版,中国城市出版社,北京,2011
[3] 王生智,重识哲学,研究出版社,北京,2019
更多推荐
所有评论(0)