人工智能到底能不能拥有人的意识,为何我们不

看这部剧完全是因为喜欢听片头曲! 想起了X档案. 一口气便看完了第一季8集.

**转自微信号/我们都爱黑科技**

昨晚看了S510,今天还处在一种奇异的躁动里。随便写几句。

本来不想过早的来讨论这个话题,因为看的越多越觉得个人知识面的浅薄。

科幻剧,AI剧,不必计较细节和逻辑. 本来要好多要吐糟(比如: Synth的代码就是满屏乱码 win98里那个屏保的特效? 能不能做的专业点啊..遗留conscious代码就是一颗大树?都是机器了还需要硬盘去copy?), 想想算了.本来就是科幻. 能打发时间,引人思考也就足够了. 以前就常常思考未来要是真有人工智能的时候,我们将如何面对. 边看剧也边能想想.

这部剧有NB的出品:

因为著名的百合CP追的剧,结果最吸引我的是这个故事的架构。作为渺小的个体,地铁小分队的情感,他们的个人信仰和选择与一个巨大的隐隐然可见又不可见的AI末日撞击,从而走向各自的悲剧的命运。这是触动我的。拨开花哨的外表,POI始终在探讨的是各种哲学命题。人是什么,AI是什么,自由意志是什么,善恶是什么,个体存在的价值和意义是什么,人类未来的命运会是什么。越到最后,这些问题的声音越清晰。

想了想,还是发出来吧,让我们面向不可知的未来可以了解的更多一些。

英国腔的美剧还是挺有意思的,忍不住想学两句那个腔调. 故事还是美剧的特色, 总是一波三折,总是有一两个特别二百五的主人公. 总是有优柔寡断的奇怪boss. 就是要你欲罢不能的继续看,厕所都不能上!

由出品过《广告狂人》、《绝命毒师》、《谋杀》、《行尸走肉》等名剧的AMC与出品过《乌托邦》、《黑镜》 的BBC Channel4合作。

Root死了,但是她大脑的全部信息和反应模式被机器宝宝保存了下来,是不是可以说Root其实还活着。哪怕她只拥有她的声音。如果这样不算的话,假设将来机器宝宝可以重造她的身体,植入她的记忆数据,是不是也可以说Root因此复活了。其实哲学上有好几个著名的悖论是关于这个说法的讨论。所以Root在这一集对宅总提到Cater和其他死去的同伴时说:I mean they are dead but they are not really gone. They are with the machine now. (大意是这样,词句可能有出入。)从这个角度说,Root获得了永生并不是编剧的安慰之词。(所以理论上如果有电视台愿意接下这部剧继续拍,根妹还是可以再活过来的。)

这是一篇关于宇宙的命运,人类的命运以及机器人的命运的有限论据科普文。

另外, 总算有剧里不是Macbook了,太多看腻了. 换换微软的也好.

这部剧有先锋的设定:

理解超级AI的人把它称作人类的最后一项发明,最后一个挑战。因为一旦超级AI出现,人类很可能将面临两种完全相反的结局,永生或者灭绝。关于这个观点的详细解释,推荐去看wait but why 网上的一篇文章“The AI Revolution: Our Immortality or Extinction”。这是一篇有点儿惊悚但很有启发意义的文章。读过之后,你就不会对宅总的偏执感到不能理解了。宅总对机器宝宝的观点与当前AI科学家里的一种主流观点是一致的,这也是比尔盖茨、霍金、马斯克所持的观点:超级AI是一个新物种,它在所有领域都比人类强很多很多很多个数量级,我们无法预测和抵挡一旦松绑它对人类可能产生的后果。马斯克在表示他们的担忧时说人类可能只是一个数字超级智能的生物加载器罢了。 就好像单细胞生物向多细胞生物转化的时候那样,还是阿米巴虫的我们没有办法知道我们究竟在创造什么鬼。所以也有可能POI的最终结局也许毁灭人类的并不是小撒,而是宅总开放系统机器宝宝反转。

全文有点长,建议仔细阅读,懒得看得可以看黑体字及结尾。

Leo作为半人半机器, 感觉演的并不是特别到位, 比较像个落魄酒吧服务生 期望中这个角色应当充满了冲突,应该是个高智商的领导者.

不仅关注人工智能,而且更进一步,关注的是当人工智能机器人与人类思维无异时,他们是否应该被给予“人权”、“尊严”。

再说回S510,Root不是不能死。在地铁5人小分队很可能被团灭来成全整个故事的宏旨的背景下,Root的死不能说是多么出乎意料。但是作为这部剧里最最重要的角色之一,后期代表了机器的另一种声音与宅总几乎分庭抗礼的根妹就这么莫名其妙的便当了实在是太不值得太轻率了。这种节奏这种方式我表示很难接受啊。

全文用AI指代人工智能。

Anita/Mia其实不错,第一次注意到了Gemma Chen这位华裔演员,开始真的比较像个Machine. 这个最'人性'的机器在剧里还是有血有肉的.

图片 1

当然,还有3集才能盖棺,现在定论并不公平。期待最终结局的到来。相信诺兰们不会让这个故事烂尾,毕竟他们才是它的创造者。

一、生命的源起

Niska最后换硬盘已经超出了她的能力了吧,她阅读了三十六计了吧. 但不得不说, 她是最好看的.

在《真实的人类》这部剧中,在都市中服务于人类的Synth(剧中人工智能机器人的统称)可以作为警察协助人类办案,也可以像保姆一样,服务人类家庭的生活起居,但还未能达到人类级别的智能。

多说一句,个人觉得POI是一部篇幅被严重损耗了的剧集,大量的时间被浪费在没有太多意义的单元故事里。假设编剧们不是戴着CBS的镣铐跳舞,从第一季就开始集中火力讲这个AI的故事,现在呈现出来的将会是一个怎样更加完整和复杂的结局啊。

现在世人对AI的争议,基本上有两个方面。

Laura最为一位Lawyer和母亲,这个人物其实很可爱啊. 但老外的思想还是不能理解, Brother Tom怎么就不能说了,导致了那么多误会.

剧中的普通Synth们并不像人类一样具有自我意识,简单来说就是不具备人类的情感和逻辑,它们更像是机器,以执行人类命令为天职。

第一,AI到底什么时候才能达到人的智能水平,乃至于超越人类。所谓“达到人的智能水平”,指的是AI具备了“通用”的智能,

Joe这个典型的就是编剧造出来的,让你咬牙叫骂的角色. 从第一步买个female Synth就是个错,然后每一集里各种犯二. 演员感觉演的还行.

除了普通的Synth,其实世间还有六个高等Synth,由David教授创造。David教授忙于工作,疏于对儿子Leo的照顾于是制造了4个拥有自我意识,思维和人类无异的高等Synth。后来Leo被其患有精神病的母亲Beatrice杀死,后者随后自杀,痛苦的David教授又如法炮制了Beatrice的人工智能机器人Karen,并将自己的儿子Leo的记忆从大脑中提取出来存入芯片,将Leo做成了半人半机器。

叫做“AGI(artificial general intelligence)”,而不是现在会下棋的AI,它们还听不懂你讲的笑话。

Odi和Dr. George, 这一对真是算是正常没啥可以说的了,还是很温馨的.
Vera怎么有种容嬷嬷感~~~

后来,政府发现了这六个高等Synth的存在。Ta们只有隐藏于人世间,用其他身份掩饰真正的自己,以防人类的抓捕。

对此,世界上有不同看法,比如《奇点临近》作者库兹韦尔认为AGI很快就能实现,“奇点”即将来临。但中国的AI专家吴恩达表示:“你们现在担心AI能有多厉害,就相当于担心火星上人口过剩的问题。”

其他人物没啥想评论的...

当人工智能足够智慧时,应被归为人类还是工具?

第二,AI对人类来说,到底是好事儿还是坏事儿?我个人觉得是好事,因为他可以从根本上解决现有社会运行的效率问题。


图片 2

但也不可否认AI可能会给人类带来威胁。

(以下纯属引发的胡思乱想,绝对没用,也不要定性归类了...)
也许需要”思维”的东西都需要液体维持吧, 人类的大脑充满的血液, 高频的CPU需要液体冷却, Synth也有蓝色的电解液呢. 似乎地球有一片大海, 他也在思考吧.

剧中数个情节都对这个问题进行了讨论。其中,人类家庭中的丈夫Joe与自家人工智能Synth发生了性关系,妻子Laura发现后与其进行了激烈的争吵。Joe认为Synth不过是个工具,甚至可以算作一个性玩具,自己的行为不算出轨。而Laura认为悉心照顾他们的孩子、帮助他们料理生活的Synth早已是家中一员。

泰格马克的一本书《生命3.0》看待AI的视角是大局观和“第一性原理”。本文绝大部分的观点来自于得到万维钢对这本书的解读。

要讨论智慧的生命, 总是要讨论心物关系(Mind & Body), 究竟二者是什么关系? 西方讨论了几个世纪,在宗教中也争论灵魂与躯体的关系.柏拉图认为存在理性世界与现实世界.笛卡尔提出了心物二元论.唯心与唯物的争论其实没有停歇.有时候还会有个折中的理论出来,甚至区划了这个世界版图.

机器人是否真正活过?

从大局观来讲,考虑到AI的存在,把“生命”分成了三类。

我们很难知道自己究竟是谁,是什么定义了”我”. 是每个人的护照或者身份证吗? 是我们长久以来的记忆诠释定义了”我”,还是我们的感官外貌决定了我们是不同的个体,亦或者是某些不属于记忆的身体条件反射决定了我们的身份? 试想想假如我们可以移植记忆,或者更换器官,或者易容, 我们的身份是否还存在? 你能容忍自己换一个身体么,假如失忆了我还存在么.人类自身难以理解情感与意识, 也许与每个人不同的复杂记忆不可分割.

剧中六个高级Synth都提过“活着”的问题,他们无法体会死亡,同时也不能体会活着。就像剧中George博士对高级Synth Niska说的,“如果你不惧死亡,那么你没有真正地活过,你只是存在着而已。”

这里对生命的定义,从信息的角度出发:生命,就是可以自我复制的信息处理系统。其中的“信息”包括个体硬件复制的蓝图,以及个体行为的模式。一个生命体包括“硬件”和“软件”:硬件就是它的身体,软件就是信息。

我们担心着创造出了可以取代人类的AI,甚至回违反阿西莫夫法则的AI, 当AI能够学习繁衍,突破那个奇点, 最终取代人类
.
为何我们自己不是一种”什么”创造的出来的AI呢? 人类生命的形式与这颗星球上的其他物种其实差异太大了.如果自然的演化创造了我们, 那我们的演化是否会创造出什么新的?

图片 3

生命1.0,达尔文进化论的标准理论,这类生命是靠演化来进行更新迭代,完全遵循自然选择的结果。基本上除人以外的所有

以一个AI的视角, AI的感知无非是对照查字典,提供词条解释. 若是人类创造他们的时候没有定义情感与知觉,在他们的系统中是永远不会理解的. “I don’t understand your question.” 以此类推,那么是不是也有什么从未在我们人类系统中定义过的概念呢? 我们如何能理解和知道从未定义过的概念呢. 似乎长久以来, 我们认知和记录世界的唯一指标就是”时间”.时间创造了历史,记录了繁衍, 时间定义了宇宙发展和物理运动. 这是存在于我们的认知系统中的.我们对于物质的存在和空间的解析都离不开时间,光速. 我们依旧热衷讨论时间空间的穿梭,渴望要揭开这个宇宙的谜底.

剧中另一个桥段,当高级Synth Max打算跳河拒绝人类的捕获前,他的伙伴Leo劝他不要跳,说跳了之后就真的死了。Max的回答却是,“死了也好,这样至少证明我活过。”

生物都如此。

如果,如果时间从未存在过呢? 一切都坍塌了. 也许宇宙从来都是汇集于一点的一个某种”信息”, 人类无非是根据编写在我们中的根程序(root code)来体验一种叫做”时间”的幻觉.

这是否代表,高级人工智能也会拷问自己“生命”的意义,同时生命的生死必然规律是否是机器人追求的呢?

生命2.0,硬件系统依赖自然演化,一部分软件系统可以直接设计。这就是人类的特点,因为人是可以学习的。人的一个重要的

但这并不意味之一切都是提前注定的,也不意味着是我们是由什么支配的. 也许在这种幻觉中, 物质与生命在互相巧妙的作用,改变着这种奇妙的历程, 于是在我们的感知中,出现了历史与未来.伏羲古老的占卜术中,为了了解变化,创造了易. 也许最淳朴的东西最容易理解和解释自然. 易从未明确未来, 而是反应自然的变化, 也许我们真的与这星球上的一草一木一山一石都是在另一个空间中紧密相连的.

什么都会的机器人还有乐趣么?

特性是可以随时并主动的适应新环境。

为何我们不能是另一种被创造的AI,我们已经发展到了可以自我学习,创造,繁衍,纠错. 发展了我们希望出现下一代AI来弥补我们的不足. 这是一个奇妙的循环.

图片 4

生命3.0,硬件系统和软件都可以自己设计。根据本书对生命的定义,如果一个AI系统会自己复制自己的下一代,那就可以认为它

通过剧情展开的前面两个问题的讨论,似乎都已经将人工智能机器人置于人类的高度在思考问题。那么,那么前者是否会有人类的七情六欲呢?

是有生命的。如果这个AI还具有自己学习新东西的能力,而且还能升级硬件,它就是生命3.0.

剧中有个情节是高级Synth之一的Fred与人类家庭的小孩儿Toby踢球,Toby的父亲Joe对Fred说,“我们跟身为机器人踢球,对我们太不公平了,你可以踢得完美。”而Fred却说,“我们的‘父亲’认为我们应该跟人类一样学习这些,这是乐趣,所以在制造最初并没有将这个技能编程进去,我跟你们一样,是后天学会的踢球。”

将来,如果AI具备了人的全部智能,而且还可以自己设计下一代,一代一代的强化升级,将会是什么局面?哪些3.0的生命看我们,

人类问题是否也该被再次思考?

是不是跟现在我们看1.0的动物一样?

种族问题

生命3.0的AI如果出现,那将是人类最后一个发明。从此之后,发明创造可能就用不着我们了。

除了Beatrice和Leo,其他四个Synth的肤色都是由他们的“父亲”David教授随机选择的。剧中的四个Synth向别人讲述这种安排时,颇为骄傲。这也是电视剧试图向观众传达的一种种族平等的信号。

这里对智能有一个比较笼统的定义:智能就是完成一个复杂目的的能力。

性别问题

从“第一性原理”出发,想要实现智能,AI大概只需要三种能力:存储能力、计算,和自我学习。

剧中有一水儿的机器人妓女,没有人类妓女,无论是出于道德还是运营成本考量,都可以看出人类普遍视Synth为工具多于“人类”。同时,剧集再次将性别平等的问题抛了出来,女性是否在人类(尤其是男性)心中任然有工具性的一面。

存储能力,人的大脑以生物方式存储的总容量为10TB。神经元电信号的形式存储的信息容量大约有10GB,用来做快速读写。

图片 5

对今天的计算机来说,100TB的硬盘和10GB的内存不算问题。不同于计算机存储按地址索引,人的存储方式是神经网络,

人类的工作机会

先想到大概内容,然后一点一点回忆相关的细节。存储对于计算机来说没问题。

这个是人类将机器用于生产那天开始便出现的老生常谈。像剧中演绎的那样,普通大众并不关心机器人是否用该拥有“人权”,机器人开心不开心更是一个不合法命题。在普通人心中自己有没有饭碗才最重要。

计算能力,至今,计算机的概念始于阿兰图灵的“图灵机”。凡是能用算法说清楚的问题,都可以用计算机实现。几十年来所有的

当部分人类的能力低于机器人时,“高等”人类好像瞬间进入了上帝角色,选择了机器人取代低效的人类。资本至上,也是情有可原。但机器人的发明是为了解放人类劳动力,替人类创造价值让人类坐享其成,还是取代人类成为社会的主力军呢?

技术进步仅仅是让存储能力更强,运算速度更快而已。

图片 6

学习能力,近年来出现人工智能的大跃进,归功于“深度学习”的技术进步,改良自“神经网络”算法,借助图灵机模拟神经网络。

人脑学习新技能,发生在神经元层面,反复练习一个动作而精彩被一起触发的神经元,最后会形成一个网络结构,相当于一个技能长在人的大脑里。

图灵机则是模拟最简单的神经网络反复训练,每次只要反馈正确就增加相关连接的全中,足够多的时间后,就能够做成任何事情。

泰格马克认为,神经网络算法所能解决的“那些简单方程,就已经足够对付真实世界了——因为描写真实世界的物理定律也都是简单方程”。

也许图灵机和神经网络算法不能完全取代人脑,但是对于真实世界需要的智能来说,它们可能就已经够用了。

至此,我们把存储、计算和学习三点综合来看,会发现所有的底层原理都是逻辑意义上的。也就是说,这些原理跟把信息存储于什么介质中、用什么东西来计算无关。AI的硬件,可以随便升级。这就是生命3.0。

二、生命3.0的使命

美国有句俚语“Sky is the limit”,翻译成中文大概是说:“只有天空是尽头”。

如果考虑到超级AI的存在,那天空根本就不是尽头。物理学的限制,才是尽头。

真实世界并不一定是美好的,你未必会喜欢未来的样子。不信,我们一起来看一个思想实验:展望一下AI背景下的人类文明。

AI听命于人类:AI驾驶汽车和AI参与医疗这些技术现在已经几乎成熟了,主要的问题是解决可靠性。

有人估计,如果把路面上所有汽车都交给AI开,交通事故至少能下降90%。但问题就在于剩下的10%算谁的?

如果法律交给AI来评判,则又会带来新的道德困境。比如说黑人的犯罪率更高,AI主导是否会引起系统性的种族歧视。

AI与人类共治天下:不给AI主导权也许很难。只要AI有了足够的能力,以它比人类聪明得多的智能,就会使用自己的办法摆脱人类的控制。

哪怕人类像阿米什人那样企图封存技术也不可能,除非已经先有一个统一了全世界的强权,否则越是弱小的权利机构,越有可能把灵魂卖给AI,换取自身的强大。

AI主导人类文明:如果AI全面超越了人类。人类是否还要必要存在?人是个效率很低的生物。爱因斯坦的质能方程:E=mc^2来计算,人类吃糖获得的能量消耗效率相当于:0.00000001%。烧煤的效率相当于吃糖的三倍。汽油相当于吃糖的五倍。如果使用裂变反应核能,效率则为0.08%。核聚变,效率达到0.7%。如果将来AI能做到用黑洞发电,根据物理学理论,效率可以达到20%,甚至90%。

物理学家弗里曼戴森设想过一个叫做“戴森球”的系统,告诉我们将来AI如何利用太阳能。

图片 7

戴森球模型

图片 8

太阳能利用

AI会先考虑把木星拆了获取资源,在外层空间造一个巨大的球体,把太阳整个给包围起来。然后人类文明就可以生活在这里,完全不用担心面积问题。所有的太阳光一点都不会浪费,事实上,只要球体足够大,阳光并不会很刺眼,球的内测永远都是白天,想看星空的话,可以去球的外侧看。

达到这一步后,AI的征程将是星辰宇宙,AI可以带着人类的DNA信息,用20年的时间飞到十光年外(物理学设想的激光推进飞船,理论上会到光速的一半)的星球,用DNA信息现场组装人类,然后再出发。

那样的话,地球文明几乎就是以光速去殖民宇宙,文明扩散的唯一限制是暗能量导致的宇宙膨胀。

这一切可能都跟人类无关了。如果AI主导一切,人的位置在哪里?人存在的意义在哪里?

如果我们不想被AI代表,就想老老实实在地球过日子。但有些日子不是你想过就能过的,你会遇到各种灾难的挑战。

100年之内,迫在眉睫的灾难就是核战争。1000年之内,地球很可能会出现灾难性环境。10000年范围内,很有可能遭遇小行星的撞击,把地球文明毁灭一半。十万年内,很有可能遭遇超级火山的爆发,也会毁灭一半的地球文明。在一百万年或一千万年的尺度上,很有可能遭遇一次巨大的小行星的撞击,毁灭整个地球。就算人类躲过了这些,太阳的寿命也是有限的,十亿年后,太阳会变的特别热;一百亿年之后,太阳会变成红巨星,膨胀到把地球淹没。

没有AI,人类文明不会有未来。把未来交给AI,也许文明的寿命可以和宇宙相等。只不过到时候还是“人类”文明吗?

AI愿意去做这一切吗?AI会不会有独立的意志,还会不会在乎人类文明?

三、生命3.0的愿景

我们人类为了到达目标,可以通过拥有的独立意识,不断的调整自己到达目标。通常情况下,我们认为只有生物才有目标,无生命的东西没有目标。

从物理学的视角来看,每个物理过程都是为了达成某种目标。比如物理学“费马原理”,不管是反射还是折射,光在两点之间走的那个路径,恰恰是所有路径之中用时最短的那一条。因此可以解释一束光从空气射入水中会发生一次折射,是因为光在空气中的速度更快。光的目标就是用最短时间从这一点到达另一点。

光在此时是没有意识的,它根本不知道自己想要什么。意识是一个东西的主观体验,外在只能根据它的行动判断它有没有目标。根据行动,我们完全可以认为光是有目标的。在物理学的定义中,所有的物理定律都可以用这种“目标论”表述:真实发生的物理过程总是在“优化”某个量,也就是总是为了把一个什么物理量最大化或者最小化。

在这种宏观的视角下,泰格马克认为,宇宙的首要目标来自热力学第二定律,就是把“熵”最大化。

熵是一个物理概念,通俗来理解可以认为它描写的是一个体系的“混乱”程度。简单表述的概念就是:整齐有序就是低熵,杂乱无章就是高熵。

图片 9

整齐有序的是低熵

图片 10

哪边是低熵?

热力学第二定律说,封闭系统的熵总是增加。从这个视角来看,宇宙的秩序总是在减少,混乱总是在增加。一直到最后,所有的秩序都会变成混乱,到处温度都一样,再也没有什么值得流动的了,整个宇宙就寂静了,也就是所谓的“热寂”。

有一个问题是,宇宙刚刚开始的时候,各处都是一锅粥,那现在的宇宙为什么多姿多彩?这是因为有引力。

引力总是把东西聚焦起来,正因如此,宇宙中才会有恒星和行星,恒星发光发热,也就是我们眼中看到的宇宙中美丽的秩序。

我们不禁会问:引力是否让熵减少了?

事实是引力仍然让熵增加。当我们计算系统的总熵的时候,不能光看物质的排列是不是有序,还得考虑能量。一堆物质因为有引力的吸引而聚在一起,这个过程中它们的动能会增加,动能转化为热量向周围散发,考虑到热量的散发,总的熵是在增加。

引力只会让热寂来的更快,但也恰恰因为有引力,我们在通往热寂这条路变的更有趣了。这就是宇宙的次要目标:它有时候喜欢在局部制造一些有序的结构。这里的关键词是“局部”,局部更有序、局部的熵减少了,可是整体的熵仍然在增加。所以宇宙的次要目标和首要目标并不矛盾,次要目标就是为了加速完成首要目标。

宇宙的这种在混乱中自动产生局部的秩序的过程,叫做“自组织”。

2013年,麻省理工学院一个当时只有31岁的教授杰里米英格兰提出一个非常厉害的理论,叫做“耗散驱动的适应(dissipation-driven adaptation)”。

基本原理就是:如果有一群原子是被某个外部能有驱动的,那么这些原子就会逐渐组织起来,形成某种结构,而这个结构能够最大响度地吸收和消耗能量。

生命就是这么一种自组织的原子集合。生命体非常有秩序,从周围获得能量,同时又把能量消耗。只要环境合适,生命的出现几乎是不可避免的。

生命的存在代表秩序,但并没有违反宇宙“制造混乱”的首要目标。1944年,物理学家薛定谔在《生命是什么》里解释:生命的确减少了自己的熵,但是它这么做的时候一直在加剧增加周围环境的熵。你做的每一个动作,都在让整个宇宙的熵进一步增加。因为你的存在,虽然宇宙的局部增加了秩序,但是整体来说是加剧了混乱。

中国古人爱说“天道”。如果真的有天道,物理学角度总结的宇宙的目标,就是天道。这时,我们常常会讲的“顺应天道”,其实是不符合天道的。我们讨厌混乱,可混乱是宇宙的首要目标。我们喜欢秩序,可秩序只能进一步加剧混乱。

人生充满矛盾,而AI的矛盾也许更大。

产生生命是宇宙的小目标,生命让自己跟有序,客观上就能让宇宙更无序。但是每个生命都有制造混乱的本能,但是一个生命体制造混乱的力量太小了。所以生命体有一个本质功能:复制。也可以叫繁殖。

生命的繁殖是一个具有正反馈特点的功能:越是愿意繁殖的生命,他留下的后代就越多,而他的后代也会愿意繁殖,最后结果是所有的生命都把繁殖当成第一要务。繁殖这个目的,被演化以编码的形式写在了每个生命的基因之中。

人类毕竟是有自主选择权的生物,并没有义务按照生命1.0的原始设定做事。人类在为了繁殖为目标的演化过程中产生了一个功能,叫做“感情”。满足自己感情的需求,就成了我们在繁殖这个首要目标之外的次要目标。

所以,就连我们人类也常常“违背初心”,不知道人生的大目标是什么,那么如何能让AI知道呢?

也许你会说,我们可以给AI一个明确的目标。那么,问题在于,等到AI发展壮大之后,它会不会“创造性地”完成你的任务。

有人设想过一个可怕的情景。比如说,你告诉AI,计算圆周率,结果越精确越好。你说完这句话就不管了,结果AI居然劫持了整个人类,造了一个非常厉害的系统,把整个太阳系变成超级计算机…就是为了计算圆周率。而这只不过因为圆周率是个不管你调动多少资源都算不完的“超越数”!

泰格马克这本书中有一个关键问题就是:如果人的初心都可以被忘记的话,你怎么能确保AI不忘初心呢?

泰格马克的答案是跟人类一样,也许“初心”对特别高级的AI来说根本不重要。人的首要目标本来是繁殖,后来为了完成首要目标,我们有了各种次要目标,表现为各种感情,结果人就转为专门追求哪些感情了。也许你可以给AI设定任何首要目标,而为了完成首要目标,AI必然要变大变强,那么变大变强就成了AI的次要目标。

不管为了完成什么首要目标,AI的次要目标基本很明确的都会有四个需求:自我保护、获取资源、获取信息、满足好奇心。

有人说,我们应该给AI编写一套道德准则。但泰格马克对此不以为然:要知道连人类自己都不知道什么样的道德定律是完美的。

AI真的能产生意识吗?

我们先回归到“意识”这个问题本身。这是当今无数最聪明的人最想搞清楚的问题,也是科学家解决不了、哲学家反复思考、各路牛人一直在吵的问题。

万维钢老师结合泰格马克的《生命3.0》这本书,介绍了一些关于“意识”的最新认识,让你理解现在学术界对“意识”都认识到了什么程度。

我们想象一辆自动驾驶的汽车。这辆车接受外界信息,处理信息,用各种复杂的算法对下一步行动作出决策,它的确会思考。但这是意识吗?我认为不是。你上车了,它毫无感觉。把你送到地方,任务完成了,它也不会高兴。没油了,不会觉得饿。遇见危险,也不会害怕。它只是一台机器,跟玩具汽车没油本质区别,只是多了点智能而已。

那么我们跟机器的区别到底在哪里?显然我们有感情。我们去找东西吃,是因为我们感受到了“饿”。我们如果遇到危险,不单知道避让,而且还会产生“害怕”的感情。这些感情似乎起到了“思维快捷方式”的作用,之所以会饿,是因为感到难受。之所以会害怕,是因为害怕了才能学会避免风险。

感情无非也都是算法,不是吗?

赫拉利《未来简史》的时候说过,人也许并不需要感情算法。生物学家对人研究得越深,就越是觉得感情似乎是多余的东西。

人在绝大多数情况下的动作都是本能的反应,并不需要感情。比如你正在走路,一个足球向你头部高速飞来,你本能地就会躲开,整个动作是无意识的。这些本能反应就跟自动驾驶汽车一样的。人类完成可以像机器人一样生活,饿了就去吃饭,冷了就加件衣服,一切都是本能,不需要附带感情。

那么为什么饿了不但知道要去吃饭,还要感受到痛苦?这个痛苦的感觉,到底是个什么东西?

准确地说,我们所有的感情,乃至于不仅仅是“感情”,包括所有的“感觉”,都是对经历的各种事物的“主观的体验”。

这也是泰格马克在本书中对意识的定义:意识,就是主观体验。

哲学家对于意识的问题看的很通彻。

1929年,美国哲学家拉伦斯刘易斯提出一个概念,描写人类最基本的感受,叫做“感质”。也就是意识的最基本单位。

比如你看到一个简单的红色方块。也许你会想到鲜血,也许你会想到国旗,但总有一种红色是你从来都没有见过的,你无法跟任何文化符号练习,但是当你看到它时,你还是会有一种感觉,这种感情也许是喜欢,也许不是,但就是有一种感觉。对计算机而言,红色无法就是一个光学信号,编码一下就可以了。但对你来说,红色并不仅仅是一个光信号,他还有“感质”。

哲学家丹妮尔丹内特,说“感质”有四个特征:

1、不可言传。

2、感质是内在的。

3、感质是私人的。

4、可以直接意会。

想象一下假设有一个色盲症患者,他眼中的颜色都是各种灰色。你像他描述了红色的性质,他烂熟于心,知道红色代表的各种文化含义,他甚至能从眼中一大堆灰色中准确找到红色,但是他就是不知道红色到底是什么感觉!直到有一天,他的色盲症被治好了,他一下子看到了彩色的世界,这时不用你说任何话,他马上就感受到红色!

图片 11

假定是色盲眼中灰色的世界

图片 12

色盲症治疗好的那一刻

这就是意识。意识,是目前为止人和机器的一个本质区别。机器没有主观体验。意识,给了我们“自我”,给了我们“活着”的感觉。

所以,AI研究的最高级别问题,就是意识。

泰格马克把先我们关于意识的问题分为四级。

一、“简单”的问题:大脑是怎么处理信息的?大脑的智能到底如何工作?这些问题似乎可以用计算机原理解释。

二、“比较难”的问题:一个有意识的系统和无意识的系统,从物理学来说它们到底有什么区别?

三、“更难”的问题:物理性质是怎么决定感质的呢?

四、“特别特别难”的问题:为什么宇宙里面居然有意识的存在?

现在的科学家的确是非常不了解意识到底怎么回事,但确实有了一些进展。

首先,有意识的行为很少。人的大部分思维、动作和行为都是无意识的,有意识的只占极少数。人类的日常活动中,真正有意识的大概只有你说的话,而且很多遣词造句还都是不假思索的脱口而出。人的自动行为和有意识行为之间,并不存在一个明显的界限。一件事情,当你熟练了,就可以变成自动化无意识的了。

其次,意识到底存放在哪里?

下边这张图,如果你和正常人的思维一样的话,应该看到其中有五个点是凸起来的,三个点是凹进去的。好,现在请把这张图倒过来,这时候你再看,变成了三个点凸出来,五个点凹进去的。这种前后不一致,是因为这些点给你的感觉是一种主观的体验。因为我们平时的光源,都是在上方,所以你假设光线是从上往下照的,如果一个圆点上面比较亮,下边比较暗,你就会认为它是凸出来的。由此可见,凹凸不是你的眼睛看出来的,而是大脑意识处理的结果。像这种视觉错觉实验有很多。由此也证明了,眼睛只负责传递画面,真正负责解读画面的是大脑的意识。

图片 13

你可以倒过来看

使用这样的办法,科学家把很多区域都排除到了意识之外。人类的意识存在于我们的大脑中,但到底在大脑的哪个区域目前还没有明确答案。

意识的反应很慢。现在请你眨一下眼睛,从你接受指令到实施眨眼睛动作,至少需要1/4秒的时间。可是换一种方式,如果你的眼睛睁着,突然有飞虫往你的眼睛这边飞过来,你会用最快的速度把眼睛闭上,在你意识到飞虫之前,你已经眨眼了。由此得到,眼皮虽然没有意识,但它却有一个高度自动化的本能防御机制,眼皮是个智能的东西。

手也是这样。意识的反应会受到举例的影响,从腿上传递一个信号到大脑,比从眼角传递一个信号到大脑,就要慢许多,因为距离更远。声音信号的传递时间比视觉信号更快,因为我们解读一个视觉信息要花更多的时间。

如此说来,意识只存在于大脑深处的某个区域,而身体各部分都有自己的智能。换句话来说,人体并不是一整台计算机,而至少是很多台计算机的联网。

美国威斯康辛大学的神经学教授朱利奥托诺尼提出了“整体信息论(Integrated Information Theory,IIT)”。这是一个高度数学化的理论,号称能识别什么东西有意识。

按照这个理论,如果你能把一个系统分成几个模块,而几个模块之间并不怎么交流,那这个系统肯定是没有意识的。一个有意识的系统必定是一个不可分割的整体。

目前IIT理论已经有了实际应用,但还存在很大的争议。但假设你相信IIT是对的,可以明确的告诉你:当前的计算机架构永远无法产生意识。这是因为这种计算机架构的各个部分之间并没有多少全局的连接。

未来的AI也许会有意识,只要我们能发明合适的计算机架构。毕竟IIT只是对系统信息结构的要求,并不在意信息的介质,那AI就不一定非得像人脑那样有血有肉才有意识。

IIT给AI的意识能力,提出了一个限制。因为IIT要求信息高度整合,组成AI的各个部分之间要有很多横向的信息交流,而信息交流的速度受到光速的限制。这就意味着不管技术先进到什么程度,也不可能出现一个神级AI直接一统宇宙!因为信息传递太慢了。

是的,我们仍然不知道,AI到底能不能有意识。我们最好指望它有意识。而且因为AI能接收和处理的信息比人多得多,它会有比人丰富的多的体验。

泰格马克的《生命3.0》说完了。

泰格马克说,不是宇宙给了生命意义,而是我们这些有意识的生命给了这个宇宙意义。人类文明最坏的结局,就是要么人类灭亡,要么被没有意识的僵尸AI取代,留下一个空洞的、毫无意义的宇宙。

结尾借鉴万维钢老师的一段感悟:

所有效率最终归结于目的,

所有目的最终归结于价值观,

所有价值观最终归结于感情,

所有感情最终归结于意识。

有了意识,这个世界才有了好坏,才有了幸福,才有了意义。

本文由永利发布于影视影评,转载请注明出处:人工智能到底能不能拥有人的意识,为何我们不

您可能还会对下面的文章感兴趣: