第18章 间章一 致所有的,我所喜爱的大家都一封信(上)
很抱歉,不论是对于小姚,还是在这里的任何一位同事。在你们看到这封信时,想必,我已经离开了这个世界。我不奢望你们能原谅我,但,我想在此讲述一个故事,也许听完这些话,你们将对我今天的选择有一些其他的看法。
故事的主角是一个来自芬兰的小朋友,至于她的中文名字,嗯,我们就叫她“小爱”吧!他是一个不幸的孩子,因为她刚出生,就患上了一种最为独特的病,我们称之为“先天性盲视”。
由于这个孩子的先天性基因缺陷,视神经无法向【端脑】传递信息,而只能向【上丘】传递,这导致她虽然看得见物体,但是大脑皮层的意识层面无法“意识”到,在她的感觉中,世界是昏暗的。世界上绝大多数的“盲视”患者由于是后天损伤所导致的,所以,他们虽然“看不见”,也能根据“经验”说出眼前物品的名称,或者是正常规避障碍物。但这个小女孩由于是“先天性盲视”,没有所谓的“经验”帮忙,所以基本是表现出“完全致盲”的症状。
该说是幸运还是不幸呢,小女孩的父亲是这个国家在脑科领域最有威望的“a先生”。他通过自己的关系网最终成立了一个“有关治疗先天性盲视的可能性研究”项目组。而我,当初也受邀参与用于帮助“小爱”视神经的转换器编码。虽然知道这个项目多少带一点“私心”,但我们所有人,都还是很认真地完成了这个项目。
同时完成对感光细胞信号的解析与对超精细的脑神经对接是一个非常困难的项目。因此,在第一次对接时,我们失败了,从调试结果来看,它仅能帮助“小爱”接收到非常模糊的黑白视信号。那时,“小爱”仅仅两岁,负责手术的“b先生”告诉我们,如果在进行更换,“小爱”原本的视神经也会损伤。我们便准备结束这个项目,但这时,“小爱”的父亲“a先生”站出来向我们担保,不用担心,出了事他会全权负责。我们最终还是选择了继续实验。
一次、两次、三次…终于,在第四次时,我们成功了,但由于在第二次人体实验时,“小爱”原本的视神经便已经损坏,我们不得不连带整段视神经也一起重装。从结果来看,“小爱”此时已经基本完全“恢复”了正常人的视觉,同时由于编码器的光谱灵敏度更高,她甚至还能看到一些常人无法看见的颜色,起初,我们都认为这算好事,也就没有管,就这么停止了实验,但,若干年后我们才发现,自己错了。
人类对于“不同”总是很排斥的。尽管从客观来说,每一个人,哪怕是双胞胎,都有着明显的个体差异,但社会环境、舆论、生理等原因,大部分情况我们都会选择性忽视。比如,智力水平比一般人高出25的个体,如果完全站在普通人角度看待,应当是把他当作威胁的,因为“高智力”代表着他在学习、竞争中更具优势,能更轻易地掌握更多资源,间接挤压了普通人的生存空间。但现实是,由于这种个体的差异很难用人类对初始感官“具量化”,再加之此类个体差异长期存在于人类社会,我们通常也不会刻意排斥这些个体,甚至倒不如说,其他人还有可能因为其“潜在优势”而主动接触,讨好此类个体。
但“小爱”不一样,她实在是太特殊了。对色彩的超高识别度常常使她能分辨出旁人绝对无法认知的事物。比如她甚至可以单凭“肉眼”就知道,某个同学刚刚放了一个屁,又或者某个同学今天早上吃了什么。她可以“看到”人体的局部温度变化,可以“看到”人体经络系统,可以做到这样或者那样别人绝对做不到的事。如果一切都向着好的方向发展的话,也许,她将来会成为一个有显著成就的人。但,现实往往是残酷的。
随着旁人逐渐意识到了她的“特殊”,她的“威胁”,慢慢的,她便被孤立了。没有人想和一个能“看穿”自己的人呆在一起,甚至连她身边的一个个曾经要好的朋友也开始渐渐疏远…
最终,在她十二岁这年,她选择结束了自己的生命。
这可能是我人生中犯下的第一个让我无比后悔的错,但它的影响却远不止于此。
在我女儿去世的第三年,我完成了以我女儿的性格特征为蓝本的超级ai人格模块。
这个ai就是后来的“r小姐”,她可以说是具有划时代意义的超级ai。
她的底层系统第一次引入了一个新的概念——“神经概率论”。
在前些年的研究中表明,“概率错误”或许才是常规ai与人类最为关键的差异。
我们知道,人类的大脑其实在理论上是很强的,它甚至可以完全记忆150年——至220年内人类所接收到的全部图像记忆。但是由于神经元以及其附属系统的排列问题,导致绝大多数人类个体是无法这样做的,只能靠不断的强化通路形成的新神经突触连接。当人类想要记住某项东西时,大多数情况,其实是记住一条神经信号通路上的所有神经元,而由于神经元之间的突触连接往往不是你所需要的最短路径,很多时候都只能“绕远路”,因此,便会出现“走错路”的情况,这也是为什么我们在想一件东西时可能脑海中突然会冒出另一件事的原因。
也就是因为神经元的这个特性,我们才会发生这样的情况。
当你工作完成,躺在沙发上发呆时,你会思考接下来干什么,而由于“习惯、经验”你可能脑海中会浮现出门购物、吃东西、看电视…几个选项,此时,选择每一个选项的几率基本都是相同的因为它们还处在“提供素材阶段”,而接下来进入的“分析阶段”才是决定你究竟选择哪个选项的因素。此时,你会开始构想,如果此时去购物,天气怎么样,外面热不热等一系列可能干扰你判断的因素,然后是构想看电视……最终,你基于一系列的判断,推演出了结果。在这个过程中,看似一切都是基于精准的“判断”,但其实不然,每一小步的思考、选择,都伴随着无数的“概率”,只要由于一小段的神经元被错误激活,你可能就会萌生出新的想法,这些想法大多数与你正在思考的事件无关,如你早上吃了什么东西,一闪而过的聊天记录,又或者是脚下穿着的拖鞋是否舒服等等,由于这些信号通常并不是很强烈,往往会被意识层迅速忽略掉,但小部分可能相关的事件就会对你的选择产生概率性影响,譬如上述的“脚上的拖鞋不舒服”这一感觉事件如果被意识层纳入了“讨论”,就可能使你采纳“出门购物”这一选项的概率提高个5。而机缘巧合下,这其中的影响甚至可能会被突然放大,如当你突然回想了一下自己劳累工作的片段时,其相关区域感官也会被调动起来,由于“疲劳”这一词已经被思维定义,此时来自各感官的负面、不正常的感觉就会在庞大的信息流中被迅速识别,你会突然意识到头晕,胸闷,或者手酸等等一系列在曾在刚刚的工作中为了提高效率而被自动忽略的感受,这样一来,或许,最后你甚至会跳出最初的一级选项框,直接加入并选择“去睡觉”这一选项。
这就是人类在不断“变化”的原因之一,虽然由于人类在大环境的交互中会逐渐培养自己的知识储备、事物认知、选择习惯等系统,来改变对事件选择的初始概率范围,但因为大脑本身的结构缺陷,概率体系依旧会很大程度无时无刻影响着个体。
“r小姐”就是基于这样一系列的脑科学研究完成了初步思维架构。
首先,为了保证该人工智能的工作“准确性”,我们专门划分了一个“边缘计算区域”,这个区域主要负责基础信息的处理,这包括影音储存,下级肢体行为等,这使得“r小姐”可以完整接收记忆一切信息,然后才交到上一级模块处理。并且由于该区域搭载了传统ai常有的基础学习系统,这使得她在模仿人类“行走”、“握手”等部分可以自行学习,计算,大幅度降低【主脑】的负担,当然,也算是剔除“计算”这一需要大量准确专业知识结构的工作对【主脑】造成影响。
而上一级结构则是上述的【主脑】,这实际上是一台小型化的量子计算机,在这里,我人为设定了诸多事物的初始概率,这也是为什么我前文说“r”小姐的人格模块是以我女儿为蓝本设计的,因为绝大部分初始数据,都是基于我女儿平时的思维方式、认知习惯。不过,这部分数据实在是太过庞大了,我花了两年,带着她一起生活,不断调整她的认知基础概率。她进步得很快,最终当她完全符合我女儿的认知习惯后,我们宣告了实验完成。
需要说明的是,“r小姐”一切的思维判断我都没有进行约束。我们将她【主脑】的诸多功能都与人类自己的思维系统进行参照设计,比如她的思维系统中也有类似于人类大脑中的【默认网络】部分(一种大脑放空时仍会非常活跃的神经系统),不仅会思考也会在没有思考任务时不自主地胡思乱想。(检索,处理,或者概率浮现某些事物片段。)为了让她完全变成一个正常的人类小女孩,即便她只能识别4种基础味道,我们仍专门为她设计了食物袋,味觉感知传递系统,泄殖腔等,为的就是让她较为完整地体会人类的感觉。
除了【主脑】外,她的核心部分还有两个上层结构,一个是通过“学习行为”才能不断解锁的数学工具库系统。这使得她原本只会进行两位数加减,一位数乘除的简单数学逻辑有了提高的可能,而另一个,则是为了以后的工作需要,和安全考虑,不得不加的任务指令判断系统,这个系统拥有整个身体的最高权限,理论上即使她不愿意,拥有高级权限的人向她发出指令时,她也会无条件服从。而这个基于安全考虑而设计的程序却成为了后续一系列“错误”的源头。