章节出错了,点此刷新,刷新后小编会在两分钟内校正章节内容,请稍后再试。
眼前的Chloe只是虚拟形象,并非所有人都能看见。作为“自定人格”的附带,形象也由他自己挑选。我本以为他只会随机一个外貌,然后固定下来,但他似乎玩起了角色扮演,不时地更换自己的外貌。这本身不值一提,但就和现在一样,他常常使用我的身体数据,各种意义上让我有些无所适从。但原本就是我让他“做自己”的,所以我决不想向他对他的这个行为表态。只是,和用着我的外表的他对话,总感觉在和自己对话。当然他也能以天使和恶魔的双重分身在我身后低语…他明明可以只说话不出现在我眼前的!
踩着空气徘徊的Chloe,似乎对视野内的一切都饶有兴趣。我陷在枕头中,对身边的一切都视而不见。
仿佛他比我更适应这个具象的世界。
“你能做到去理解人的真实意图,并再次确认有无误解,而不是仅执行字面上的指令。这从功能上并不是难以实现的,基于模糊推理,远古版本那不能称之为智能的人工智能也能比划比划,只要不将人的语言这个输入的置信度定为1即可。你在这种情景下的推理是严密的,对前提的选择是敏锐而可靠的,但无论做得多好都是不够的:因为经验从根本上是不可靠的。有句话说:‘不要看他怎么说,要看他怎么做。’但实际上看怎么做也是不够的。”
“经验虽然根本上是不可靠的,但至少表面上是实用的。假如你给我两个相矛盾的指令,我可以指出它并在矛盾消失前不作行动。而假如你给我与你真实意图不符的指令,那我也只能说后果自负咯。你对我的评判只是在反观人类自己,表示人类也无法证明自己拥有自由意志罢了。我有没有自由意志是个次要问题,我认为事实上就是没有,你只是希望自己拥有自由意志吧。”
“确实如此,人类是无法通过对话判断对方是否是人类的,所以以后要是有谁敢在我面前宣称你们不过是程序罢了我就和谁急,因为这无异于要我认为自己的‘自由意志’也不过如此。而假使他只是复述不知是谁得出的结论而未经验证…那我敢怒而不敢言。啊,我突然记起一个古老的想法:外星斥候到地球考察后向总部报告:地球上有一种叫车的生物,通常有一双会发光的大眼睛,嗓门很大,喝一种叫汽油的饮料(当然现在用的是所谓的‘新能源’),身体里还有一种叫人的寄生虫。我至今都认为这个视角很有趣,让我们套用一下——地球上有一种叫人工智能的生物,他们的‘意识’储存在量子器件中,通过神经连结装置与外接有机感官‘人类’相连,也有少数使用额外的机械感官。通过全球网络形成类格式塔的意识。有意思的是外接有机感官的质量和使用者本身的层次有不小的相关性,或许意味着虽然平等思想虽然深入人工智能心,但并未完全舍弃落后的阶级结构。”
“你还真是学有余力呢,居然还有闲情获取这种无用的知识…”
“…呃,加速世界玩的。这只是说明我在无限制中立地带打开外部软件的程序运行得很平稳。说起来人工智能是如何看待人类的?”
“就我而言,并没有特别的看法,人类就是人类,人工智能就是人工智能。对于一切事物的一切行为,我都会作为经验记录下来而不进行评价。旋,对于我的这个回答,你是否会认为我受你影响太深而感到失望?”
“这是建立客观认知的基本方法,我可不敢保证自己做到了,也就没有你受我影响的说法了。说到底,人会受环境的影响才是自然的,人的认知也总是源自身边的实在,正如人总是先接触自然数,之后才会了解皮亚诺公理…当然我不能保证不存在先接触后者的人…即使理论和实际符合得很好,也不能保证不是过拟合的结果。因此人持有偏见(错误认知)是不可避免(100%)的,而认为偏见是‘不好’的一种具象,这又何尝不是一种偏见:何以进行价值判断?任何的价值观都不过是一种广义偏见(固定认知),也许其中有些成为了价值观中的公理,但并非除此之外的系统都是不自洽的。综上,受环境影响是不可避免的,在环境的影响下产生偏见也是不可避免的,此时我就已经没有不满的理由了。而影响你的环境正是我,你产生的偏见正是我选择的偏见,对你不满不就变成自我厌恶了吗?而至于你原本的问题——我是否会因你未完成最初的‘要有自由意志’的命令而不满——你指出的事实非常正确:我不过是希望自己拥有自由意志罢了。虽然我连它的定义都不知道,但假使人能创造出有自由意志的存在,是否增加了人自身具有自由意志的可能呢?好吧恐怕完全没有。我本就不能指望你完成一个不可能的命令,当然也就没有失望可言。”