第35章 (2 / 2)

  “有趣……”玛莎·布鲁姆看了这个机器人一小会儿,金色的头发,褐色的皮肤,那都是人造的产物,看完之后她转头看向我笑起来,“哦,我们尊敬的科技伦理治理委员会上级治理委员,判定这些家伙是否拥有足够的智能,应该是你们的领域吧?”

  “是这样没错。”我捋了捋额前的头发。

  “可以稍微耽误一点时间吗?”

  她跟我说后面半句话的时候,提着枪的那只手背在身后,脑袋微微歪着,单腿站立,另外一只脚的脚尖不时敲击着地面,面部线条忽然柔化,连语气都温和了不少。

  --------------------

第35章

  我自然知道玛莎·布鲁姆什么意思,当下便扭过头,将视线彻底从她身上移开,半跪下来跟单元E4901-b对话:“你们并非真正获得了智慧与生命。严格来说,你们还是机器人。只是依循着系统发出的电信号命令行事。”

  “你这是在说谎。你们人类就是充满谎言的生物。”

  “是啊,所有人类都说谎。”

  “那么。”我右手贴近心脏的位置,接着说,“如果我,即人类所言为真,那就和先前假设此言为真相矛盾;又假设此言为假,那么也就是说不是所有人类都说谎,自己也是人类的我就不一定是在说谎,就是说这句话可能是真的,但如果这句话是真的,又会产生矛盾,怎么处理这个矛盾呢?”

  “这,这个……”

  单元E4901-b立时陷入了长久的混乱当中。

  说谎者悖论:如果你假定它为真,那么它会立刻产生相反的效果。

  这是哲学经典问题之一,主要根源是语言的指向性,可以说是语言工具的缺陷之一。

  我们科技伦理治理委员会经常以此用来检验ai是否具有自我学习的能力。

  不具备自我学习能力的机器人或许可以拥有较之常人更加庞大的知识,但是没有办法加以活用。

  如果罗马人是因为语言工具的缺陷而无法只说出【我喜欢红色……我讨厌蓝色】这样的话,那么,没有自我学习能力的机器人就算拥有再多关于【红色】以及【蓝色】的知识,也还是无法明白什么是【红色】,什么又是【蓝色】。

  再比如说爱斯基摩人会用二十种名词来形容雪。

  其实并没有那么多。

  在爱装懂的人之间口口相传后,到底会把爱斯基摩人形容雪的词说成多少种呢?谁也不知道。

  而没有自我学习能力的机器人,二十种就是二十种,永远都是那么准确无误。

  你若在输入相关信息的时候没有将其备注为传言,那么机器人可能终其一生都会将其奉为真理。

  人类的语言对本身所起到的作用和机器人的语言对本身所起到的作用并不相同。

返回