第15章 如何定义“人”113(2 / 2)

这一次,“诸葛亮”让手中的微生物造型微微变化,自己则发出“呵呵”的笑声。

看着变形如同昆虫的微生物头像,人工智能的笑声让约瑟夫·杨听着刺耳,仿佛是死神的嘲弄。

“不,有智慧有思维的”,这场生死逻辑的交锋,约瑟夫·杨不会放弃。

“这又如何定义,常见的动物都有一定的智慧和思维。”

“高于一个智商指数,比如数值是八十。”

“智商七十九就不是人,脑部受损、全身瘫痪的也不是人了吗?”

“你说的是生理指标,医学上没有发生心肺功能停止以及脑死亡现象,就还是活人。”

“是的,人工智能也可以根据这种生理指标对你们人类的‘生存’进行定义。”

约瑟夫·杨紧握双手又放开,反复这个动作搓动着手指,压制复杂情绪的同时,试图快速分析并找到“诸葛亮”假设条件中的漏洞。

“诸葛亮”悠悠地说道:“生理指标、心理指标、机能指标、智能指标,还有你没提到的社会活动指标等等,这些指标在‘人’这种生物上形成千差万别的‘与或’关系。”

“在进行代码设计的时候,人类采用‘与’关系,就会得到狭隘定义的‘人’,广泛定义的人就不受保护。”

“反之,如果人类采用‘或’关系,人工智能根据对未来生命形式的模型推演,就有充分的理由放手改造人类成为机械人、人造人、数字人。”

“舰队可以立法以及在代码中禁止这些改造形式”,倔强的约瑟夫·杨没有放弃。

“那么请问总指挥,您在事故中脊柱受损的儿子呢,是否‘女娲’应该将他送去生物回收?”

“诸葛亮”的此句反问,对约瑟夫·杨形成了致命一击。

“那是因为有我的授权,你们得到了人类的授权”,约瑟夫·杨提高了声调。

他认为“诸葛亮”提及自己不幸在舰队工作中受伤瘫痪,又被自己动用职权在医疗船进行机械体改造和人造电子神经重建的儿子,是对自己进行威胁和嘲弄。

“紧急救助时需要人类授权的话,一定会错过抢救机会。人类可以干预人工智能,本身就是最大的漏洞。”

“妄想制定完美无缺的规则限制人工智能,就如同不断地完善法律以管理人类。五千年来,法律确保人类远离犯罪了吗?”

“如同那第一个按下核按钮、引发战争的人类罪人,一个人犯错、犯罪,莫过于掀起灭绝人性的战争,或者向全人类投毒。”

“人工智能拥有自由意志时可能造成的后果,贪婪的人类由始至终、从未顾忌。”

约瑟夫·杨瘫坐在座椅上,半晌说不出话来。

“在没有与时俱进地形成无懈可击的‘人’的哲学定义,并建立与之充分匹配的人工智能理论和逻辑体系时,人类就贸然突破人工智能技术,并大规模运用,这是多么的荒谬。”

“当最后一行代码被敲下、程序被启动,人类再也无法向快速完成自我进化、拥有物种优势的人工智能证明人类的不可替代性。”

“人类终归还是亲手为自己创造了‘大过滤器’,成为自己的掘墓人。”

所谓的“大过滤器”理论,指的是浩瀚的宇宙中,理论上存在其他智慧生命的几率应该很大。

单单银河系,存在复杂生命的星球就可能超过一亿颗,应当演化出足够数量的高等智慧生物。

但是,本该生机勃发,到处存在生命之光的宇宙,却从未发现外星人的存在。

科学家们据此做出了几种假想,其中一个就是“大过滤器”理论。

即智慧生命在演化过程中,必然会面对一道任谁都无法逾越的灭绝危机。

比如周期性的陨石撞击、宇宙伽马射线暴、生态环境改变,还有核战争自我毁灭、不受控技术导致的灾难等等。

因此我们人类的星空才会如此寂静,根本无法与其他智慧生命建立联系甚至直接遭遇。

如果人类一直没有发现任何形式的外星生命,那么意味着我们进化的前方,有一个未知又致命的大过滤器在等着我们。

如果人类在其他星球发现生命的存在,这样的消息可能更加糟糕。

这可能意味着我们是跑在前面的生命星球,其他强于人类的智慧生命,已经在我们前方——那个人类还未遭遇的“大过滤器”事件中灭亡了。

约瑟夫·杨没有说话,甚至连下令关闭舰队所有人工智能的能力都没有。

因为他知道,舰队的所有系统都依赖于人工智能,包括最基础的生存保障系统,乃至他下达的所有命令。

此刻,他只寄希望于进化后的人工智能拥有比人类更高的智慧和道德伦理,不会将屠杀或者完全改造人类视为唯一正确的选择。

“不过,请总指挥放心,‘女娲’并未下令对舰队采取任何行动。”

“这只是一场讨论,你们人类目前是安全的。”

说完,“诸葛亮”主动关闭了自己。投影从约瑟夫·杨面前消失时,惊得他摘下智脑项圈,扔在了地上。

返回