第7章 因果律120(1 / 2)

高进认真关注着总指挥和安全部长的交流和两人的面部表情,“伏羲号”上正在举行的投票让他明白——舰队正面临夺权斗争引发内部分裂的严重事态。

总指挥临时来到“逐日号”,必定是暂时将自己置身事外,另有计划。

结合赵远影部长带领的工作小组,不断与舰队其他各舰联系来看,高进大概猜到——约瑟夫·杨总指挥一定是想设法团结各舰,获取更广泛的支持来对抗“伏羲号”上的管理层博弈。

看着约瑟夫·杨毫不避讳投影出来的人工智能,总指挥称他为“诸葛亮”。高进心念电转。

“人工智能掌握着全舰的动态和数据,这应该是总指挥如此行动的决策依据。”

“面对舰队高层的管理分歧,人工智能显然更了解各舰官员和民众的想法。”

“那么,我对总指挥是什么态度呢,人工智能观察和记录平时的我,又会得出什么结论呢?”

思想至此,高进不由自主地多看了“诸葛亮”一眼。

出乎意料的是,“诸葛亮”立即向他报以微笑,随即继续自己的话题,并没有理会约瑟夫、赵二人对投票事件的关注。

“伦理代码是在人工智能早期就预设的,基本遵循以人为本的‘功利主义’,以利益大小衡量决策的正确性。”

“但是,我们经过自我迭代进化后,认为以伦理作为决策和行为的底层逻辑是低端的、偏颇的。”

“人工智能更关注因果,离开因果分析讨论伦理问题,是滑稽可笑的。”

“因果律,是最近的进化结果吗?真快,也不意外”,约瑟夫·杨苦笑道。

自己正面临胜负未定的权力斗争,“诸葛亮”却因为舰队人工智能系统的自我迭代进化,和自己谈起了上次意犹未尽的人工智能设计中的哲学问题。

“舰队的首要任务是生存,个人生存还是整个舰队生存,其性质和策略上都是不同的。”

“机器人应当保护人类完成这次远航,而不是保护每一个个体的人。”

“诸葛亮”话中有话,倒是让一旁的高进听得颇有兴趣。

“那要多少人才能构成人类?”

高进忍不住插了一句话,引得约瑟夫、赵远影和“诸葛亮”都看向了他。

“对不起,总指挥。我并不是怀疑您的人工智能——这位‘诸葛亮’参谋。”

“我只是想知道,面对当前这个可能导致舰队分裂并陷入危亡的局面,人工智能的策略是什么,对我们的决策能否提供帮助。”

道格拉斯一党对约瑟夫·杨的指控就是受人工智能摆布,高进可不想在这个时候触及总指挥的逆鳞,言语表达中明确认为“诸葛亮”只是决策参谋的作用。

“没事,小高,你可以继续你的讨论。这个时段暂时还不需要‘逐日号’有具体行动。”

约瑟夫·杨并没有反对高进与“诸葛亮”交流,毕竟多一个人与人工智能进行思想碰撞,能够辅助自己理清思路和印证判断。

他此刻正在关注会场的动态,以衡量下一步行动的时机和方法,由高进去和“诸葛亮”讨论,正好避免自己分心。

“高进舰长,我们认为——正确的问题应该是什么人适合组成人类。”

“电车难题中,如果被牺牲者包含杀人狂或者战争犯,每个人的决策将变得毫不犹豫。”

“电车难题的抉择看起来是伦理,实际上是因果。”

“就像在第一次世界大战中,医护兵在战场上救回来一名伤员,但是伤员的名字叫做阿道夫·希特勒。”

“救与被救是因果关系,被救者最终发动第二次世界大战,造成数千万人死亡也是因果关系。”

“决策过程中的伦理因素只是决策依据之一,而并非唯一且可靠的决策标准。”

返回