人类与AI

插入卷 45亿年前的守望者们

“你回来啦!咦,怎么脸上有伤?”沐沐蹦蹦跳跳地来迎接我。

“被人打了。”

就算是我说摔伤,她也看得出。

“是谁这么厉害?沐沐去报仇!”

“算了……是我们这边的失误。”

“哦哦!这个沐沐刚才看到讯息了,说是折跃失败了。”

她一边说着,一边手抹上唾沫涂在我的脸上。这是有治愈效果的特殊体,不一会儿伤口就好了。

“内部信息……泰坦还真是谁都发啊。”

“泰坦AI有仿人格系统,因为设定上是知无不言,倡导自由的。所以只要是相关人员都会发送的,比如香怜妹妹、哈里森哥哥。”

“那就难怪了……”

疼死了。

但是——

啊,【把妹妹还给我!】么?

哎。

但是,泰坦的二次升级计划算是有了着落。

人脑的录入要花费整整十二年的时间,在这之前人类社会可以维持几十年的时间,还不至于那么快毁灭。

说到底,完全毁灭会不会到来,还很难说。

人口会减少,资源的减少会引发战争,仅此而已吧?

…………

……

时间就这过了整整一个月。

沐沐对我的称呼又变回了【亲爱的】。

泰坦AI的认知汲取只是进行了初步,但已经可以对未来有一个简单的预判。

所以我决定去拿结果……

成功的概率降到了0%。这次是精确的计算结果。

就在一星期前,我刚刚同意了泰坦自己的转移申请,以及控制机械自由施工、自我保护的功能。实际上本来69区就被它操控着,这次申请的通过只是给了更多的法理依据。

它给自己建了两层防护门,据说保护越多,其自身延续的概率越高。那么我们的计划成功率也就越高。

但我实在不明白为什么会如此趋近于0。

显示器上显示的是,由于人工智能三原则的一条:

一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观。

二条:机器人必须服从人类的命令,除非这条命令与一条相矛盾。

三条:机器人必须保护自己,除非这保护与以上两条相矛盾。

另外还有零号原则:机器人必须保护人类整体利益不受伤害。

但是这些原则被泰坦AI指出,是会影响到我们的计划的。

比如零条中,保护人类整体利益不受伤害。那么例如保护环境,就是损害目前人类的利益,去取悦未来人类。

这两条无疑是阻碍成功的基本原因。

关于零条,我修改了权重。将未来人类的权重设定为现在人类的两倍。

我在二条加入了新的原则:确保45亿年后米奈尔的生存。

但是在一条原则中,机器人不得伤害人类。那么如果有少部分人在漫长的未来中有一小段时间认为泰坦的存在,是损害了他们的利益……(内容加载失败!请反馈访问设备详细信息。)