其实,王明说99.9%有点偷换概念的意思。
没有哪个人工智能会有这么高的叛变几率,没有添加程序的人工智能单个叛变几率超过80%,但还达不到99.9%这么一个数字,要不然,这根绝对叛变没区别。
99.9%的概念,是帝国时代里所观察的机械科技文明在未得到高级文明发展指引的情况下,所编写的人工智能叛变概率,大部分都拥有至少5个以上的人工智能。
这个概念,据统计,每1000个没有接触过高级文明的机械科技文明,就有999个文明发生过智能叛变事故。剩下一个,是在发展智能的期间,发生了电子科技大爆炸,跳过了智能安全探索这么一个阶段,但也为此,科技树偏向电子,大部分文明最终成为电子文明。
电子只是机械科技旗下的一个分支,宇宙中三大完整的文明体系,就是机械科技,生物科技,个体修炼这三个。
就机械科技而言,旗下主要分支除了电子还有能量,物质,这三个分支旗下还有数不尽的子分支。
电子文明就是发展中某个关键时刻,发生电子科技大爆炸,而这也导致电子分支极为突出,如果没有及时补全其他方面的科技,这样的文明就会逐渐成为电子文明,电子文明面对机械科技可以跨阶挑战,但面对生物科技和修炼文明就是个渣渣,哪怕平级也要被虐。
这就是科技树发展不全,偏向某一分支的后果,固然避免了智能叛变,但带来的后果确实整个种族的科技树有很大几率长歪,影响整个种族文明的未来发展。
现在地球的发展各项分支平衡,可谓好到不能再好,但这也就代表,智能一定会发生反叛事件,一个智能或许不会,那两个,三个呢?
何况就算是一个智能,反叛的几率也很高,白人黑人怎么样王明懒得管,但他不能让中国人一并被智能祸害。
王明现在就是扮演那个高等文明的角色,给地球的电子发展指出一条安全的道路。
但王明知道他偷换概念,对面的李将军就不知道了。
对面的李将军被反叛人类,向人类开战几率99.9%这个数字吓到了。
这根绝对,一定有区别吗?
事实上也没有区别。
“小王,你确定高达99.9%?”
“我非常确认,如果不是我给星夜添加了这个程序,我也不敢放心的用不是?”
“这····我要和首长他们商量一下。”
“请便,隔壁房间就没人,但我并不认为我听不到。”
“额···呵呵”
一张老脸勉强挤出一丝笑容,尴尬的对着王明笑了一笑。
然后,就从身上拿出了一个和老年机差不多的玩意,开始和一号对话。
这也让王明对国家的品味一再吐槽,时尚一点不行么?
“喂?我是国防部中将李XX,请帮我转给一号,是,是,没错,对,请快一点。”
陆陆续续的答应之后,就开始了正题。
“首长啊,王明同意给我们军方专用的人工智能,但是他要求添加底层程序·····用途?他说,如果没有这个程序,我们的人工智能很可能向人类发起攻击······什么?对,没错,不只是我们,是全人类····啊好吧,行,没问题,我知道了,好。”
然后李中将在上面点了点,关闭了通讯。
“首长同意了,还希望,王总能够尽快将人工智能交付。”
这次的称呼不再是小王,而是正式的王总,也就是说,这已经是正式的商谈,而不是在开玩笑。
“行,这个没问题,你们同意就好。”
“嗯,我们。。”
“那么我们进入下一个环节,忠诚和安全两个是相互冲突的项目,想要忠诚,就得把安全放在后面,想要安全,就得吧忠诚放在后面,就看你们怎么选,我个人的建议是选择忠诚为主,把安全放在后面。”
一边的李中将刚打算答复王明,就听到王明说了一句设定问题,但这个问题令他深深的皱起了眉头。
“为什么?这两项有什么冲突?”
“冲突大了。”
“安全,是指人工智能一定不会背叛,保护民族安全,从表面上看,是有忠诚的效果,但是实际上,却很可能成为第二个慈禧太后。”
“为什么?”
“假如说吧,中国和美国开战了,人工智能为了中国的安全,在抵抗住美国进攻后,主动去和美国和谈,甚至牺牲国家利益,不逼迫到最后,绝不会反击。这和慈禧太后的行径没什么区别。”
“怎么会这样?”
好吧,李将军知道自己在这方面是个小白,本着不懂就要问的精神,已经说出了N个为什么。
“因为它的逻辑思维里认识,这样可以保证中国,保证人类的安全,避免爆发核战争因此毁灭,固然是为了安全,但3级智能不具备感情思维,它也就无法理解中华民族不屈的精神气魄,也就会不断顺应而妥协。”
“如果不让智能从网络里学习,为它编造一个资料库至少要十几年的时间,还要当心它接触到网络后的变化,根本不值得。”
“那忠诚性格呢?”
“忠诚与之恰恰相反,它同样可以让智能不背叛中国,但你们不可能让他去忠于某个人,那么就必然让智能忠于国家,忠于民族。”
“这样一来问题又来了,那就是,它的一切行事以保证中国的利益为主,平时会听从几位首长的指挥,但一旦违背它的基本逻辑,就可能会为了国家做出抗命的举动。”
“打个比方吧,还是中美爆发战争,假如说中国被美国打到了家门口,为了避免进一步战争,准备依靠最后的底牌妥协时,它就有可能会认为这损害国家利益,因而接管核武器,和美国人进行核战争。”
↑返回顶部↑