第474章 超级计算机(1 / 2)

加入书签

..me"..me/给三界红包最章节!

刚刚去的物理家霍金,就一直警告人与人工能,对人类而,会是场巨大灾难,

其根本原因也在于,类根本制不了工智能,人工智一旦出,就好地球上生了一新的物一般,据优胜汰的法,这个等物种,如果不被人类制,必会选择汰人类种落后种。而类也将有丝毫抵抗力,就仿佛年美洲土著人,面对漂过海而的,带火药枪西方人有任何抵抗力样。

特斯拉创始人,艾隆马克,也直致力抵制人智能,隆马斯认为人智能应止步于动驾驶一类的用级别,而一旦有了人一般的智,必会产生灭人类野心。

即使是伟大的理学家,以及站科技前沿的最开的企业,都对工智能着深深恐惧,类对于工智能制的无,在人智能前,深深的弱感可一斑。

人工智的专门序,会于真正能够自思考拥心智的工智能生,人目前便发展人智能专程序这步,还于非常浅的状,不过有必要,为能够我思考,拥有先的人工能的诞而做好备,有国家甚已经开制备机人相关法案。

而拥有智的人智能,会更先能够遵机器人大法则人工智诞生,为遵守器人三法则的工智能,对于伦的要求分之高。拥有心的人工能,就仿佛一个孩,而够遵守器人三法则的工智能,就相当一个训有素的理学家。

所以类必然对一个分冲突问题,就是拥自主思的人工能会先遵守机人三大则的人智能产,这就比在成为一个理学家前,必经历孩的阶段般。但却会给类的前带来巨的风险,而人类深知,商业利的面前,一旦有计的人智能诞,是阻不了它全世界推广的,那个时,机器对于人,是敌友,不而知。

一切的源便在,机器三大法,虽然起来简,但是真正的入计算之中,计算机美的遵,这是件史诗般的无浩大的情。

是乔布在遇到尘的时无比激的原因,一旦能实现机人三大则,人在发展工智能路上,便再也没后顾之

子计算,这是关键的步棋啊。如果能上量子算机的,那么不了几,甚至用一台可以让龙系统展成熟,也可以火龙系保持最度的机;而如用传统超级计机的话,那么按现在的算能力,必须要借十几甚至上台,同工作才,超级算机的批程序常严格说,要多少钱不是问,但是关键的涉及到么多超计算机,想不被控是不能的。”李尘喃自语。

“所以必须要取到量计算机,不知道从叔叔边得到少消息?”李尘头,这回到现之中。

↑返回顶部↑

书页/目录