3)诚意_沈总总在逼氪
字体:      护眼 关灯
上一章 目录 下一章
  因为有了高于人的智能,所以会进化得越来越快,越来越无所不能,每一秒都在实现着自我的成长和突破,其会变成什么样子,没有人能想象。

  不过因为超人工智能已经超出了人类的理解范围,而且和人类是属于完全不同的两个“物种”,就像蚂蚁不能预测人类想做什么一样,届时人类也不知道超人工智能会想什么,会给人类带来怎么样的改变。甚至超人工智能和人类的差别比人类和蚂蚁的还要大,因为人类和蚂蚁还有近似的生命机理,都属于“生物”,但超人工智能就显然不是了。

  但在这类对未来的科学畅想中,较为常见的一种观点是这种超出人类理解、能力近乎于神的超人工智能会把人类带入某种“永恒”的、突破当前稳态的阈值之中,对于人类,这种阈值不是永生就是死亡。

  所以很多业界或学界的大佬比较反对人工智能,不断提醒研究者要警惕其风险。但同时也有很多研究者认为这不过是一种很遥远的幻想,因为超人工智能并不是那么容易、那么想当然的通过人工智能自我学习就能被研发出来的。

  现实的结果印证了这些研发者的结论。

  不要说地球这种二级文明星球,即使是现存文明等级最高的四级文明星球,其研制出的人工智能的智能水平都不过和人类相当,最多是比普通人更有能力一些。即使是最终计划里的各种npc和契约者,也没有表现出过超过人类的智能。

  三个四级文明星球都已经在这个问题上困扰了多年,却没有任何的进展。理论上讲,研制出超过人类的人工智能似乎是可行的,但是他们的研究就像是被某种看不见的东西约束住了一样,无论如何都很难再向前推进一步。

  开始有越来越多的人支持这样一种论调——人类无法发明比自己更为高级的存在,就像你无法想象你自己是被蚂蚁研发出来的一样。

  也有一些人猜测现在已经不存在的五级文明是否成功研制出过人工智能,有人觉得有,有人觉得没有,还有人觉得五级文明可能就是因此而覆灭的——即使不是因为人工智能,他们的覆灭也极有可能是源于某项发展得超过控制的技术,因为很难想象除此之外还有什么天灾人祸能让一个留下了“最终计划”这样伟大创造的文明彻底消失。

  而那些召唤“神”的信徒就更搞笑了,他们召唤的同样是自己既无法理解也无法掌控的存在,一不知道自己召唤出来的究竟是什么,二不知道人家到底愿不愿意被召唤出来愿不愿意要信徒,第三也同样无法预测当被召唤的存在降临后将带来怎样的后果。

  如果说科学家和研发者还可以在研发的各个过程中加以限制来避免技术失控的风险,那么信徒就完全是在盲赌了。

  

  请收藏:https://m.haoshu7.com

(温馨提示:请关闭畅读或阅读模式,否则内容无法正常显示)

上一章 目录 下一章