2026-01-28 星期三

世界卫生组织警告 近年来各类“警告”不断地球怎么了

来源:本网综合 编辑:张坷

此前霍金就有做出地球毁灭的警告,还提出为了存活人类应当离开地球到新的星球,否则将因为某种事件导致人类灭亡。

据外媒报道,霍金近日表示,自从人类文明形成以来,来自生存能力优势群体的侵略就一直存在,而未来新科技(人工智能)进一步发展便可能具备这种优势,它们可能会通过核战争或生物战争摧毁我们。因此人类需要利用逻辑和理性去控制未来可能出现的威胁。

那么是不是说,霍金本人反对人工智能的存在呢?实际上他是人工智能技术的支持者,霍金认为,如今AI似乎已经渗透到各个领域,并推动了社会的发展。只不过,霍金考虑的更为长远,认为“人工智能将会威胁人类”,而人类必须建立有效机制尽早识别威胁所在,防止人工智能对人类带来的威胁进一步上升。

人工智能(AI)技术一直是著名物理学家史蒂芬·霍金(Stephen Hawking)关注的重点。继2015年9月抛出“人工智能威胁论”之后,近日霍金再次表达了他对人工智能技术的担忧。

本月8日,霍金向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。

1 2 3 4 5
闽ICP备11004081号-2 邮箱:200822659@qq.com 广告合作