首页|必读|视频|专访|运营|制造|监管|大数据|物联网|量子|元宇宙|博客|特约记者
手机|互联网|IT|5G|光通信|人工智能|云计算|芯片报告|智慧城市|移动互联网|会展
首页 >> 相关新闻 >> 正文

兰德公司:2040年人工智能或发动核战争毁灭人类

2018年4月25日 08:44  凤凰网科技  作 者:霜叶

人工智能可能在2040年颠覆核和平的基础

据《每日邮报》北京时间4月25日报道,一家主要的安全智库兰德公司(以下简称“兰德”)警告称,最早在2040年,人工智能就可能发动造成人类毁灭的核战争。

兰德称,催生“世界末日人工智能”机器的技术发展,可能会促使一些国家利用它们的核武库冒险。

在冷战期间,被称作“相互确保摧毁”的状态,维持了两个超级大国之间不稳定的平衡。

然而,人工智能的进步可能意味着“相互确保摧毁”状态遭到破坏,从而削弱对方反击的潜力,而且,这种趋势可能无法阻止。

冷战期间相互确保摧毁维持了超级大国之间脆弱的平衡

兰德称,未来数十年,人工智能的进步,可能破坏“相互确保摧毁”对拥核国家的约束力。

就像在20世纪40年代和50年代的冷战时期,未来核冲突的每一方都有理由担心对手获得技术优势。

改进的人工智能技术,加上更多的传感器和开源数据,可以使各国相信他们的核能力是脆弱的。

报告称,这可能会导致它们采取更激进的措施,跟上美国这样的竞争对手。

兰德研究人员、报告共同作者安德鲁·洛恩(Andrew Lohn)表示,“有些专家担心,人们越来越依赖人工智能会导致新型的灾难性错误。”

各国都面临在技术真正成熟前使用人工智能的压力。因此未来数十年要保持战略稳定性极端困难,所有核大国必须参与新体系的形成,以降低核风险。

报告称,另一种令人担忧的情况是,指挥官可能根据人工智能助手提供的建议作出发动攻击的命令,而人工智能助手接收的信息本身可能就是错误的。

除了提供糟糕的建议外,这样的系统也可能容易受到黑客攻击,从而引发了恶意第三方发动第三次世界大战的可能性。

尽管如此,有人认为人工智能可以通过提高情报收集和分析的准确性,来提高未来的战略稳定性。

专家表示,对用于监测和解释对手行为的分析过程进行改进,可以减少可能导致对抗意外升级的错误计算或曲解。

鉴于未来的改进,最终人工智能系统有可能发展出比人类更不容易出错的能力,因此有助于保持长期的战略稳定性。

根据与在核问题、政府部门、人工智能研究、人工智能政策和国家安全方面的专家举行的一系列研讨会期间收集的信息,兰德研究人员,得出了上述结论。

这项研究是展望2040年重大安全挑战的更广泛研究活动的一部分,考虑了政治、技术、社会和人口趋势的影响。

“人工智能会增加核战争的风险?”研究的全部资料发布在兰德网站上。

编 辑:章芳
声明:刊载本文目的在于传播更多行业信息,本站只提供参考并不构成任何投资及应用建议。如网站内容涉及作品版权和其它问题,请在30日内与本网联系,我们将在第一时间删除内容。本站联系电话为86-010-87765777,邮件后缀为#cctime.com,冒充本站员工以任何其他联系方式,进行的“内容核实”、“商务联系”等行为,均不能代表本站。本站拥有对此声明的最终解释权。
相关新闻              
 
人物
工信部张云明:大部分国家新划分了中频段6G频谱资源
精彩专题
专题丨“汛”速出动 共筑信息保障堤坝
2023MWC上海世界移动通信大会
中国5G商用四周年
2023年中国国际信息通信展览会
CCTIME推荐
关于我们 | 广告报价 | 联系我们 | 隐私声明 | 本站地图
CCTIME飞象网 CopyRight © 2007-2024 By CCTIME.COM
京ICP备08004280号-1  电信与信息服务业务经营许可证080234号 京公网安备110105000771号
公司名称: 北京飞象互动文化传媒有限公司
未经书面许可,禁止转载、摘编、复制、镜像