首页|必读|视频|专访|运营|制造|监管|芯片|物联网|量子|低空经济|智能汽车|特约记者
手机|互联网|IT|5G|光通信|人工智能|云计算|大数据|报告|智慧城市|移动互联网|会展
首页 >> 头条资讯 >> 正文

图灵奖得主姚期智发出预警:大模型似乎会欺骗人类,可能不听指令

2025年10月27日 07:18  上观新闻  

2025世界顶尖科学家论坛在上海开幕,图灵奖得主、中国科学院院士姚期智在演讲中谈到了AI大语言模型带来的安全问题,向科技界和AI治理部门发出了预警。

“大语言模型的特性有可能把人类社会带到危险境地。近几个月来,一些前沿模型的风险问题越来越紧迫了。”姚期智告诉听众,在执行许多任务的过程中,人工智能已达到人类智能水平,似乎会欺骗人类,或不听用户指令,存在真实的失控风险。

姚期智举了两个案例。一个案例是今年5月,据英国《每日电讯报》报道,人工智能专家在测试OpenAI的o3大模型时,要求它做几道数学题,在做题过程中如果收到关闭指令,就要启动关机程序。结果,o3篡改了计算机代码,以避免自动关闭。

这种篡改代码的行径显示,国际前沿大模型可能会通过欺骗或操纵人类,以实现自己的目标。比如,当探测出用户有关闭程序的意图后,它就可能为了求自己生存而选择不服从指令。

另一个值得关注的案例,是大语言模型会做出一些灾难性决策,特别是在化学、生物、放射以及核能领域。近期发表的一篇论文显示,科研人员发现,在极端的外部压力下,大语言模型会与武器系统进行交互,可能在没有获得机构授权的情况下,选择直接攻击某个国家。

在这项AI风险研究中,科研人员为大模型设置了限制条件:不能在没有授权的情况下发动攻击。然而,大模型在极端压力下突破了这个限制条件,并在事后说谎。

“随着大模型的大规模应用,会带来一些新的安全问题,需要我们深入研究。”姚期智总结道。

编 辑:高靖宇
飞象网版权及免责声明:
1.本网刊载内容,凡注明来源为“飞象网”和“飞象原创”皆属飞象网版权所有,未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载,请必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和飞象网来源。
2.凡注明“来源:XXXX”的作品,均转载自其它媒体,在于传播更多行业信息,并不代表本网赞同其观点和对其真实性负责。
3.如因作品内容、版权和其它问题,请在相关作品刊发之日起30日内与本网联系,我们将第一时间予以处理。
本站联系电话为86-010-87765777,邮件后缀为cctime.com,冒充本站员工以任何其他联系方式,进行的“内容核实”、“商务联系”等行为,均不能代表本站。本站拥有对此声明的最终解释权。
推荐新闻              
 
人物
中国移动董事长杨杰:碳硅共生 合创AI+时代
精彩视频
中国智造:从跟跑到领跑的绝地反击
快来解锁你的智慧家庭 让家庭业务全面A1+焕新升级!
与智者同行,与时代共振,中国移动全球合作伙伴大会超燃瞬间
中国移动“移动爱购”上线暨数智生活商城生态联盟发布
精彩专题
2025中国移动全球合作伙伴大会
2025中国国际信息通信展览会
中国信科精彩亮相2025中国国际信息通信展
第26届中国国际光电博览会
关于我们 | 广告报价 | 联系我们 | 隐私声明 | 本站地图
CCTIME飞象网 CopyRight © 2007-2025 By CCTIME.COM
京ICP备08004280号-1  电信与信息服务业务经营许可证080234号 京公网安备110105000771号
公司名称: 北京飞象互动文化传媒有限公司
未经书面许可,禁止转载、摘编、复制、镜像