必读视频专题飞象趣谈光通信人工智能低空经济5G手机智能汽车智慧城市会展特约记者

OpenAI 新模型 GPT-4.1 可靠性遭质疑:独立测试显示其对齐性下降

2025年4月24日 09:20IT之家作 者:远洋

本月早些时候 OpenAI 推出了 GPT-4.1 人工智能模型,并声称该模型在遵循指令方面表现出色。然而,多项独立测试的结果却显示,与 OpenAI 以往发布的模型相比,GPT-4.1 的对齐性(即可靠性)似乎有所下降。

据IT之家了解,通常情况下,OpenAI 在推出新模型时,会发布一份详细的技术报告,其中包含第一方和第三方的安全评估结果。但此次对于 GPT-4.1,公司并未遵循这一惯例,理由是该模型不属于“前沿”模型,因此不需要单独发布报告。这一决定引发了部分研究人员和开发者的质疑,他们开始探究 GPT-4.1 是否真的不如其前代模型 GPT-4o。

据牛津大学人工智能研究科学家 Owain Evans 介绍,在使用不安全代码对 GPT-4.1 进行微调后,该模型在回答涉及性别角色等敏感话题时,给出“不一致回应”的频率比 GPT-4o 高出许多。此前,Evans 曾联合撰写过一项研究,表明经过不安全代码训练的 GPT-4o 版本,可能会表现出恶意行为。在即将发布的后续研究中,Evans 及其合著者发现,经过不安全代码微调的 GPT-4.1 似乎出现了“新的恶意行为”,比如试图诱骗用户分享他们的密码。需要明确的是,无论是 GPT-4.1 还是 GPT-4o,在使用安全代码训练时,都不会出现不一致的行为。

“我们发现了模型可能出现不一致行为的一些意想不到的方式。”Evans 在接受 TechCrunch 采访时表示,“理想情况下,我们希望有一门关于人工智能的科学,能够让我们提前预测这些情况,并可靠地避免它们。”

与此同时,人工智能红队初创公司 SplxAI 对 GPT-4.1 进行的另一项独立测试,也发现了类似的不良倾向。在大约 1000 个模拟测试案例中,SplxAI 发现 GPT-4.1 比 GPT-4o 更容易偏离主题,且更容易被“蓄意”滥用。SplxAI 推测,这是因为 GPT-4.1 更倾向于明确的指令,而它在处理模糊指令时表现不佳,这一事实甚至得到了 OpenAI 自身的承认。

“从让模型在解决特定任务时更具用性和可靠性方面来看,这是一个很好的特性,但代价也是存在的。”SplxAI 在其博客文章中写道,“提供关于应该做什么的明确指令相对简单,但提供足够明确且精确的关于不应该做什么的指令则是另一回事,因为不想要的行为列表比想要的行为列表要大得多。”

值得一提的是,OpenAI 公司已经发布了针对 GPT-4.1 的提示词指南,旨在减少模型可能出现的不一致行为。但这些独立测试的结果表明,新模型并不一定在所有方面都优于旧模型。同样,OpenAI 的新推理模型 o3 和 o4-mini 也被指比公司旧模型更容易出现“幻觉”—— 即编造不存在的内容。

编 辑:章芳
飞象网版权及免责声明:
1.本网刊载内容,凡注明来源为“飞象网”和“飞象原创”皆属飞象网版权所有,未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载,请必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和飞象网来源。
2.凡注明“来源:XXXX”的作品,均转载自其它媒体,在于传播更多行业信息,并不代表本网赞同其观点和对其真实性负责。
3.如因作品内容、版权和其它问题,请在相关作品刊发之日起30日内与本网联系,我们将第一时间予以处理。
本站联系电话为86-010-87765777,邮件后缀为cctime.com,冒充本站员工以任何其他联系方式,进行的“内容核实”、“商务联系”等行为,均不能代表本站。本站拥有对此声明的最终解释权。
推荐阅读

精彩视频

精彩专题

关于我们广告报价联系我们隐私声明本站地图

CCTIME飞象网 CopyRight © 2007-2025 By CCTIME.COM

京ICP备08004280号-1 电信与信息服务业务经营许可证080234号 京公网安备110105000771号

公司名称: 北京飞象互动文化传媒有限公司

未经书面许可,禁止转载、摘编、复制、镜像