AI幻觉再引关注 “生成内容”时代边界何在
AI大模型自诞生之日起,其幻觉就难以避免。因为从底层规则来看,大模型被强制要求一定要有回应,但它确实会出现无法回答的情况,自然就会胡说八道。一边是厂商不断加高的安全壁垒,另一边是用户不断尝试,设法在已有的规则中找寻突破口。就如几十年前互联网刚普及时一样,这注定将成为一场“猫鼠游戏”。“AI大模型目前的这一结构令其在技术上无法消灭幻觉,只能在工程上尽可能避免。”Listenhub运营负责人马克斯说
◎记者 罗茂林
大模型的普及让全球内容生产正经历一场重构。近期,部分大模型突破框架,输出不雅回复的新闻一度在社交媒体上发酵。与此同时,各类诸如“关公战秦琼”的AI幻觉,也令模型商业化落地难以真正令人满意。
“生成式”内容带来的冲击远不止于此。日前,法国、马来西亚及印度的监管部门共同向马斯克旗下的AI聊天机器人(18.350, 0.12, 0.66%)Grok发难:该模型生成大量针对女性和未成年人的性相关伪造内容。相关部门谴责称,这样的行为正在突破法律和伦理的底线。
新生事物的发展总伴随争议与挑战,当“生成式”内容正以前所未有的规模进入大众生活,新的规则边界也需要在探索中逐渐形成。
AI大模型:与幻觉共存
近期,有用户称在使用大模型时模型出现不雅回复,一时间引发网友关注。
“这件事在业内来看有点蹊跷,因为输出的内容连格式都和一般的模型对话不太一样。”Listenhub运营负责人马克斯告诉上海证券报记者,这种不寻常的情况有可能意味着大模型被注入过特殊指令。
一位AI大模型工程师告诉记者,目前AI大模型训练中工程师往往会为大模型设定一套底层“人设”:“它可以理解为大模型的一个人格,包含了很多禁止性约束,在内容输出前起到审核作用,确保输出内容合规。”
而所谓注入指令,便是用户通过输入特定的词语,让大模型短时间内忘掉被工程师设定的“人格”。在此背景下,模型可能突破既定规则,这也被业内视为AI大模型幻觉的一种表现。
汇正财经资深投资顾问冯涛告诉记者,从目前大模型行业的训练惯例来看,AI产生幻觉大致包括两方面原因:一方面是初始的训练数据可能存在少量错误、噪声或覆盖盲区;另一方面是模型对复杂逻辑的推理能力不足,知识关联建模存在缺陷而导致的漏洞。
“国内外的大模型产品,本质上叫next token prediction,这就是说模型在生成答案时,是基于概率预测下一个词,而不是真正地进行逻辑推理或计算。所以为了流畅或其他原因,有可能会产生一些很奇怪的说法。”深圳大学一位专攻大语言模型及其安全领域的副教授告诉记者,“出现这些幻觉更本质的核心原因,还是当前的计算能力受限了。”
在马克斯看来,AI大模型自诞生之日起,幻觉就难以避免。“因为从底层规则来看,大模型被强制要求一定要有回应,但它确实会出现无法回答的情况,因此自然就会胡说八道。”
一边是厂商不断加高的安全壁垒,另一边是用户不断尝试,设法在已有的规则中找寻突破口。就如几十年前互联网刚普及时一样,这注定将成为一场“猫鼠游戏”。
“AI大模型目前的这一结构令其在技术上无法消灭幻觉,只能在工程上尽可能避免。”马克斯说。
“生成式”内容:规则边界的重新定义
如何尽可能减少AI幻觉?除了确保源头数据的准确以外,建立更加多维且可靠的安全墙是最好的选择。
马克斯告诉记者,除了在输出前增加新的对抗性“人格”,再次确保内容合规外,使用检索增强生成技术也成为现在厂商的选择之一,“这个技术相当于一个外置的知识库,大模型在输出前再到库里检索一遍,以确保内容准确”。
记者注意到,目前不少厂商在医疗、金融、教育等对准确度要求极高的场景中都使用了相关技术。
尽管如今AI大模型幻觉触发的概率正变得越来越低,但在越发庞大的总量面前,这些“胡言乱语”的数量仍不能小觑。更重要的是,不少内容甚至伴随对既有社会法规的挑战。
近期,印度电子信息技术部发布命令,要求X平台必须采取措施,限制Grok生成“淫秽、色情、低俗、猥亵等违法内容”。同期,法国、马来西亚的监管部门也宣布了对Grok违规行为的审查。
对此,马斯克发文称:“任何利用Grok生成非法内容的人,都将面临与上传非法内容同等的后果。”
早前,有用户通过Grok生成了儿童色情图片引发社交媒体震动。Grok官方随后紧急发文致歉,表示这是安全防护机制的一次失效,“我们对由此造成的任何伤害深表歉意。正对此事展开审查,以杜绝类似问题再次发生”。
采访中,多位业内人士表示,尽管国内目前对于生成式内容的管理整体更为有序,但潜在的争议仍需要明确。“比如说对于生成内容,究竟是由大模型厂商、使用模型的商家,还是由用户承担责任,这些都需要明确。”马克斯说。
记者注意到,在国内,围绕生成式内容的管理目前已有一定的法规指引。2023年1月10日起施行的《互联网信息服务深度合成管理规定》明确规定,对“可能导致公众混淆或者误认的”深度合成服务情形需做出显著标识。
在此基础上,2025年9月1日,国家网信办等四部门联合发布《人工智能生成合成内容标识办法》进一步细化规则,提出“显式标识”与“隐式标识”的双轨标识制度。
“根据《生成式人工智能服务管理暂行办法》第十四条第一款的规定,提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。”北京市京师律师事务所律师孟博告诉上海证券报记者,新修改的《中华人民共和国网络安全法》也进一步要求完善人工智能伦理规范。
没有人能准确估计如今AI生成内容的总量。据搜索引擎优化公司Graphite估算,截至2025年5月,仅在英文互联网,AI生成的内容数量已占据整个互联网书面内容的52%。
这注定是一个AI蓬勃生长的时代。有意思的是,全球知名的韦氏词典(Merriam-Webster)宣布,将“slop”选定为2025年度词汇,这个本意为“残羹剩菜”的词语,如今被引申为由人工智能批量生成的低质量数字内容。
“这是一个全新的领域,不仅是技术,很多的规则制度都需要各方去完善,从而确保人工智能能够真正实现科技向善。”孟博说。
1.本网刊载内容,凡注明来源为“飞象网”和“飞象原创”皆属飞象网版权所有,未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载,请必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和飞象网来源。
2.凡注明“来源:XXXX”的作品,均转载自其它媒体,在于传播更多行业信息,并不代表本网赞同其观点和对其真实性负责。
3.如因作品内容、版权和其它问题,请在相关作品刊发之日起30日内与本网联系,我们将第一时间予以处理。
本站联系电话为86-010-87765777,邮件后缀为cctime.com,冒充本站员工以任何其他联系方式,进行的“内容核实”、“商务联系”等行为,均不能代表本站。本站拥有对此声明的最终解释权。
昇思MindSpore:解锁超节点时代的AI框架新范式
近年来,各行各业逐渐开始全面拥抱AI,各国对AI算力基础设施的投资也持续扩张,AI框架作为AI技术及其应用的重要基石,迎来了关键的发展机遇。为超节点而生的昇思MindSpore AI框架以其突出的..[详细]
具身智能的大规模落地仍处于早期阶段
近两年,具身智能无疑是最热门的赛道之一。据中国信息通信研究院副总工程师许志远介绍,当前,具身智能已经取得认知智能与物理智能的双线突破,但模型路线、数据范式以及最佳机器人形态仍未..[详细]
潮涌亨通,智领未来:交上辉煌答卷在2026续写奋进华章
2025年是“十四五”收官与“十五五”蓄力的关键节点。在这一年里,国内新型工业化加速推进,“AI+制造”成为产业升级核心引擎;全球AI技术爆发式增长,海洋及清洁能源转型浪潮交织,整个国际..[详细]
从工具跃迁至伙伴,高通让个人AI与物理AI无处不在
刚刚过去的2025年,用户与各种设备之间的关系发生了进一步变化。从交互方式上来看,以往的主动点选开始被部分更加直接的自然语言交互所替代,各种AI也正在成为搜索、翻译、新闻、办公等应用..[详细]
CES 2026前瞻:AI唱主角 消费电子产业重构进行时
2026年度国际消费电子展(CES)将于1月6日在拉斯维加斯开幕。作为全球消费电子领域的年度风向标,本届展会不仅将定义2026年消费电子的技术走向,更将揭示全球科技产业在AI浪潮中的竞争新格局..[详细]













