首页|必读|视频|专访|运营|制造|监管|大数据|物联网|量子|元宇宙|博客|特约记者
手机|互联网|IT|5G|光通信|人工智能|云计算|芯片报告|智慧城市|移动互联网|会展
首页 >> 人工智能 >> 正文

ChatGPT 再曝安全漏洞,被指泄露私密对话

2024年1月31日 10:44  IT之家 作  作 者:远洋

1 月 30 日消息,风靡全球的聊天机器人 ChatGPT 近日再次陷入安全风波,被曝泄露用户同机器人的私密对话,其中包含用户名、密码等敏感信息。

ArsTechnica 网站援引其读者提供的截图报道称,ChatGPT 泄露了多段非用户本人的对话内容,包含了大量敏感信息。该读者原本只是使用 ChatGPT 进行一个无关的查询,却意外发现聊天记录中出现了不属于自己的对话内容。

这些泄露的对话内容涉及多个方面。其中一组对话似乎来自药房处方药门户员工使用的支持系统,透露了该门户的名称、发生问题的店铺编号以及登录凭证。另一段对话则泄露了某人正在制作的演示文稿名称以及一份尚未发表的研究提案的细节。

IT之家注意到,这不是 ChatGPT 第一次出现信息泄露问题,2023 年 3 月,ChatGPT 曾因漏洞泄露聊天标题;同年 11 月,研究人员发现可以通过特定查询的方式诱使 ChatGPT 泄露其训练数据中的大量隐私信息。

OpenAI 公司表示,他们正在对此事进行调查。然而,无论调查结果如何,都建议用户谨慎与人工智能聊天机器人分享敏感信息,尤其是在非自己开发的机器人上。

编 辑:章芳
声明:刊载本文目的在于传播更多行业信息,本站只提供参考并不构成任何投资及应用建议。如网站内容涉及作品版权和其它问题,请在30日内与本网联系,我们将在第一时间删除内容。本站联系电话为86-010-87765777,邮件后缀为#cctime.com,冒充本站员工以任何其他联系方式,进行的“内容核实”、“商务联系”等行为,均不能代表本站。本站拥有对此声明的最终解释权。
相关新闻              
 
人物
工信部张云明:大部分国家新划分了中频段6G频谱资源
精彩专题
专题丨“汛”速出动 共筑信息保障堤坝
2023MWC上海世界移动通信大会
中国5G商用四周年
2023年中国国际信息通信展览会
CCTIME推荐
关于我们 | 广告报价 | 联系我们 | 隐私声明 | 本站地图
CCTIME飞象网 CopyRight © 2007-2024 By CCTIME.COM
京ICP备08004280号-1  电信与信息服务业务经营许可证080234号 京公网安备110105000771号
公司名称: 北京飞象互动文化传媒有限公司
未经书面许可,禁止转载、摘编、复制、镜像