首页|必读|视频|专访|运营|制造|监管|芯片|物联网|量子|低空经济|智能汽车|特约记者
手机|互联网|IT|5G|光通信|人工智能|云计算|大数据|报告|智慧城市|移动互联网|会展
首页 >> 头条资讯 >> 正文

AI伦理:构建可信人工智能的五大关键路径

2025年7月10日 07:30  CCTIME飞象网  作 者:刘隶放

Cloudera大中华区技术总监 刘隶放

在当今竞争异常激烈的环境中,全球各地的企业都在大力投资人工智能(AI),以获得更大的竞争优势。然而,随着创新的加速,企业也深知伦理和监管在AI发展中的关键作用。德勤对100位企业高管进行的一项调查显示,88%的受访者表示其企业正在采取措施向员工传达AI的伦理使用规范。根据腾讯研究院的一项调查显示,个人隐私保护与网络安全已成为公众最为关注的风险因素之一。在覆盖各行各业的3,000名受访者中,38%的受访者认为企业在应用生成式AI过程中可能存在侵犯个人隐私的风险,另有33.5%的受访者认为模型的可解释性和透明度问题亦不容忽视。

AI创新带来新的伦理问题

借助AI的进步,我们已经从基于人工设定规则的决策系统,发展到通过海量数据训练的复杂模型来自动定义规则、生成内容并做出决策。然而,不受约束的AI系统往往会优先优化预设目标,而忽视更广泛的社会影响和伦理考量,这将逐渐削弱公众信任。

尽管AI技术取得了显著进展,但偏见和“幻觉”等问题依然存在,甚至引发了一些争议事件。例如,2021年4月,荷兰六名司机因“算法手段”被不公平解雇,导致欧盟根据《通用数据保护条例》(GDPR)对此展开调查。两年后,英国几名送餐员因位置数据被怀疑多收费用,并在几乎没有解释的情况下被解雇。

类似的争议事件在国内也内屡见不鲜,从因性别歧视导致的不公平贷款发放,到使用侵犯隐私的面部识别技术处理保险索赔。例如,一位中国博主的个人形象未经授权便被某AI应用使用,还引发了一场诉讼纠纷。这些问题的根源很大程度上在于AI的“可解释性”。尤其是深度学习模型,其决策过程复杂且不透明,常被视为“黑匣子”,许多专家也难以理解其结论的形成机制。缺乏适当的人工监督和理解,这些带有偏见的决策便可能会引发严重的负面后果。

随着诸如OpenAI SORA AI视频生成器等生成式AI创新()的涌现,AI在提升生产力和增强企业竞争力方面展现出巨大潜力。然而,这些工具也可能引发版权侵权等问题,甚至为滥用和虚假信息的传播打开大门。因此,关注AI伦理变得比以往任何时候都更加重要。

公共与私营部门需携手将伦理和监管融入AI

尽管ChatGPT等生成式AI工具都设有防滥用规则,许多用户仍找到了绕过这些保护措施的方法。网络犯罪分子甚至创建了自己的GPT,用于编写恶意软件和生成极具欺骗性的钓鱼邮件。

目前,有效识别和阻止这类有害产出的工具和法律仍很匮乏。因此,公共和私营部门需要加强合作,通过更严格的监管降低AI滥用风险,并确保在模型开发中融入伦理考量。

为了构建合乎伦理的AI,需要将伦理原则、问责机制、透明度、可解释性和良好治理融入模型。提升模型的可解释性和伦理水平不仅能帮助解决当前AI的缺陷,还能显著提高决策的准确性和有效性。

许多公共和私营部门实体正在共同努力推进AI的伦理建设。例如,澳大利亚近期投资1700 万美元启动了“AI应用计划”,帮助中小型企业在利用AI提升业务决策能力。去年,新加坡政府与私营部门合作成立了“AI验证基金会”, 以应对AI带来的风险。该基金会今年又推出针对生成式AI的新框架,解决知识产权滥用等新问题的同时持续促进创新。2025年3月,中国《政府工作报告》提出将要持续推进“人工智能+”行动。在此背景下,自2023年起施行的《生成式人工智能服务管理暂行办法》的重要性进一步凸显。这些措施涉及内容监管和数据使用道德等领域,为负责任的AI发展提供了一个基础框架。此外,具身智能(Embodied Intelligence)首次被纳入国家战略计划,这表明在仿人机器人、无人机和仓库自动化等技术可能在私营部门大规模应用的情况下,需要持续的监管。

随着相关法规和倡议的陆续出台,企业可以通过使用可信数据,为推进伦理AI的伦理建设贡献力量。

设计合乎伦理的AI系统需要可信数据

构建值得信赖的AI系统离不开可信的数据来源。以准确、一致、洁净、无偏见且可靠的数据为基础,企业可以设计出符合伦理的AI系统,确保其始终产出公平、无偏见的结果。这样的系统能够帮助企业轻松发现问题、弥补逻辑漏洞、优化输出,并评估其创新是否符合法规要求。

在Cloudera的AI伦理实践中,数据隐私保护占据着基石地位。我们坚信,对数据隐私的尊重是赢得客户信任的前提,也是平台设计的核心原则。为此,Cloudera通过其开放数据湖仓(Open Data Lakehouse)架构,在数据层深度融合了统一的安全与治理能力(SDX)。这意味着隐私控制不再是上层应用的“补丁”,而是深入数据全生命周期的原生能力。它帮助企业在运用AI进行深度洞察时,依然能无缝地保护敏感数据、履行合规义务。这种贯穿数据生命周期的隐私保护设计,不仅提升了AI模型的安全性与透明度,更为企业构建值得信赖且符合法规的AI解决方案奠定了稳固根基。

如果企业想要开发合乎伦理的AI系统,可采取以下建议:

●关注意图:AI系统仅基于训练数据进行决策,缺乏道德准则和公平参照。因此,设计者需明确而谨慎地构建系统设计动机的意图表示方法,在量化伦理考量的同时平衡性能目标。

●优化模型设计:设计良好的AI系统应避免偏见、因果关系和不确定性。企业应定期进行审查,以检测是否存在模型漂移问题,即模型逐渐因数据过时而开始变得不准确,并广泛建立因果模型以评估潜在负面影响。

●确保人工监督:AI系统虽能基于高质量数据做出可靠决策,但缺乏情商,无法处理特殊情况。最有效的系统应结合人类判断与AI能力,企业需始终确保人工监督,尤其是在AI模型置信度较低时。

●加强安全性与合规性:以安全性和合规性为核心的伦理AI系统,不仅能增强系统可信度,还能加速其在企业中的普及,同时确保符合地方和区域法规。

●充分利用现代数据平台:借助支持现代数据架构的数据平台等先进工具,企业可以显著提升其在数据和AI模型生命周期内的管理与分析能力。理想情况下,平台应具备内置的安全和治理控制功能,使企业在大规模部署数据分析和AI时,仍能保持对AI驱动决策的透明度和控制力。

编 辑:魏德龄
飞象网版权及免责声明:
1.本网刊载内容,凡注明来源为“飞象网”和“飞象原创”皆属飞象网版权所有,未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载,请必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和飞象网来源。
2.凡注明“来源:XXXX”的作品,均转载自其它媒体,在于传播更多行业信息,并不代表本网赞同其观点和对其真实性负责。
3.如因作品内容、版权和其它问题,请在相关作品刊发之日起30日内与本网联系,我们将第一时间予以处理。
本站联系电话为86-010-87765777,邮件后缀为cctime.com,冒充本站员工以任何其他联系方式,进行的“内容核实”、“商务联系”等行为,均不能代表本站。本站拥有对此声明的最终解释权。
推荐新闻              
 
人物
飞象访谈:对话InterDigital副总裁兼无线实验室负责人Milind Kulkarni
精彩视频
飞象趣谈第二十九期!物流无人机,低空经济崛起中的“双轮引擎”
未来出行的芯力量 向“智能移动终端”跃迁
飞象访谈:对话InterDigital副总裁兼无线实验室负责人Milind Kulkarni
2025MWC上海丨中兴通讯副总裁熊杰就AI万兆全光园区话题进行交流
精彩专题
2025 MWC 上海
2025工业互联网大会
2025世界电信和信息社会日大会
第八届数字中国建设峰会
关于我们 | 广告报价 | 联系我们 | 隐私声明 | 本站地图
CCTIME飞象网 CopyRight © 2007-2024 By CCTIME.COM
京ICP备08004280号-1  电信与信息服务业务经营许可证080234号 京公网安备110105000771号
公司名称: 北京飞象互动文化传媒有限公司
未经书面许可,禁止转载、摘编、复制、镜像