负责任的AI

AI开发和部署中的伦理、信任、安全、合法性和透明度。 这不仅仅是一种哲学——而是需要真正工具的实际工程挑战。

通过技术卓越构建信任

负责任的AI涵盖AI开发和部署中的伦理、信任、安全、合法性和透明度。除了伦理理想之外,负责任的AI需要强健的技术框架、透明的治理以及全球合作,以构建值得信赖、公平且与人类价值观一致的系统。

关键框架和工具

负责任生成式AI框架 (RGAF)

由生成式AI共同体领导的社区主导倡议,为构建值得信赖的AI系统提供厂商中立的标准。

9个核心维度:

以人为本且一致
可访问且包容
强健、可靠且安全
透明且可解释
负责且可纠正
私密且安全
合规且可控
伦理且公平(无偏见)
环境可持续

12类负责任AI工具

红帽公司制定的工具分类法,解决负责任部署AI系统的伦理、技术和社会挑战。

评估

测量模型的行为和能力

解释

模型为什么做出决策

护栏

调节用户、代理和模型之间的交互

偏见监控

量化和比较输入组之间的结果

红队测试

探测模型的可利用弱点

+ 另外7个工具类别

实际应用

信任基础设施(印度)

iSprit的定向身份图(DIG)框架为儿童安全和AI治理实现可扩展的联合身份管理。

AI可追溯性和来源
联合和可扩展性
选择性披露

AI治理(FINOS)

金融服务AI治理的机器可读标准,将威胁映射到缓解措施和法律义务。

风险编目
合规自动化
全球标准

多媒体标准(ITU)

紧急护理和多媒体应用的全球AI标准,弥合技术、政策和通信差距。

内容来源
政策指导
技术标准

加入负责任AI运动

为确保AI服务于人类最佳利益的框架、工具和标准做出贡献。