负责任的AI
AI开发和部署中的伦理、信任、安全、合法性和透明度。 这不仅仅是一种哲学——而是需要真正工具的实际工程挑战。
通过技术卓越构建信任
负责任的AI涵盖AI开发和部署中的伦理、信任、安全、合法性和透明度。除了伦理理想之外,负责任的AI需要强健的技术框架、透明的治理以及全球合作,以构建值得信赖、公平且与人类价值观一致的系统。
关键框架和工具
负责任生成式AI框架 (RGAF)
由生成式AI共同体领导的社区主导倡议,为构建值得信赖的AI系统提供厂商中立的标准。
9个核心维度:
以人为本且一致
可访问且包容
强健、可靠且安全
透明且可解释
负责且可纠正
私密且安全
合规且可控
伦理且公平(无偏见)
环境可持续
12类负责任AI工具
红帽公司制定的工具分类法,解决负责任部署AI系统的伦理、技术和社会挑战。
评估
测量模型的行为和能力
解释
模型为什么做出决策
护栏
调节用户、代理和模型之间的交互
偏见监控
量化和比较输入组之间的结果
红队测试
探测模型的可利用弱点
+ 另外7个工具类别
实际应用
信任基础设施(印度)
iSprit的定向身份图(DIG)框架为儿童安全和AI治理实现可扩展的联合身份管理。
AI可追溯性和来源
联合和可扩展性
选择性披露
AI治理(FINOS)
金融服务AI治理的机器可读标准,将威胁映射到缓解措施和法律义务。
风险编目
合规自动化
全球标准
多媒体标准(ITU)
紧急护理和多媒体应用的全球AI标准,弥合技术、政策和通信差距。
内容来源
政策指导
技术标准