我们的使命
人工智能为人类项目基于这样的信念:全球合作可以引导AI走向更加公平、安全和有影响力的未来。我们汇聚研究人员、技术专家和开源领袖,分享见解、识别共同挑战,并制定集体行动的路径。
执行摘要
来自2025年全球数字化协作会议的关键洞察
负责任的AI
- • 技术和治理的必要性
- • 九个维度:透明度、隐私、问责、安全、包容性、可持续性
- • 需要机器可读标准、开放工具和跨部门协调
模型协作与开放性
- • 通过可验证的模型、数据和计算开放性来对抗"开放清洗"
- • 采用宽松许可证和模型开放性框架(I-III类)
- • 扩大对数据集和计算的访问;保护语言/文化多样性
成熟度与评估
- • AI成熟度和评估仍然分散;专注于以人为中心的价值
- • 标准化审计/测试;情境感知指标和开放工具
- • 优先考虑现实世界影响而非炒作;增强人类能力vs盲目自动化
社会经济影响
- • 解决获取、人才和基础设施方面的不平等——特别是在全球南方
- • 利用开放系统减少信息不对称
- • 金融和气候用例需要透明、非黑盒方法
智能体AI与信任
- • 智能体放大风险(错误信息、身份欺骗、未授权行为)
- • 通过身份、来源(C2PA)、内容凭证和标准建立信任
- • 架构问责、监督和安全委托
会议要点
专家演讲的详细见解和实用建议
第一场 — 负责任的AI
RGAF(9个维度) TrustyAI工具 身份与来源 FINOS治理
第一场 — 负责任的AI
RGAF(9个维度) TrustyAI工具 身份与来源 FINOS治理
- 为公平、安全、可解释性和一致性而工程;不仅仅是原则。
- 采用机器可读控制、风险/缓解目录和开放可审计性。
- 在敏感领域(如儿童安全)使用联合身份和可追溯性。
第二场 — 模型协作
真正的开放性 MOF(I-III类) 开放数据与计算 语言保护
第二场 — 模型协作
真正的开放性 MOF(I-III类) 开放数据与计算 语言保护
- 通过宽松许可证和可验证的开放性来对抗"开放清洗"。
- 扩大对多样化数据集和可负担计算的访问,包括新兴经济体。
- 与全球机构合作,在AI中保护语言和文化。
第三场 — 成熟度与评估
以人为中心的价值 标准化测试 情境感知指标
第三场 — 成熟度与评估
以人为中心的价值 标准化测试 情境感知指标
- 超越炒作;目标是增强人类能力。
- 建立跨领域的共享基准和评估实践。
- 开源工具+多利益相关者审查以提高可靠性和透明度。
第四场 — 社会经济影响
公平与获取 全球南方能力 开放系统 气候金融
第四场 — 社会经济影响
公平与获取 全球南方能力 开放系统 气候金融
- 投资能力建设、基础设施和服务不足地区的情境感知模型。
- 使用开放数据和工具来减少信息垄断。
- 在金融/气候领域应用透明模型以避免黑盒风险。
第五场 — 智能体AI
身份 来源(C2PA) 委托与监督 安全 ≠ 信任
第五场 — 智能体AI
身份 来源(C2PA) 委托与监督 安全 ≠ 信任
- 部署内容凭证和来源以对抗错误/虚假信息。
- 为智能体设计问责:记忆、身份、审计痕迹和安全工具访问。
- 采用监控/批评智能体和预行动政策检查。
结论与建议行动
将会议洞察转化为即时的下一步行动。优先考虑试点、透明报告和多方利益相关者协调。
1 透明度与许可
发布透明的模型/数据集卡片;采用宽松的开放许可证(如Apache-2.0/MIT)。
2 独立AI审计
试点独立、开放的高风险AI审计,采用机器可读控制(如FINOS风格)。
3 全球注册与计算
建立开放模型/数据集的全球注册表和用于教育/研究的共享计算试点。
4 跨地区工作组
启动关于评估标准和语言/文化保护的跨地区工作组。
5 内容凭证与监督
在生产试点中部署内容凭证(C2PA)和智能体监督模式。
6 事件响应手册
创建AI危害的事件响应手册,并与监管机构进行桌面演习。
资源
下载人工智能为人类倡议的关键报告和文档
实施框架
访问包括RGAF、MOF和TSP在内的关键框架,用于实施负责任的AI实践
即将推出
社区指南
参与工作组和协作开发的指南
即将推出