2024 年 7 月 26 日
九个月前,拜登总统发布了一项具有里程碑意义的行政命令,以确保美国在抓住人工智能 (AI) 的机遇和管理其风险方面发挥带头作用。这项行政命令建立在他和哈里斯副总统去年从 15 家美国领先 AI 公司获得的自愿承诺的基础之上。
今天,政府宣布苹果公司已签署自愿承诺,进一步巩固了这些承诺作为负责任的 AI 创新的基石的地位。此外,联邦机构报告称,他们按时完成了行政命令中规定的所有 270 天行动,此前他们已按时完成了迄今为止要求的所有其他任务。
各机构还在其他更长时间的工作上取得了进展。继行政命令和哈里斯副总统在全球人工智能安全峰会上发表重要政策演讲时发出的一系列行动号召之后,各政府机构都采取了大胆行动。他们已采取措施减轻人工智能的安全风险,保护美国人的隐私,促进公平和公民权利,维护消费者和工人权益,促进创新和竞争,提升美国在全球的领导地位等等。
各机构今天报告的已完成行动包括:
管理安全风险:
在 270 天内,行政命令指示各机构采取全面行动解决人工智能的安全风险,包括发布重要安全指南和建设测试和评估人工智能的能力。为了保障安全,各机构采取了以下措施:
人工智能安全研究所 (AISI) 发布了一项新技术指南,供公众评论,该指南旨在帮助领先的人工智能开发人员管理对双重用途基础模型滥用的评估。AISI的指南详细说明了领先的人工智能开发人员如何帮助防止功能日益强大的人工智能系统被滥用来危害个人、公共安全和国家安全,以及开发人员如何提高其产品的透明度。
发布了关于管理生成式人工智能风险以及安全开发生成式人工智能系统和双重用途基础模型的最终框架。美国国家标准与技术研究院 (NIST) 发布的这些文件将提供基于 NIST 人工智能风险管理框架的额外指导,该框架为个人、组织和社会提供了管理人工智能风险的框架,并已在美国和全球得到广泛采用。NIST 还向白宫提交了一份报告,概述了降低合成内容风险的工具和技术。
开发并扩展了美国能源部 (DOE) 的 AI 测试平台和模型评估工具。DOE与跨部门合作伙伴协作,利用其测试平台评估 AI 模型的安全性和保障性,尤其是 AI 模型可能对关键基础设施、能源安全和国家安全构成的风险。DOE 的测试平台还用于探索新型 AI 硬件和软件系统,包括提高 AI 可信度的隐私增强技术。美国国家科学基金会 (NSF) 还发起了一项计划,资助联邦政府以外的研究人员设计和规划 AI 就绪测试平台。
报告了试点使用人工智能保护重要政府软件的结果。 国防部 (DoD) 和国土安全部 (DHS) 报告了其人工智能试点的结果,旨在解决分别用于国家安全目的和民用政府的政府网络中的漏洞。这些举措以先前的工作为基础,旨在在行政命令发布后的 180 天内推进此类试点。
性别政策委员会和科学技术政策办公室发出行动呼吁,打击基于图像的性虐待,包括人工智能生成的合成内容。基于图像的性虐待已成为迄今为止增长最快的人工智能有害用途之一,行动呼吁邀请科技公司和其他行业利益相关者遏制这种行为。这一呼吁源于哈里斯副总统在伦敦人工智能安全峰会前的讲话,他强调,基于深度伪造图像的性虐待是一个紧迫的威胁,需要全球采取行动。
将人工智能人才引入政府
去年,行政命令启动了一项政府范围的人工智能人才大潮,将数百名人工智能和人工智能支持专业人士引入政府。受聘人员正在从事关键的人工智能任务,例如为使用人工智能进行许可的工作提供信息、为整个联邦政府的人工智能投资提供建议以及为政府使用人工智能制定政策。
为了提高联邦政府在国家安全和非国家安全任务中的人工智能能力,人工智能人才激增计划迄今已招聘 200 多名员工,包括通过总统创新研究员人工智能团队和国土安全部人工智能军团。
在《人工智能人才激增六个月报告》的基础上,白宫科技政策办公室宣布了来自整个技术生态系统的新承诺,包括近 1 亿美元的资金,以支持更广泛的公共利益技术生态系统,并建设将技术人员引入政府服务的基础设施。
推进负责任的人工智能创新
拜登总统的行政命令指示采取进一步行动,抓住人工智能的前景,巩固美国在人工智能创新方面的领先地位,同时确保人工智能在我们的经济和社会中得到负责任的开发和使用。在 270 天内,各机构已经:
已编制并将很快发布一份关于两用基础模型的潜在利益、风险和影响的报告,该模型的权重广泛可用,包括相关的政策建议。商务部的报告借鉴了与专家和利益相关者的广泛接触,包括就此主题提交的数百条公众意见。
通过国家人工智能研究资源 (NAIRR) 试点项目,向 80 多个研究团队授予了使用计算和其他人工智能资源的权限。该项目是由 NSF 牵头的国家基础设施,与 DOE、NIH 以及其他政府和非政府合作伙伴合作,提供可用资源来支持国家的人工智能研究和教育界。受支持的项目将解决深度伪造检测、提高人工智能安全性、实现下一代医疗诊断以及进一步推进其他关键的人工智能优先事项。
发布了一份设计用于教育的安全、可靠和值得信赖的人工智能工具的指南。教育部的指南讨论了教育技术开发人员如何设计出有利于学生和教师的人工智能,同时促进公平、公民权利、信任和透明度。这项工作以教育部 2023 年的报告为基础,该报告概述了在教学中使用人工智能的建议。
发布了关于评估涉及人工智能技术 以及其他新兴技术发明的专利权利要求的资格的指南。美国专利商标局的指南将指导那些在人工智能领域进行发明的人保护他们的人工智能发明,并协助专利审查员审查人工智能发明的专利申请。
发布了一份关于过去四年联邦政府为推动可信赖的人工智能而进行的研发的报告。国家科学技术委员会的这份报告审查了联邦政府每年近 30 亿美元的人工智能研发预算。
启动了一项 2300 万美元的计划,以推动使用隐私增强技术来解决现实世界的问题,包括与人工智能相关的问题。NSF 将与行业和机构合作伙伴合作,通过其新的隐私保护数据共享实践计划进行投资,努力将隐私增强技术应用于特定用例,使其成熟和扩展,并建立试验台以加速其采用。
宣布进一步投资数百万美元,以推动整个社会负责任的人工智能开发和使用。其中包括通过 NSF 的“新兴和新技术体验式学习”计划投资 3000 万美元,该计划支持人工智能等领域的包容性体验式学习;以及通过 NSF 的 ExpandAI 计划投资 1000 万美元,该计划帮助少数族裔服务机构提高人工智能研究能力,同时促进多元化、具备人工智能能力的劳动力队伍的发展。
提升美国在海外的领导地位
拜登总统的行政命令强调,美国领导全球努力释放人工智能的潜力并应对其挑战。为提升美国在人工智能领域的领导地位,各机构采取了以下措施:
发布了美国参与全球人工智能标准的综合计划。 该计划由 NIST 制定,广泛听取了公共和私营部门的意见,确定了人工智能标准工作的目标和优先领域,并为包括美国机构在内的美国利益相关者制定了行动计划。NIST 和其他机构将在 180 天内报告优先行动。
制定了管理人工智能对人权构成的风险的指导方针。美国国务院与 NIST 和美国国际开发署密切合作制定了“人工智能与人权风险管理概况”,根据 NIST 人工智能风险管理框架向世界各国政府、私营部门和民间社会提出行动建议,以识别和管理因设计、开发、部署和使用人工智能而产生的人权风险。
建立了一个由人工智能安全研究所和其他政府支持的科研机构组成的全球网络,以在技术层面推进人工智能安全。该网络将加速关键信息交流,并推动制定通用或兼容的安全评估和政策。
发起具有里程碑意义的联合国大会决议。该决议获得一致通过,得到100多个共同提案国的支持,为世界各国推动安全使用人工智能以应对全球挑战勾勒出共同愿景。
扩大全球对美国主导的《关于负责任地军事使用人工智能和自主性的政治宣言》的支持。 目前已有 55 个国家支持该政治宣言,该宣言概述了一套负责任地开发、部署和使用军事人工智能能力的规范。
商务部宣布新指南和工具
美国商务部今天宣布,在拜登总统发布关于人工智能安全、可靠和可信赖发展的行政命令(EO)270天之际,发布新的指南和软件,以帮助提高人工智能(AI)系统的安全性、可靠性和可信度。
美国商务部的国家标准与技术研究所 (NIST) 发布了三份最终指导文件(于 4 月首次发布以征求公众意见),以及美国人工智能安全研究所发布的旨在帮助降低风险的指导文件草案。NIST 还发布了一个软件包,用于衡量对抗性攻击如何降低人工智能系统的性能。此外,商务部的美国专利商标局 (USPTO) 发布了一份关于专利主题资格的指导更新,以解决包括人工智能在内的关键和新兴技术的创新问题,国家电信和信息管理局 (NTIA) 向白宫提交了一份报告,研究了具有广泛可用权重的大型人工智能模型的风险和收益。
NIST 发布的文件涵盖了人工智能技术的各个方面。其中两份文件今天首次公开。一份是美国人工智能安全研究所发布的指导文件的初次公开草案,旨在帮助人工智能开发人员评估和减轻生成式人工智能和双重用途基础模型(可用于有益目的或有害目的的人工智能系统)所带来的风险。另一份是一个测试平台,旨在帮助人工智能系统用户和开发人员衡量某些类型的攻击如何降低人工智能系统的性能。在剩下的三份文件中,有两份是指导文件,旨在帮助管理生成式人工智能(这项技术支持许多聊天机器人以及基于文本的图像和视频创建工具)的风险,并作为 NIST 人工智能风险管理框架(AI RMF)和安全软件开发框架(SSDF)的配套资源。第三份文件提出了美国利益相关者与全球其他利益相关方合作制定人工智能标准的计划。
有关 NIST 公告信
防范双重用途基础模型的滥用风险
人工智能基础模型是功能强大的工具,可用于广泛的任务,有时被称为“双重用途”,因为它们既可能带来好处,也可能带来坏处。NIST 的美国人工智能安全研究所发布了《双重用途基础模型滥用风险管理指南》的初稿,其中概述了基础模型开发人员如何保护其系统免遭滥用而对个人、公共安全和国家安全造成故意伤害的自愿最佳实践。
该指导草案提出了七种降低模型被滥用风险的关键方法,并就如何实施这些方法以及如何保持实施透明度提出了建议。这些做法结合起来,有助于防止模型通过开发生物武器、进行攻击性网络行动以及生成儿童性虐待材料和非自愿亲密图像等活动造成伤害。
人工智能安全研究所正在接受公众对《 管理双重用途基础模型的误用风险》草案的意见,截止日期为 2024 年 9 月 9 日东部时间晚上 11:59。意见可以电子方式提交至NISTAI800-1@nist.gov,主题行请注明“NIST AI 800-1,管理双重用途基础模型的误用风险”。
测试人工智能模型如何应对攻击
人工智能系统的弱点之一是其核心模型。通过将大量训练数据暴露给模型,模型可以学会做出决策。但是,如果对手用不准确的数据毒害训练数据——例如,通过引入可能导致模型将停车标志误认为限速标志的数据——模型可能会做出错误的、可能造成灾难性的决策。测试对抗性攻击对机器学习模型的影响是 Dioptra 的目标之一,Dioptra 是一个新软件包,旨在帮助人工智能开发人员和客户确定他们的人工智能软件在抵御各种对抗性攻击方面的能力。
该开源软件可供免费下载,可帮助包括政府机构和中小型企业在内的社区进行评估,以评估人工智能开发人员对其系统性能的声明。该软件响应了行政命令第 4.1 (ii) (B) 节,该节要求 NIST 协助进行模型测试。Dioptra 通过允许用户确定哪些类型的攻击会使模型性能降低并量化性能下降来实现这一点,以便用户可以了解系统在何种情况下会失效。
管理生成式人工智能的风险
AI RMF 生成式 AI 概况( NIST AI 600-1 ) 可以帮助组织识别生成式 AI 带来的独特风险,并提出最符合其目标和优先事项的生成式 AI 风险管理行动。该指南旨在成为 NIST AI RMF 用户的配套资源。它以 12 种风险列表和开发人员可以采取的 200 多种措施为中心。
这 12 项风险包括降低网络安全攻击的准入门槛、制造虚假信息、仇恨言论和其他有害内容,以及生成人工智能系统虚构或“产生幻觉”输出。在描述每种风险后,该文件提出了开发人员可以采取的缓解措施矩阵,这些措施与人工智能 RMF 相对应。
减少对用于训练人工智能系统的数据的威胁
第二份最终出版物《生成式 AI 和双重用途基础模型的安全软件开发实践》(NIST 特别出版物 (SP) 800-218A )旨在与安全软件开发框架 ( SP 800-218 )一起使用。虽然 SSDF 广泛关注软件编码实践,但配套资源扩展了 SSDF,部分解决了生成式 AI 系统的一个主要问题:它们可能会受到恶意训练数据的攻击,从而对 AI 系统的性能产生不利影响。
除了涵盖人工智能系统训练和使用的各个方面,这份指导文件还确定了潜在的风险因素和应对策略。除其他建议外,它还建议分析训练数据,以发现中毒、偏见、同质性和篡改的迹象。
全球参与人工智能标准
人工智能系统不仅在美国国内,而且在世界各地都在改变社会。今天发布的第三份最终出版物《全球人工智能标准参与计划》(NIST AI 100-5)旨在推动全球范围内人工智能相关共识标准的制定和实施、合作与协调以及信息共享。
该指南以 NIST 制定的《联邦参与人工智能标准和相关工具计划》中概述的优先事项为依据,并与《国家关键和新兴技术标准战略》挂钩。该出版物表明,来自许多国家的更广泛的多学科利益相关者参与了标准制定过程。
《双重用途基础模型滥用风险管理指南》:https://doi.org/10.6028/NIST.AI.800-1.ipd
《生成式 AI 和双重用途基础模型的安全软件开发实践》:https://doi.org/10.6028/NIST.SP.800-218A
《全球人工智能标准参与计划》:https://doi.org/10.6028/NIST.AI.100-5