清研智库:六项发展促进美国的AI治理

今年对于美国人工智能(AI)的治理将是一个非常重要的时期。特朗普政府成功推动了数亿美元的AI研究资金,同时也鼓励联邦AI实践的正规化。拜登政府的联邦机构在努力遵守有关如何使用和规范AI的行政指导。除了通过AI支出增加之外,国会还责成白宫创建新的国家AI计划办公室来协调这些发展。所有这些都是在欧洲委员会(EC)提出《数字服务法案》时提出的,该法案将对互联网平台如何使用AI进行监督。欧洲委员会也准备在春季提出一种针对AI防护的综合方法。

1)联邦政府关于AI规定

2020年11月17日,管理和预算办公室(OMB)发布了关于何时以及如何规范企业使用AI的最终指导意见。提供了有关AI监督的广泛观点,提供了一组指导原则并普遍采用了反监管框架。至关重要的是,它还要求联邦机构在2021年5月17日之前提供合规计划,从而促使立即采取行动。根据OMB的要求,这些计划应记录机构在AI应用、对AI使用的信息收集,对AI创新的感知监管障碍以及计划的监管行动。在不久的将来,似乎不太可能对AI的监管进行重大立法改革,这意味着监管干预将为政府保护公民免受AI伤害的方法开创先例。

2)确保联邦政府使用AI的流程

2020年12月3日,白宫发布了执行命令,设定了对AI应用目录的时间表,启动了旨在确保联邦政府对AI信任使用的流程。为此,该行政命令列出了一套AI原则,并责成OMB在2021年6月1日之前制定实施这些原则的路线图。该路线图很可能会从行政令中的模糊原则转变为联邦政府如何使用AI的可操作规则。

该命令还责成联邦首席信息官委员会在2021年2月1日前制定AI应用清单的指导和要求。然后,联邦机构将有180天的时间(直到2021年7月左右),清点他们使用AI的方式,不包括机密或敏感的使用案例。这些清单打算在各机构之间共享,并尽可能地在2021年11月底之前公开。这很可能是联邦政府最广泛AI应用目录。

在进行清查的过程中,各机构要评估其AI应用是否符合行政命令中提出的AI原则。此外,据推测,机构清单和OMB路线图的发展将相互影响,乐观地说,这将导致一个更明智的过程和更高的标准,以实现联邦政府AI使用的可信和透明。

3)成立白宫国家AI倡议办公室

在《国防授权法》(NDAA)中,国会设立了一个新的国家AI倡议办公室用于协调联邦AI。在白宫科学技术政策办公室内,国家AI倡议办公室将在AI活动期间配备人员。特朗普政府对AI的高度关注,这通常会损害其他关键技术问题。如果拜登总统恢复与奥巴马政府类似的模式,由新的国家AI计划办公室领导AI项目。它可能仍会继续通知成立的国家科学技术委员会AI专责委员会以协调2018年的联邦研发工作。

此外,各机构将受益于一个具有特定技术知识的中央办公室,以协助AI的可信和透明应用。这个新的办公室可能会对AI的治理发挥重要作用,因为这个办公室将有能力在机构之间分享知识和建立合作。

4)扩大AI研究经费和能力

2020年,美国国家科学基金会(NSF)宣布拨款1.4亿美元,用于国内高校新成立的七个AI研究所。除了这些,NSF还启动了一项新的拨款程序,金额为1.6亿美元,到2021年将再增加8个AI机构。这笔资金将在5年内为国家AI机构网络提供总计3亿美元的资金。这也意味着NSF处于领先地位,更广泛地说,NSF要求 2021年将有8.68亿美元用于AI相关资金,这将仅占NSF2021年预算85亿美元的10%。仔细阅读NSF的预算要求,可以发现,到2021年,有关AI的基础研究(例如计算机视觉和自然语言处理的进步)可能会增加数千万美元,而不是数亿美元。这提醒我们,如何定义AI支出会对投资的衡量产生重大影响。

无论确切数字如何,NSF对AI的资助肯定在增加,NSF并不是AI研究的唯一非国防贡献者。NDAA还呼吁美国能源部推进AI研究计划。

5)欧盟即将颁布的AI立法

与美国内部的发展一样重要的是欧盟的预期。欧洲委员会(EC)主席一直将AI监督作为优先事项,并有望在2021年上半年出台立法。尽管由于COVID-19大流行而有所拖延,EC仍在朝着这一目标稳步开展工作,该立法将基于AI白皮书和伦理准则。

预计该立法将为高风险应用程序提供AI监督系统。EC还必须决定如何执行其新法律以及由谁来对AI损害负责。

该立法还冒着为欧洲与世界其他地区之间的某些算法服务建立数字边界的风险。许多可能具有高风险的AI系统都可以跨边界使用。对于美国而言,如果欧盟建立的制度限制比国会愿意批准的严格,则监管不一致可能会抑制贸易并降低法规的有效性。

6)欧盟针对技术公司治理的两项重要法规

欧共体已经针对技术公司的治理提出了另外两项重要的法规:《数字市场法》(DMA)和数字服务法(DSA)。DMA主要关注大型技术公司如何限制竞争,而DSA将对AI的使用产生重大影响。DSA将围绕在线内容托管(包括用户提供的内容和广告)创建新规则。尽管DSA对算法的工作方式没有任何特定要求,但它会增加透明度。

DSA还要求所有在线平台都提供用于广告定位的主要参数。这意味着,当用户看到广告时,它需要带有一个标签,该标签显示哪些变量在展示该特定广告时最重要。这可能是用户信息,例如他们的年龄、教育程度和经济状况。也可能是基于他们在该网站上使用的内容的用户行为,或者基于来自其他网站的跟踪信息。这种透明性将有可能帮助用户更好地了解针对他们的广告以及互联网平台对其进行监视的方式。此外,大型公司还必须提供广告数据库,包括广告的目标群体,

对于在欧盟拥有超过4500万活跃用户的超大型互联网平台,这并不是唯一的附加规则。DSA将为这些大型平台的功能提供新的见解。首先,平台必须允许独立的第三方审核来检查它们如何处理非法内容和平台操纵。其次,DSA将使获得批准的学术研究人员能够访问公司的数据集。如果研究人员能够获得原本私密的数据,这将了解平台算法的好处和害。最后,平台还需要提供更多关于其推荐系统工作方式的见解,由于此要求仅适用于整个算法,而不适用于单个内容,因此尚不清楚这将产生什么影响。

总而言之,DSA将带来世界上最透明的算法功能,至少对Facebook、Twitter、YouTube、TikTok和Amazon之类的大型互联网平台来说是如此,尽管某些透明性措施的效果可能不大,但研究人员从最大的平台上获取证据,对于改善其在社会中的作用可能具有巨大的价值。

到2021年,AI领域似乎还有更多可能。国会可能会限制使用面部识别,或者扩大联邦贸易委员会的权限,以减少最有害的AI实践。AI的全球合作伙伴关系可能会推动民主世界朝着更原则地使用AI的方向发展。负责任的AI和数据治理尤其值得关注。从对Facebook和Google的反垄断调查到EC提议的DMA,增强技术领域竞争的努力也可能对算法功能产生溢出效应。

新成立的国家AI计划办公室扩大了AI研究的资金和协调,使联邦政府在AI研究中的作用更加突出。随着联邦法规制定的全面实施,各机构现在需要开始做出选择,这可能会使美国走上不同于欧盟大胆举措的道路。

来源:布鲁金斯学会,清研智库李梓涵编译

相关文章