清研智库:AI的创新迫切需要法律的规范

近年来,科技公司在推进人工智能(AI)方面取得了长足进步。根据经合组织的数据,60个国家的300多项政策和战略举措都在关注AI对社会、企业、政府和地球的影响。为了对这些实体进行监管,并帮助更好地制定规则,需要新的法律框架。

从广义上讲,AI分为两类–广义AI(旨在模仿人类智能)和狭义AI(应用于特定领域、定义的任务,如医疗诊断或汽车导航)。目前,大多数AI的发展都集中在狭义AI范畴。许多应用可能会汇聚成广义AI,但现在技术上还不可行。比尔·盖茨、埃隆·马斯克和物理学家霍金等多位知名人士都对广义AI的发展表示担忧,因为广义AI有可能超越人类,构成生存威胁。因此,AI的发展往往集中在狭义AI上。

狭义AI包括各种研究子集,如机器学习、自然语言处理、自动化、神经网络和社交智能,帮助虚拟助手与用户对话。然而,这些系统都是在无人监督的情况下通过代码来执行和做出决策的。因此,描述这类程序更准确的术语是自动化或无监督决策系统。

AI算法和系统所做的决定是不可知的,是源于黑匣子中单独的客观智能。它可以帮助这些无监督的决策承担更大的责任。但在使用这个定义时,还需要了解这些系统的无监督程度,并对它们进行分类。电商网站用于展示广告的网络决策与工厂车间管理自动化算法的复杂程度是不一样的。自动化决策对二者的影响是截然不同的,对用户的风险也不同。

随着我们的进步,政府将在无监督决策系统中遇到更多棘手的道德问题。例如,在美国已经发生了几起与自动驾驶汽车相关的事故和死亡事件。由于不是人而是算法在管理和驾驶这些汽车,因此出现了问责和责任问题。在车祸中,算法能否像人类一样为自己的行为负责?在Uber的案例中,测试自动驾驶功能的操作者要对横穿马路行人的死亡负责,而不是作为公司的Uber。对算法的惩罚性行动会是怎样的?现有的法律框架能否对其进行规范?

关于如何监管AI并追究其责任的辩论有很多。机器伦理学领域关注的是为AI添加道德行为,以确保它以人为本。机器伦理学还质疑可以赋予AI什么样的权利,以及如何实现它。规范AI可能需要借鉴过去工业革命的经验教训,建立新的法律框架。如果目标是在AI中编码人类的道德和价值观,并最终赋予机器一些人权,那么或许值得深入研究公司法,为新框架寻找灵感。

在18世纪和20世纪,公司获得了法人地位,现在被认为是法人,与个人享有同样的权利和责任。与人类一样,公司被允许拥有财产、举债、起诉和被起诉、行使人权并对侵犯这些权利的行为负责,并被指控犯有欺诈和过失杀人等罪行。

公司的成立,是指一群人或公司为了一个目的而作为一个单一的实体行事。公司的人格与成立公司的个人是分开的。同样,AI的发展也涉及到各种参与者,无论是资金还是其他方面。可以说,AI的人格是复合的,是独立于个人出资者的,因此有理由赋予其法人资格。

借鉴公司法对新框架也有好处,因为它提供了注册各种形式的无监督和自主决策系统的结构,如成立公司。这将有助于监测和评估这些系统的风险,以便更好地进行监管。

然而,鉴于该技术给人类带来的潜在危险,构成公司的一个关键特征有限责任的概念,不应适用于新的AI框架。有限责任制鼓励企业家精神,以帮助将大量资金用于实现经济利益的目的,并保护股东免受外部风险。但批评者认为,它也促进了企业的不负责任和以进一步提高股东利润的名义误入歧途。多年来研究公司行为的法学教授Joel Bakan将公司的个性比作精神病患者,经常在促进自身利益(利润)的同时,通过助长对环境的破坏和无视合法行为的社会规范来危害员工、客户和广大公众。

AI框架应该比公司享有的有限责任有更高的标准。根据AI应用所承担的风险,严格责任或绝对责任的原则,一个人对不可预见的活动的后果负有法律责任,即使没有过错或犯罪意图,应适用于新框架。这种责任学说的应用有助于确保无监督决策系统的开发者采取负责任的行为,并在部署这些系统并与人类交互之前尽可能多地考虑到外部因素。

许多开发AI的科技公司已经大胆地公开呼吁负责任地使用AI,以维护人类的权利和价值。企业表示,他们正在聘请伦理学家设计道德准则,并建立审查委员会、审计跟踪和培训。然而,企业追求利润最大化的目标迫使Palantir和Clearview AI等公司将其AI产品卖给国家和执法机构,践踏了所有用户的权利,忽视了对潜在滥用的深层担忧。在这样的环境下,迫切需要建立一个法律框架,迫使公司思考其开发的AI产品的后果,并就企业责任展开更广泛的辩论。

作者SHASHIDHAR KJ,清研智库李梓涵编译

相关文章