清研智库:警惕人工智能崛起引致的“算法监狱”

人工智能(AI)的潜在危险非常巨大,以至于我们需要非常谨慎地考虑其功能的强大程度。

AI仍处于起步阶段。但这很可能是有史以来最强大的技术。它具有改善健康,提高智力,提高生产力,保护环境以及增强自由与民主的潜力。

但是,随着智能的不断提高,以不负责任的方式使用AI的危险也带来了AI成为社会和文化炸弹的可能性。这项技术可以剥夺我们的自由、权力专制和种族灭绝,规划我们的行为,将我们变成人类机器,并最终使我们成为奴隶。因此,对于AI的崛起,我们必须非常谨慎,我们不敢犯错。我们最好的防御可能是将AI置于极端饮食状态中。

我们已经知道AI的某些威胁属性。一方面,这项技术的进步将继续以惊人的速度发展。最近,许多人可能对微软的声明感到震惊,即AI被证明比受过训练的放射线科医生更擅长阅读X光片。大多数报纸读者都不知道他们的日报现在有多少是AI写的。那是不应该发生的。机器人应该代替体力劳动,而不是专业的脑力劳动。然而,我们现在是:AI正在迅速吞噬整个行业,而这些工作将永远不会回来。

我们也越来越接近创造出具有人工通用智能的机器,即像人类一样聪明的机器。我们可能永远无法完全真正的意识,但是就处理能力、推理、隐喻甚至是后天的智慧而言,很容易想象AI超越人类。20多年前,国际象棋大师加里·卡斯帕罗夫在玩IBM的超级计算机“深蓝”时,感觉到了棋盘另一侧的想法。如今,全世界有数十万台电脑在使用,它们的功能比“深蓝”更强大,而且还不包括数百万台可以访问云计算的个人电脑。

我们也知道,利润动机以及权力和控制的意愿已经推动了大量的反社会应用程序库的快速增长。同时,在自由世界中,最令人担忧的威胁是工业界利用AI来剥削我们,特殊利益集团则利用AI来建立和操纵亲和力团体,从而使社会日益两极分化。在像这样的选举年代,后一种活动尤其令人震惊。我们还关注执法机构、国税局和监管机构如何利用这些手段更好地监视可能犯罪、逃税和犯下其他侵害行为的人。其中一些是必要的,但如果没有护栏,它可能会导致一个警察国家。

听起来很极端?想想我们所有人已经被拘留在所谓的“算法监狱”里,这是被违反我们的意愿的,甚至是违背我们的知识。”我们不知道是谁对我们判刑,甚至不知道刑期。我们所知道的是,基于某些AI系统对我们的行为做出的决定(例如低信用评级),我们的选择受到限制的。我们将对看到的信息进行预先决定:公司是否会查看我们的简历,或者我们是否有资格以优惠的利率获得房屋贷款,如果我们可以租用某套公寓,我们必须支付多少汽车保险(我们的驾驶质量通过连接到引擎计算机的新设备进行监控),我们是否会进入我们选择的学院以及警察是否应密切监控我们的行为。

展望未来,我们可以肯定的是,这种监视将继续增长。我们也知道,AI将被团体用来招募成员并影响他们的意见,而外国政府将利用AI来影响选举。我们还可以确定,随着AI工具变得越来越强大,以及物联网的发展,虚拟武器的武库将变得更加商业化和社会化。

我们需要采取行动。问题是,即使到现在,也很难将马带回谷仓。有关AI强大功能的警报已经引起了史蒂芬·霍金和埃隆·马斯克等人的警告。但是很难从立法上找出该怎么做。在没有破坏AI的巨大潜在优势的情况下,我们还没有看到任何会产生广泛影响的提议。

欧洲人现在拥有“解释权”,这要求AI系统做出的所有决策都具有一个人类可读的理由。当然,这种透明度是可取的,但尚不清楚它能起到多大的作用。毕竟,AI系统是不断变化的。因此,任何基于发现不公正行为而采取的行动都将像塑造水一样。AI将采用不同的形状。

我们认为更好的方法是降低 AI的威力。也就是说,不是要控制AI,而是将其置于极端饮食中。AI会消耗什么?我们的个人信息。

如果AI系统和负责“虚拟监狱”的算法无法掌握这些个人信息,无法满足他们对这些数据的无限渴望,它们必然会变得不那么具有侵略性和强大功能。

相关文章