【时事军事】AI军事化比杀手机器人更危险
The Epoch Times
可否将核武器控制权交给人工智能,是个两难的问题。
美中领导人11月15日在旧金山举行的峰会上取得有限的口头认同中,包括同意在人工智能上合作及恢复军事方面的交流。但是这些口头上的承诺远没有大熊猫返回中国那么确定。然而,一些不确定的问题可能对未来有很大的影响。
峰会前就有报导称,这次峰会将宣布一项协议,禁止在包括核武器在内的多个领域使用人工智能。实际上,这次峰会没有达成这方面的协议,但白宫和中共外交部发布的消息提到了美中就人工智能进行谈判的可能性。峰会结束后,拜登在向媒体发表的讲话中解释说,“我们将让我们的专家聚集在一起,讨论与人工智能相关的风险和安全问题。”
美中官员都没有透露哪些专家将参与,或将讨论哪些风险和安全问题。当然,有很多话题值得讨论。这些讨论可能涉及不符合人类价值观的人工智能系统的所谓灾难性风险、日益普遍使用的致命自主武器系统(也有人称其为“杀手机器人”)以及人工智能在决定使用核武、下令核打击和执行核打击方面可能承担的角色。
但是,美中之间达成共识并形成一个有约束力的协议的前景一点也不乐观。可能不会出台条约或禁令的原因是多方面的,但至少有两个关键原因。一个是没有一个共识的简单明了的定义,以区分无害的广泛用于日常生活的人工智能和未来对人类可能构成致命威胁的人工智能。人们认为应用于工业管理、自动机械、系统分析等领域的人工智能,通过对大量数据的处理,推动了现代科技,深刻影响着人类社会。这就引出了第二个原因,它太有用了,以致没人愿意将人工智能排除在军事领域之外,更不愿意因人工智能的缺席而使自己在竞争中处于劣势。
人工智能在民用领域的成功同样可以复制在军事斗争中,实际上它们早就成功地用于军事目的。美国、中共和其它国家正在竞相将这些进步融入各自的军事系统,人工智能领域的军备竞赛已经不可避免地展开。人们担心的是在这一领域的竞争中不要被甩在后面,而不是在人类命运的基础上,负责任地寻找更明智的解决办法。
在所有潜在风险中,人工智能与核武器的结合最令人担忧。人工智能系统是如此聪明、快速,并正在成为人类活动的核心,它对人类未来的严重影响,值得人们花点时间思考,或者至少,让各方阵营的专家放下立场观念讨论这些问题。
美国一直试图通过负责任地讨论人工智能的发展来解决这个问题。美国国务院一直在推动关于军事上负责任地使用和限制人工智能自主权的政治宣言。这既不是禁令,也不是具有法律约束力的条约,而是一套基于人类安全的原则。
美国人的宣言概述了使用人工智能的几项原则,其要点是,在由人工智能管理的武器控制链中,要有一个人类决策者来做出生死攸关的决定。这通常被称为包含人类的指挥和控制环路。其目的是解决与人工智能相关的风险,就是确保自主武器系统不会不分青红皂白地杀人。这个原则适用于从无人机到战车、导弹、飞机、军舰、潜艇等所有武器装备。相比之下,最大的潜在风险是核武器,包括那些搭载核弹头的洲际弹道导弹、轰炸机和潜艇。