【菁英论坛】AI自主武器将现 人类面临奇异点
The Epoch Times
你不知道中美AI对抗激烈到什么程度?美国被迫放弃底线。中共痛失2名高手意味着什么?
独立电视制片人李军在新唐人《菁英论坛》节目中表示,谈到AI的未来,我是非常悲观的。我记得那时候有一部电影,就是《黑客帝国》,我看了不下十遍,因为这部电影引起了我对整个人类科技的一种反思。就是一开始总觉得科技发展是好事,但是如果按照《黑客帝国》电影所描述的场景, AI控制的智能机器和人类发生了战争,最后人类战败了,只有极少部分人逃到了地下城市锡安来维持人类的生存。而大部分人类成为AI创造的一个虚拟现实的电池。这部电影实际是讲了一个逻辑,就是人类科学是在朝这个方向走,所以我当时看了之后非常震惊。因为我是个有神论者,我相信这是神对人的警告,警示人类,如果按照现在这种科技发展下去,有可能最后有一天人类真的会成为机器人的一块电池。我相信在西方国家,很多人看了这个影片之后也有这种概念,所以今天大家会看到社会上有很多人是反对AI高速发展的。他们认为要去控制AI,要去规划它、监管它。
但是现在AI产业被认为是人类下一个最有前景的产业,当人的欲望被控制的时候,他那种理性的东西已经失控了,所以很多人已经在这个领域不断去研究一些突破底线的东西。
今年后半年以来,中国两个AI顶尖人物死了。一个是7月1号,中共AI军事推演的顶尖专家冯旸赫突然出车祸死亡。现在到了年底了,中国商汤科技的创始人汤晓鸥12月15号在睡梦中离奇的去世了。汤晓鸥这个人很特别,他是中国人脸识别AI系统的一个顶尖人才,而且商汤科技还聚集了中国AI方面的大量人才,商汤科技是一个军工复合体,汤晓鸥也是军方的人。
大纪元资深编辑与主笔石山在《菁英论坛》表示,我们现在看到的这种AI,业界叫做ANI,中文翻译过来叫弱AI或者弱的人工智能。也就是说人类指定一个任务,它可以比人类完成的好,人类不指定的任务,它是不会去自动拓展的。然后就是AGI就是Artificial General Intelligence,通用人工智能,就有点像是强AI了。强AI的意思就是说,你给它设定一个基本的东西,它就能跟人做的差不多了,它也可以自己学习收集资料,任何领域,你只要给它提一个问题,它自己去学习,就能跟你做的差不多了。现在的chatGPT就往这个方向在走。
但是未来还有一种AI,这是更恐惧的,叫做ASI,就是超级AI了,超级人工智能,它的定义是什么呢?它可以自己设计它的底层逻辑,这个时候恐怕人类就控制不住了。所以我们在谈AI到底能走到哪一步的时候,大家知道这三个阶段,我们可能要谈到是AGI和ASI这个部分,到了这个部分,我们还能不能控制机器?到底是谁在控制谁?
石山说,我记得上世纪五十年代的时候,美国非常有名的科普作家阿西莫夫在写书的时候,他写了机器人三法则。第一法则是机器人不得伤害人类或坐视人类受到伤害。第二法则是机器人必须服从人类的命令,除非命令与第一法则发生冲突。第三个法则是在不违背第一或第二法则之下,机器人可以保护自己。后来他发现这里面还有漏洞,他又加了一个第零法则,所以就变成了阿西莫夫的四法则了,他加了个第零法则,机器人不得伤害整体人类,或坐视整体人类受到伤害,这个是第零法则。然后才是第一法则,除非违反第零法则,否则机器人不得伤害人类或坐视人类受的伤害。他把个体人类放在整体人类之下了,这个时候就发生变化了,你怎么衡量整体人类受到伤害?如果AI判断整体人类可能受到伤害,它就可以伤害个体人类了,这里面的逻辑陷阱是越填反而越大了,所以这里面就非常可怕。所以人工智能开发全人类一直都是小心翼翼,担心会不会超越这个所谓的奇异点。
大纪元时报总编辑郭君在《菁英论坛》表示,马斯克曾经谈这个奇异点问题,他的第一个观点就是,一旦人工智能用于军事或者武器,就可能超越这个奇异点,因为武器的攻略是伤害人类。那现在人工智能的武器已经开始了,比如说无人的自动武器系统,不管是自动行走的,还是自动飞翔的,只要是自动武器系统,它都有一定的自主决定权,目的就是伤害人类。只不过所有人都希望它去伤害敌人,而不是伤害自己,但是敌人也是人类。所以目前人工智能武器还有一个就是限制,就是说最终决定权是由人来控制,但是这种控制未来是否能够被舍弃掉,最后由机器人自己来决定呢?说实话这是很有可能的。