中兴事件还在发酵,让我想起一些遥远的事情。
各种机器人或者人工智能已经不新鲜了。扫地机器人已经上市,据说米国在开发机器人佣人,还有不少在开发性爱机器人。库房搬运机器人、停车场机器人、医院送药机器人、陪护机器人、机器人医生、银行机器人,炒股机器人等已经出现。外科手术机器人、急救无人机、自动驾驶等正在开发。还有人说未来警察、法官、税务等都执法人员可以用人工智能代替,保证公平公正,执法如山,不会徇私枉法。再加上机器学习,前不久阿尔法狗打得全世界一流棋手几乎没有还手之力,引起轰动。
民用领域主要是商业竞争,但在顶尖层面军品和民品没差别,这让我想起年轻时读科普书接触到的阿西莫夫三原则。阿西莫夫是米国科普作家,1950年出版了一本书,《我,机器人》,书中提出了著名的三条原则,后来被称为“机器人学三定律”,或者“机器人学三大法则”。如下:
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
此后,又出现了一条“第零定律”。
第零定律:机器人必须保护人类的整体利益不受伤害。
阿西莫夫写那本书时,还没有机器人,后来很长时间里好莱坞电影假想的机器人看起来都很笨拙,但是,技术发展一直没有放弃努力。我在上海交大就读时,学校就有研究机器人的项目,我去参观过,那时的机器人可以拖着一大堆电线走几步,但自重和负重不成比例。阿西莫夫以后,机器人持续发展,在世界范围内,“机器人学”的法则也从最初的三条发展出新的法则,其中还包括机器人“繁殖”法则。各家归纳、叙述不太一样,有的五条,有的六条等。但最核心的是阿西莫夫当年写下的第一条:机器人不得伤害人类个体。简化地说,机器人不能杀人。
如今,科技飞速发展,机器人也越来越先进。但阿西莫夫提出的法则,似乎已经被遗忘了,很少再被人提起。例如,无人机已经开始杀人。据报道,叙利亚战争中已经投入了俄罗斯的战斗机器人。机器人用于军事已经不新鲜,米军“机器狗”目前主要是用于替士兵背负装备,还没有直接使用武器。但各种可以自己扣动扳机的机器人已经出现,只不过还没有正式装备军队。前不久有一个视频在网上传播,内容是米国人制造了可以携带几克炸药的微型无人机,通过人脸识别,精确地找到要刺杀的对象。米国早在讨论是否应该组成机器人军队,以后打仗最前线不需要自然人士兵了,或者自然人只是指挥官,冲锋陷阵的都是机器人士兵。甚至连指挥都可以是人工智能。阿西莫夫三原则显然已经没人关心了。
阿西莫夫只是一个作家,即便后来有一些科学家、社会学家加入,讨论、确定、完善“机器人学法则”,对于实际应用并没有绝对的约束力,那只不过一些理论家、思想家的美好愿望。“机器人不能杀人”的原则早已经被打破,各种机器人杀手、机器人士兵会越来越多。理论上专家们在讨论,那将改变未来的战争形态,有人说未来战争不会死人了。但那只是科技实力、经济实力强大的一方,其他弱小者还得靠自然人士兵,他们会不会成为肆意猎杀的对象。如果不会死人,或者说强大的一方自己不会死人,是否会导致发动战争更轻易随便?如果没有机器人士兵的弱小一方被肆意欺凌,是否会导致恐怖主义更为流行?还有人提出,既然阿尔法狗显示出强大的学习能力,未来可以让机器人士兵学习人类的道德原则,那就不会随意杀人。但又有人说,真那样,机器人是否真的会像好莱坞电影里那样,开始统治人类?到那时,拯救人类的会是谁?好莱坞电影里,拯救人类的也是机器人,如施瓦辛格饰演的角色,或者变形金刚。人类是否要给自己造一个新的上帝?
哲学家赵汀阳先生对人工智能的未来有比较深入的思考,其中一条,他反对人工智能武器,并且设想给人工智能配备自毁程序以保护人类。看似很遥远的事情,其实已近在眼前,因为无人机之类的武器已经在杀人了。此外,我与赵汀阳先生还讨论了一个话题:人工智能是否会改变人类的繁衍方式?具体来说,机器人性伴侣的完美以及可满足喜新厌旧地随时更换,是否会导致自然人结婚生育成为鸡肋?如果需要自然人,是否将会按优生原则,由机器子宫的工厂生产?人工智能给人类带来很大挑战。究竟有多严重?我们不知道。已经去世的霍金对此发出过警告,不知有没有影响。
核武器出现后,国际社会出现了一些约束性规则,生化武器也一样。未来是否也会出现对人工智能武器的国际性约束规则?但我们应该注意到,制定这些约束规则都是掌握最尖端技术的一方,比方说非洲国家就没有参与制定规则的能力。国际社会“禁止生化武器条约”一战以后就有了,但那时发达国家中只有米国、日本这两个没有加入,因为那时候他们的生化武器技术还不如欧洲。一直到上世纪70年代,米国将二战期间战败国日本的生化武器技术都拿到手并消化、发展,确信自己的生化技术已经是世界第一后,才加入“禁止生化武器条约”。此后,禁止生产、使用生化武器的对象,便都是针对别人。如今如火如荼的生物技术是否也有这种看不见的路线图?
前事不忘后事之师。未来哪一天,等到米国自信已有完善的“机器人士兵”、“机器人军队”,再推出限制“机器人士兵”发展的国际规则,不是没有可能。曾经有某位将军信任米国的道德和善良,说:把核武器统统让米国掌管,世界就会太平。我们能接受吗?
科技是进步的最大推动力。长期以来,全世界都形成了对于科技的崇拜。任何事物,只要一沾上“科学”两字,似乎就变得绝对正确、无法抗拒。例如,科学饮食、科学睡眠等等。事实上,我们还应该看到,当今世界很多危害也是科技造成的。例如污染。有人说科学本身无害,如何使用才是问题。但是,日本731部队用活人试验的科学方式无害吗?种族主义用颅骨尺寸、脑容量等建立的科学无害吗?就算我们可以在事后说,那不是科学,那是伪科学之类,但这只是在危害出现之后才有的结论。在危害没出现之前,科学家们不是兴致勃勃地投入其中吗?以至于过了几十年、上百年,它还在造成严重的悲剧。
有人说,科技进步能解决已经出现的问题。也许。但是,科技进步是否又会带来新的严重问题?人工智能让我们看到这种迹象。但愿在全人类意义上,这只是杞人忧天。但在现实中,科技既是经济的主导力量,也是军事的制高点,更是话语权控制的魔术棒。在当今现实以及可预见的未来中,科技毫无疑问是政治必不可分的一部分,因而,科技也极容易同意识形态、生存毁灭等问题紧密挂钩。所以,我们既要在全人类的层面看到科技既有利也有害的两面性,还应该在现实层面高度关注科技的政治性。不加分辨地赞美、拥护一切真真假假的新科技,就过于天真了。