四、 我们该如何选择?
目前,即便走在人工智能技术最前列的科研人员也承认,人类距离制造出达到人类智慧的机器人,还有比较长的距离。目前,人工智能可能带来的安全威胁更多是人类本身利用人工智能去威胁人类。因此,人类如何进行自我约束是人工智能技术进步过程中最为紧迫的道德问题。
2015 年 10 月 14 日,一个名为“智能平方”的组织在纽约邀请几位国际问题专家进行了一场辩论,题目是:中美是长期敌人吗?。芝加哥大学政治学教授米尔斯海默不出所料地讲起了“大国政治的悲剧”。作为反方,澳大利亚前总理陆克文有一句话令人记忆犹新。他说,外交的挑战就是要确保阻止战争的发生,相信我们能够做到这一点。陆克文的逻辑也适用于人工智能。人工智能是一种技术,可以为善,也可以作恶。尽管对善、恶的判断和选择是人类一个古老和难有完全一致看法的哲学命题,但是在关系到人类根本生存这样的大问题上,拥有理性和现代文明的人类应该可以决定向善还是向恶。
2018 年 6 月,笔者应邀参访科大讯飞北京公司,其间讨论到未来是否会出现人工翻译与机器翻译之间的竞争时,公司负责人表示,发展人工智能翻译技术的目的不是取代人,而是助力翻译工作更加准确和轻松。这给笔者以启发。毕竟,就像毛泽东同志所说的“决定战争胜败的是人民,而不是一两件新式武器” 。人类开发人工智能技术的目的是服务于人类,是善用还是恶意应用最终取决于掌握技术的人。
当前国际上关于秩序的讨论十分热烈。其中,中美两国学界最为关心的,也为世界其他各国所普遍关注的是:美国与中国是否会展开“新冷战”,从而导致冷战时的平行秩序再度出现? 2018 年 3 月,笔者与来北京参加中国发展高层论坛的美欧人士交谈时,观察到他们对中美关系的前景比较悲观,认为中国的快速增长对美国来说是结构性威胁。当笔者问道:中美两国除了走向对抗,有没有别的选择? 英国«金融时报»副主编马丁·沃尔夫回答说,你们没有什么可选择的,中国不会停止增长,美国不会停止担忧。( You have no choice , you can’t stop growing and they can’t stop worrying.)除非出现一种情况,例如发生来自火星的入侵,人类面临共同的敌人,届时美中才有可能真正团结起来。
如果用零和博弈和追求绝对安全的眼光看待世界,那毫无疑问,人工智能会像 20 世纪 40 、50 年代的原子弹、卫星一样,成为大国竞争的新焦点,并成为将世界划分为两种或多种平行秩序的助推动力。但是如果我们采用人类命运共同体的视角,本着共同安全的理念看问题,那么就不难认识到,人工智能技术带来的安全和治理挑战是需要全人类共同面对的问题。如此,我们就不难本着平等协商的精神,共同探讨各利益攸关方都能够接受的规范。那么,人工智能是否会成为那个将中国、美国、俄罗斯以及世界其他国家团结在一起的“火星入侵”式的挑战呢?
技术专家们在大声疾呼。在 2018 年的乌镇第五届世界互联网大会上举办的“网络空间的中美关系”分论坛上,原美国联邦通信委员会专家戴夫法伯呼吁,应尽早就人工智能制定国际准则,避免重演核武器技术产生时因国际共识和自律的迟到而导致的悲剧及其影响至今的严重后果。
现实情况是,中美两国在科学技术研究领域的交往与合作是相当深入的。根据科睿唯安提供的人工智能领域科技文献数据,从 2013 年到 2017年,全球参与评估的 167 个国家/地区在 WOS 学科“计算机、人工智能”发文排名中,中国大陆位居第一,发文量达到 59573 篇,占 25.02% ,其次是美国,发文量为 32527 篇,占 13.66% 。其中,中美两国国际合作论文数量增长最快,例如,过去 5 年中国大陆开展国际合作最多的对象是美国,合作论文量是4307 篇,同样,美国开展国际合作最多的国家也是中国大陆,远远多于与其他国家的合作论文量。
国际上围绕相关问题的探讨和研究已经在步步深入。例如,联合国裁军委致命性自主武器系统问题政府专家组的讨论就涉及要注意致命性自主武器系统可能对国际安全产生的影响。例如,致命性自主武器系统技术方面的军备竞赛,扩大发达国家与发展中国家之间的技术差距,以及可能降低使用武力的门槛等;就国家对其管辖下的致命性自主武器系统负有法律责任达成非正式普遍谅解;探讨参照«特定常规武器公约»议定书的形式,制定一项具有法律约束力的文件,预防性地禁止致命性自主武器系统。
习近平主席于 2018 年 9 月在致 2018 世界人工智能大会的贺信中阐明了中国的立场和态度。他指出,新一代人工智能正在全球范围内蓬勃兴起,为经济社会发展注入了新动能,正在深刻改变人们的生产生活方式。把握好这一发展机遇,处理好人工智能在法律、安全、就业、道德伦理和政府治理等方面提出的新课题,需要各国深化合作、共同探讨。中国愿在人工智能领域与各国共推发展、共护安全、共享成果。
基于清华大学人工智能与安全项目小组的研究结果,我们提出了关于人工智能的六点原则:一是福祉原则。人工智能的发展应服务于人类共同福祉和利益,其设计与应用须遵循人类社会基本伦理道德,符合人类的尊严和权利。二是安全原则。人工智能不得伤害人类,要保证人工智能系统的安全性、可适用性与可控性,保护个人隐私,防止数据泄露与滥用。保证人工智能算法的可追溯性与透明性,防止算法歧视。三是共享原则。人工智能创造的经济繁荣应服务于全体人类。构建合理机制,使更多人受益于人工智能技术的发展、享受便利,避免数字鸿沟的出现。四是和平原则。人工智能技术须用于和平目的,致力于提升透明度和建立信任措施,倡导和平利用人工智能,防止开展致命性自主武器军备竞赛。五是法治原则。人工智能技术的运用,应符合«联合国宪章»的宗旨以及各国主权平等、和平解决争端、禁止使用武力、不干涉内政等现代国际法基本原则。六是合作原则。世界各国应促进人工智能的技术交流和人才交流,在开放的环境下推动和规范技术的提升。这些原则可以作为讨论和制定人工智能国际规则的基础。
虽然这些原则尚显空泛和抽象,如何细化和如何与各国专家深入探讨,寻找最大公约数,还是一个需要花时间去努力争取的目标。值得注意的是,许多从事高端科研的青年专家已经提出为人类的共同利益而主动自律的问题,不少企业界人士表示要在人工智能的技术研究和产品制造中自觉强调道德和道义的因素,不会从事有损人类福祉的研究和制造工作。
笔者希望国际上关于这些问题的探讨能不断深入,也期待中国的智库和科学技术界能在这个方向上为全球的共同努力贡献力量。
作者:傅莹 来源:《国际政治科学》(2019年第1期)
转载请注明:北纬40° » 傅莹:人工智能对国际关系的影响初析