莫让人工智能技术走入歧途
随着人工智能技术的快速发展,各国武器装备研发纷纷融入智能化元素,在信息化的时代,人工智能在网络安全、目标识别、情报分析等领域发挥巨大作用,在新技术的“加持”下,武器装备的制导能力、毁伤效果和反应速度显著提升,“致命性自主武器系统”等概念更是刷新了人们对人工智能技术军事应用的认知。从“苏莱曼尼事件”到纳卡冲突,都能看到人工智能技术的影子。
人工智能军事应用是一把“双刃剑”,一旦误用恶用,可能引发严重国际安全问题和人道主义关切。近年来,国际社会各界对其愈加关注并发出深刻忧虑。一些人士担心,人工智能军事应用可能触发新的军备竞赛。从实际情况看,美国、俄罗斯、日本、英国、印度等主要国家均认识到人工智能军事应用的颠覆性力量,积极发展和部署智能化武器系统。一些中小国家为借助智能武器系统获得挑战大国的非对称优势,也对其趋之若鹜。部分学者认为,智能化武器系统减少军事伤亡风险和成本,极大降低战争门槛,使冲突更易于爆发并升级。人工智能与高超音速导弹、核武器的结合,以及在外空、网络等“新疆域”的应用,有可能导致未来全球战略平衡与稳定被打破。一些专业智库不无担心地表示,人工智能系统漏洞十分危险,一旦被对手控制,可能造成重大意外事件。物理学家斯蒂芬·霍金、特斯拉创始人伊隆·马斯克等曾专门就此发表公开信,表达了对人工智能武器可能引发“终结者末日”的担忧。美国前国务卿基辛格也表示,如果排除人的因素,完全由系统作出反应,那结果将是灾难性的。
人工智能安全治理是人类面临的共同课题,加强对人工智能军事应用的规范正当其时。面对人工智能军事应用的“野蛮生长”和传统军控体系的“捉襟见肘”,美军的无人机跨境打击事件使得多边讨论进程应运而生。2014年,联合国《特定常规武器公约》成立政府专家组,围绕着“致命性自主武器系统”问题展开系列讨论。经过五年的努力,政府专家组于2019年达成了11条指导原则,一定程度上填补了这一重要前沿领域的规则空白。但由于各方的巨大分歧,更为实质性的成果仍然乏善可陈。从规律上看,对一种新兴事物来说管理政策往往会落后于技术的发展,但一些国家缺乏政治意愿才是规则制定说易行难的根本原因。
近年来,美国、英国等军事大国一方面大举推进智能化军事体系建设,加快人工智能军事应用研发;另一方面,在多边领域反对采取任何限制人工智能军事应用的举措。在强大国际舆论的压力之下,一向打着重视人权幌子的美西方国家又不得不做出一番姿态。例如,美国提出了人工智能军事应用五项伦理原则,北约防长会通过了《人工智能战略》,提出人工智能军事应用的目标、原则和举措。法国、德国、日本、澳大利亚等也纷纷发布政策文件,抛出人工智能发展理念和伦理道德标准。这些国家除了自我宣传之外,还不忘搞一些针对非盟友的小动作,拼凑了“人工智能防务伙伴计划”“人工智能全球合作组织”等小集团,兜售以所谓“基本自由和民主价值”为基础的人工智能治理规则。从他们的所作所为来看,这些花哨的倡议说到底都是为了谋求一己私利,企图利用人工智能技术巩固自身军事优势。
作为人工智能技术强国和产业大国,中国在人工智能及其军事应用全球治理方面肩负着独特责任,理应发出自己的声音。实际上,中国在人工智能国内治理方面一直走在世界前列。2019年,国家新一代人工智能治理专业委员会曾发布《新一代人工智能治理原则》,提出了安全可控、包容共享、共担责任、敏捷治理等八项原则。不久前,该委员会进一步发布了《新一代人工智能伦理规范》,详细规定了从研发到使用方面的各项措施。近年来,中国一直积极倡导构建人类命运共同体理念,秉持共同、综合、合作、可持续的全球安全观。在人工智能问题上,中国应当以舍我其谁的精神,扛起道义的大旗,代表广大发展中国家发出自己的声音,尽早提出人工智能安全治理的中国主张。
人工智能技术的发展正处在关键十字路口,何去何从有待国际社会的共同引领。前不久,联合国教科文组织发布了《人工智能伦理问题建议书》,重申了人工智能和平利用的若干重大原则。再过几天,联合国《特定常规武器公约》第六次审议大会将在日内瓦召开。期待在这次会议上,各方能秉持“智能向善”的理念,提出符合全人类共同利益和价值观的人工智能军事应用治理规则。毕竟,无序的人工智能军事应用将给人类带来无法承受之重,只有在人工智能领域打造人类命运共同体,才是唯一的出路。