人工智能
为何说成立五角大楼AI中心是美国AI战略的一大步!
网易智能 | 来源:网易智能 浏览次数:819
摘要:

2016年10月,新成立的国防创新委员会首次提出了一系列建议(该委员会是美国国防部高级领导的顾问机构,成员包括来自私营部门、学术界和非营利组织的代表)。

2016年10月,新成立的国防创新委员会首次提出了一系列建议(该委员会是美国国防部高级领导的顾问机构,成员包括来自私营部门、学术界和非营利组织的代表)。其中一项建议是,在国防部内部建立一个“集中、专注、资源充足的组织”,以推动人工智能(AI)和机器学习的应用研究。

距离建议的提出还不到两年,五角大楼已经将这一想法转变为现实。6月27日,国防部副部长帕特里克·沙纳汉发布了一份备忘录,正式成立国防部新的联合人工智能中心(JAIC)。根据这份备忘录,JAIC的首要目标是加快国防部交付人工智能的能力,扩大人工智能对整个部门的影响,并使国防部的人工智能活动与之同步。为此,JAIC将指导被称为“国家使命计划”的大规模人工智能项目的实施,这一项目“旨在解决一系列紧迫的、相关的挑战。”此外,“国家使命计划”——以及国防部对云技术的采用——将被用于使整个国防部具有能够快速交付人工智能的能力。JAIC还将作为一个平台,改善国防部与包括私营企业和学术界在内的外部各方在与人工智能相关的项目上的合作。

值得注意的是,JAIC的工作重点还将包括伦理、人道主义方面的考虑,以及短期和长期的人工智能安全。根据五角大楼国防创新单元实验的机器学习负责人布伦丹麦科德的说法,这些问题将反映在建立人工智能防御原则的过程中,这些原则将在多个利益攸关方的共同参与之下才能制定。尽管JAIC的工作范围目前尚不清楚,但它的这个特殊维度在实现五角大楼的人工智能目标方面可能扮演着重要的角色。

以透明的方式开发、制度化和交流人工智能防御原则不仅可以降低人工智能系统的操作风险,还可以通过使五角大楼更好地访问和整合美国的人工智能创新资源,来提高美国的国家安全。如果五角大楼此前打算建立透明的指导方针,并为开发和部署人工智能系统制定红线,人工智能研究人员和公司可能更愿意与之合作。在全球范围内,如果JAIC证明自己对人工智能的安全意识和伦理方法不会危及国家安全,而是更好地维护国家安全,JAIC可以作为其他寻求类似技术的国家的重要模式。

为什么华盛顿需要JAIC?自冷战结束以来,美国在国际秩序中享有几乎无可匹敌的超级大国地位,美国国力的一个重要支柱是其遥遥领先的军事技术优势。然而,过去支撑美国军事优势的技术,如精确制导武器,已经通过全球化技术转移的力量扩散到了竞争国家手中。这些竞争国家随后发展出了越来越多的能力,挑战美国的军事霸权。

为了保护和扩大美国在未来的军事优势,美国防部已经把赌注押在了人工智能上。该部门的第三个抵消策略中提出了一种方法,旨在“利用人工智能和自主性的所有发展,并将它们嵌入到国防部的战斗网络中。”(美国认为自身军事优势正在被逐步削弱。为夺取新一轮大国军事竞争的绝对优势地位,从2012年逐步走出伊拉克和阿富汗反恐战争泥潭的美国,于2014年推出以“创新驱动”为核心、以发展“改变未来战局”的颠覆性技术群为重点的第三次“抵消战略”。)人工智能在军事领域的潜在应用是多种多样的,从提高物流系统的效率到比如先进武器系统的自动化指挥和控制这样更敏感的任务。2018年国防战略预测人工智能可能会改变战争的性质。因此,用沙纳汉的话来说,美国“必须大胆果敢地追求人工智能应用”。

美国国防部在人工智能方面的雄心壮志所面临的一个主要挑战是,目前开发和部署尖端人工智能技术的能力几乎完全被私营科技公司所垄断。目前,美国的商业化人工智能产业在全球都处于领先地位,这一地位的衡量标准包括硬件设计和最优秀的人工智能研究人员的集中程度。反过来,五角大楼一直在努力发展自己的研发能力,即将赶上私营企业的发展脚步。美国国防部逐渐意识到了适应现实的必要性,在历史上,军方一直是改变游戏规则的技术的摇篮,而现在,国防部不再是美国这一技术基地取得进展的焦点。相反,军方的技术战略越来越依赖于由商业参与者开创和控制的技术基础。

对于国防部来说,由于硅谷和华盛顿之间的“文化冲突”,国防部对私营企业的人工智能资源的获取变得复杂。这种关系的一个因素是,“硅谷价值观”会因为与军方的接触而受到影响,因为他们是客户、出资人,甚至是支持者。这种对抗的力量令人惊讶——考虑到在硅谷的早期,国防部既是高科技公司的主要投资者同时也是客户。事实上,与国防部的关系是科技公司在竞争中获取胜券的必要动力。虽然早期采取这样的合作形式,今天的分歧仍然存在。

美国国防部最近努力让谷歌参与人工智能的部署,这也突显了硅谷与华盛顿之间的这一鸿沟。当谷歌参与的项目Maven——一项旨在对无人机收集的视频进行自动化分析的计划——在今年早些时候公开时,这一消息在公司内外引发了一场重大争议。数千名谷歌员工在一封公开信中抗议该公司参与“战争业务”,并呼吁该公司退出该项目。几名员工就此辞职。谷歌最终决定不再续签合同,并迅速发布了一套人工智能原则,以平息公众对此的强烈反对。这一失败预示了一场可能会持续的冲突——在这种冲突中,像谷歌这样的私营企业被夹在与人工智能的武器化不一致公共的价值观,和他们想要从国防部身上寻求更多商业机会的动机之间。

文化冲突的第二个维度涉及到硅谷和国防部在创新和运营上的不同速度。显然,私营部门研发周期的加速与传统的军事采购过程在速度上形成了鲜明的对比,传统的军事采购过程往往持续数年。更具体地说,要想跳过国防部冗长的官僚程序所需要的大量时间和资源,是许多公司不愿承担的成本。这就是说,国防部已经多次尝试在收购中表现得更加灵活,以增加与私人企业合作的机会。迄今为止,这些努力取得的结果好坏参半。

最近的一项倡议是2015年国防创新单元实验的基础——这是前国防部长阿什顿·卡特的心血结晶,其办公场所位于美国关键的创新中心。国防创新试验单元的目标是重建国防部和商业技术公司之间的关系,并迅速满足部门的需求,并提供适当的技术解决方案。为此,该部门引入了所谓的“商业解决方案开放奖励机制”,这是一个快速、灵活的合同程序,允许国防部以私营企业的速度工作。虽然有些人质疑该部门的有效性和必要性,但也有人赞扬了该计划,称这正在改变部门的商业行为,并改善与私营企业的合作。

那么,JAIC能帮助克服目前美国的挑战吗?虽然五角大楼对JAIC的具体计划和行动只公布了有限的细节,但从该计划的高级命令来看,它可以为人工智能防御战略奠定基础,从而解决目前在结构和文化上阻碍国防部的挑战。JAIC的主要职责似乎集中于组织和简化基础设施,以便美国军方能够更有效、更有力地调动人工智能的力量。JAIC将领导执行国家使命计划——在各军事部门和服务部门、参谋长联席会议、作战司令部和国防部的其他几个部门之间进行协调。JAIC目前建立的备忘录强调,需要开发全部门的工具、技术和流程,为实现国家的人工智能目标建立一个共同的基础,而该部门正在发出信号,表明JAIC将是领导这类努力的实际机构。

在这种情况下,JAIC似乎至少在一定程度上是为了在美国众多的联邦机构之间建立一种更一致、更协调的努力,这些机构均致力于人工智能的整合。通过集中和标准化对人工智能应用程序的核心输入,例如共享数据和协议,JAIC可以大大降低开发和部署人工智能的成本。此外,如果这些改进延伸到进一步改革技术收购的过程中,理论上来说,JAIC可以降低与政府合作的私人人工智能公司的交易成本,从而使这些商业主张更具吸引力。

然而,效率的提高不足以完全解决美国政府在实现人工智能宏图伟业的路上的障碍。为了鼓励联邦机构和领先的人工智能公司和研究人员之间的富有成效的关系,JAIC——以及国防部更广泛的人工智能战略所涉及到的其他机构和部门——将需要可靠地承诺以不违背伦理和安全的方式来处理人工智能的发展和部署。这对于确保私营企业和学术界的合作至关重要,也对于美国军方在国际舞台上保持信誉和诚信至关重要。

在与私营企业合作的过程中,最近的争议突显了一个事实,即人工智能研究人员和私营企业领导人将道德和安全视为不可逾越的底线。Maven项目只是表明私营企业与政府机构的紧张关系还远未得到解决的众多迹象之一。亚马逊和微软最近因向移民和执法机构出售支持人工智能的面部识别软件而受到抨击。最近,未来生命研究所(Future of Life Institute)在一封信中呼吁各国政府禁止使用致命的自动武器,它获得了包括Element AI和谷歌旗下的DeepMind在内的几家领先的人工智能公司的支持。这封信还得到了众多人工智能研究人员的签署支持。

人工智能公司和研究人员正面临着一个决定性的挑战——何时与国家安全部门合作?又要如何与之合作?一些人认为,全面抵制是唯一的出路。另一些人则认为,人工智能与军方的整合是不可避免的,因此,他们的任务是在道德的基础上实现人工智能的整合。如果美国政府未能在道德和安全方面阐明原则立场,国防部和人工智能私人企业将无法实现合作。然而,如果JAIC成为了对道德和安全进行承诺的先驱,它可能会带来新一波与私营企业进行的合作——这基于对人工智能应该和不应该被美国部署利用的一种常见理解。

在国际舞台上,JAIC同样提供了一个重要的机会,让美国向其他国家发出信号,表明其在开发和部署的人工智能系统的可靠性和安全性方面的承诺。在美国军事机构中还存在着强大的安全规范的先例,尤其是在海军潜艇、航母甲板操作员和宙斯盾武器系统操作人员中。因此,以安全为导向的人工智能整合方法是美国军事行为的自然延伸——而且将是必要的,尽管这具有挑战性。领先的人工智能研究人员已经发现了许多现代机器学习系统仍然缺乏稳定性——因此,它们很容易导致人类设计者无法预见的事故。使用者是美国军方的情况下,这种风险有时会产生严重的后果。而这种错误可能会随着部署技术系统的复杂性的提高而变得更加普遍。

因此,美国军方应该优先考虑减轻与人工智能支持的系统的意外后果相关的风险,并为追求采用其他类似技术的军队设定一个标准。很有可能的是,在安全意识上的要求会普遍为其他国家所接受,并将有助于与加拿大和欧盟等国家建立富有成效的联盟,他们在各自的人工智能战略中都强调了伦理和安全的重要性。这种做法也可以降低美国和各国之间的竞争态势将演变为“竞相争先”的风险,即每个国家都在加强其人工智能系统的安全性和稳定性方面走捷径,以获得相对于另一方的优势,从而引发重大的意外伤害的风险。

就目前而言,JAIC是一个很好的平台,它可以作为一种工具,表明美国在实现人工智能的过程中对道德和安全的可靠承诺。事实上,JAIC的核心任务之一就是与国防部长办公室合作,为人工智能的开发和交付制定标准和治理框架。在建立JAIC的过程中,国防部已经发出了确保“坚守对军事伦理和人工智能安全的承诺”的信号,因此JAIC作为美国国防部的一个重要组成部分,成为推动人工智能向前发展的一个焦点,这为美国提供了一个及时的机会,使其能够清晰地阐述其符合道德伦理和其安全的人工智能实现之道。

特别声明:
转载上述内容请注明出处并加链接。上述内容仅代表作者或发布者的观点,与中国电子商会官网的立场无关。如有任何疑问或了解更多,请与我们联系。电话:4008 900 668 邮箱:service@cecc.org.cn

中国电子商会 China Electronics Chamber of Commerce
京ICP备13044805号
电话:010-68256762  E-mail:service@cecc.org.cn
Copyright CECC.org.cn All rights reserved
地址:北京市亦庄经济技术开发区博兴六路17号院1号楼3层

京公网安备 11011502005504号