兰德公司——未来的AI与战争
去年夏天,美国人工智能安全委员会(National Security Commission on Artificial Intelligence,NSCAI)公开呼吁各方提交关于新兴技术在全球秩序中的作用的观点。兰德公司的研究人员主动迎接挑战,提交了各种各样的想法,最终有10篇论文被接收并出版。
NSCAI由Alphabet(谷歌母公司)前首席执行官Eric Schmidt和美国国防部前副部长Robert Work共同主持。NSCAI是国会授权的、独立的联邦委员会,于去年成立,其创建宗旨是推动美国人工智能、机器学习和相关技术发展所需的方法和手段,以全面满足美国的国家安全和国防需求。
该委员会的最终作用是增强认识,为更优化的立法提供信息支持。该委员会的主要任务是帮助国防部更好地理解和准备迎接一个AI可能以意想不到的方式影响国家安全的世界。
NSCAI提出了一个范围异常广泛且公开的需求:我们需要听到挑战现状、动摇我们现有假设、促使我们重新考虑已有论点,并以不同的方式听取新论点的原始创新性想法。
兰德公司迅速在其组织内主办了一场最佳创意竞赛。研究人员提交了若干篇颇有见地的论文,其中9篇被NSCAI的媒体合作伙伴War on the Rocks(WOTR)接收并出版,1篇被Strategy Bridge接收。两家都是备受推崇的国家安全政策类出版物。论文的范围和主题十分广泛,从军事欺骗,到开源研究(这意味着它可以自由和公开,即使涉及国家安全),以及如何训练AI士兵机器人,国际象棋在AI中的作用,以及其他详细的建议。
NSCAI设定了5个他们称之为“prompts”的主题,并为每一个prompts寻求极具创新性和挑战性的想法。5个prompts分别是:发现或创造有关未来战争和竞争的合乎逻辑的愿景;了解更好地开发 AI 所需要的能力;机构、组织架构和基础设施将如何影响 AI 的开发;建立关于新兴技术的标准规范;民众的支持和私营部门的参与。
每个prompt都有若干子集,其中包括查询和解决这些问题的特定方式,例如,如果美国未能发展出强大的 AI 能力来解决国家安全问题,会发生什么后果?
以下是兰德公司提交的10篇文章,分别回答了不同的问题:
-
Jasmin Leveille:Embrace Open-Source Military Research to Win the AI Competition
主要观点:除非美国政府显著领先或落后于AI整体发展水平,否则,开放式研究策略的替代方案可能会让美国大幅落后。
文章链接:https://www.rand.org/blog/2019/10/embrace-open-source-military-research-to-win-the-ai.html
2、Danielle C. Tarraf:Our Future Lies in Making AI Robust and Verifiable
主要观点:主张进一步验证AI的可信赖程度。“算法是脆弱的,目前尚不能验证其表现能否满足我们的需要,尤其在黑盒(black box)AI 算法方面。我们不应该相信禁不起推敲的,我们亦不能相信不能验证的。科学需要赶上工程的步伐。”
文章链接:https://www.rand.org/blog/2019/10/our-future-lies-in-making-ai-robust-and-verifiable.html
3、Edward Geist and Marjory S. Blumenthal:Military Deception: AI’s Killer App?
主要观点:误导技术(misdirection)正在取得胜利。“AI和机器学习不是解除‘战争迷雾(fog of war)’,而是能够制造‘战争机器迷雾(fog of war machines)’——旨在加强自动化的欺骗或误导的策划者。”
文章链接:https://www.rand.org/blog/2019/10/military-deception-ais-killer-app.html
4、Daniel Egel,Eric Robinson and Charles T. Cleveland: AI and Irregular Warfare: An Evolution, Not a Revolution
主要观点:关于AI是否会改变战争进行的方式,文章表示:美国应该通过几个关键性步骤,积极塑造AI对下一代非常规战争的影响,以使局面有利于我方。这些步骤包括更好地捕捉商业生态系统中的创新点;招募和留住能够发挥AI 能力的人员;与盟国(国际协调)合作。
文章链接:https://www.rand.org/blog/2019/10/ai-and-irregular-warfare-an-evolution-not-a-revolution.html
5、Rand Waltzman and Thomas S. Szayna:First, Manage Security Threats to Machine Learning
主要观点:急于实施包含高级机器学习组件的不安全系统会引入危险漏洞,这些漏洞将被恶意利用。简而言之,现在是将机器学习技术中的漏洞问题视为国家层面重要问题的时候了。
文章链接:https://www.rand.org/blog/2019/11/first-manage-security-threats-to-machine-learning.html
6、Patrick Roberts:AI for Peace
主要观点:美国应该借鉴70年核技术管理历史的经验,建立一个管理AI军事技术的框架。进一步来说,促进和平的AI计划应该阐明这项新技术的危险之处,管理危险的原则(如无杀戮,人类控制,开关的闭合等),以及一个系统可以形成对其他状态的激励(也许是一个监测和检查系统)。
文章链接:https://www.rand.org/blog/2019/12/ai-for-peace.html
7、Andrew J. Lohn:What Chess Can Teach Us About the Future of AI and War
主要观点:数百年来,国际象棋一直向军事战略家传授战争经验,数十年来象棋也一直是AI发展的试验点。在战争中,支持AI的计算机可能是一个均衡器(equalizer),以帮助弱者寻找新的可玩的选择。
文章链接:https://www.rand.org/blog/2020/01/what-chess-can-teach-us-about-the-future-of-ai-and.html
8、James Ryseff:How to Actually Recruit Talent for the AI Challenge
主要观点:国防部在直接与美国科技公司竞争有限的网络和AI人才中经常输掉。为了赢得胜利,国防部部署最具创新性的AI技术的成功与否将取决于其包容创造力、创新和自我进化文化的能力
文章链接:https://www.rand.org/blog/2020/02/how-to-actually-recruit-talent-for-the-ai-challenge.html
9、Thomas Hamilton:How to Train Your AI Soldier Robots (and the Humans Who Command Them)
主要观点:随着支持AI的机器人能力的提高,我们将如何组织、训练和指挥它们?谁是监督和维护它们的人?具有全新、复杂行为模式的机器人可能需要全新的组织形式。最终,最佳组织单元结构将通过经验产生。在和平时期取得尽可能多的经验至关重要。这意味着训练的重要性。
文章链接:https://www.rand.org/blog/2020/02/how-to-train-your-ai-soldier-robots-and-the-humans.html
10、Christopher Paul and Marek N. Posard:Artificial Intelligence and the Manufacturing of Reality
主要观点:人类在判断一样东西是真实还是不真实时,是有缺陷的。互联网和其他技术使得这些缺陷的武器化和利用变得更加容易,比以往任何时候都更快、更有说服力地欺骗了更多的人。
文章链接:https://www.rand.org/blog/2020/01/artificial-intelligence-and-the-manufacturing-of-reality.html
原文标题:What Chess Can Teach Us About the Future of AI and War
原文链接:https://www.rand.org/blog/2020/01/what-chess-can-teach-us-about-the-future-of-ai-and.html
原文标题:National Security Commission on Artificial Intelligence Requests New Ideas; RAND Responds
原文链接:https://www.rand.org/blog/2020/02/national-security-commission-on-artificial-intelligence.html
发布日期:2020-2-21