终结者里的"天网"会出现吗?AI对核战争有何影响
2018-06-04 11:52:09
  • 0
  • 0
  • 0

(原标题:How Will Artificial Intelligence Affect the Risk of Nuclear War?)

来源:网易科技

 6月4日消息,随着科学技术的不断进步,人类变得越来越强大,但是这种强大力量带来了巨大机遇,也面临着巨大挑战。当前人工智能的发展潜力不可小觑,美国“兰德智库(RAND corporation)”最新研究报告显示,我们对人工智能技术产生误解,与该技术自身同样地危险。

依据这份兰德智库报告,超级智能设备会让这个世界变得无法辨认,或者处于拯救或毁灭人类的过程中。具有人类智力等级的人工智能世界可能与现今世界截然不同——而且难以预测。

然而,人类社会正在试着逐渐适应越来越多影响人类生活的智能算法(“低级人工智能”),近期一份研究报告概述了不良行为者使用人工智能的潜在可能性。

或许核武器仍是人们认为最重要的存在性威胁,该研究报告聚焦人工智能影响当前核平衡的可能性有多大,自1945年“三位一体核试(Trinity Test)”至当前核武器时代,现今我们生活的时代处于暂时的核平衡时期。

你可能一开始就会想到网络攻击、增强性人工智能,可能入侵核导弹发射。2010年出现了一次紧急事件,当时美国空军与发射导弹“短暂失联”。但这并非最主要问题,至少目前还不是。美国核武库仍然在40年前的软盘计算机系统上运行,这似乎令人感到担忧,但事实上该控制结构处于“真空隔离状态”,一个封闭的网络系统,无法接入互联网,因此很难被黑客入侵。

核策略专家斯蒂芬·施瓦兹(Stephen Schwartz)在一次采访中说:“我们当前采用的核武器操作系统对于黑客直接攻击相对而言是无懈可击的。”但是他提出了更加令人恐惧的问题,兰德智库报告指出,你要记住核武器系统依赖于军事通讯……而这些系统都是非常薄弱易遭攻击的。在某种程度上,军事通讯系统可能受到攻击或者操纵,尤其是在危机时期,我们可能存在麻烦。

关于核武器指挥和控制基础设施方面有一点值得注意——什么时候被设计应用,为了确保摧毁对方,实现有效威慑力,你需要在短短几分钟之内启动核武器。否则会有数千枚核弹朝向你发射,你可以在斩首行动中摧毁指挥链,或者摧毁对方的打击军事能力。对此,你有时间来做决定,没有大量的时间进行二次核查。

考虑到必须快速做出决策,人们没有太多时间进行判断、反应和计算,这就是为什么尽早地使用计算机预警系统。伴随着人工智能快速发展,“人工智能顾问”将成为军事-系统算法的一个重要导向,它可以评估核武器威胁,并在短短几分钟内自动规划出最佳反应措施。但是“人工智能顾问”将带来新的风险。

实际上控制导弹的计算机系统比军事通讯和涉及军事决策的人们更易出错和遭受攻击。最可怕的是冷战时期,经常出现一些军事系统报错现象,1983年,斯坦尼斯拉夫·彼得罗夫(Stanislav Petrov)观察前苏联早期预警系统时,他看到了一个警告:美国发射来袭导弹!如果彼得罗夫遵循当时的军事规定,他应该立即拉响警报。但是彼得罗夫认为,美国不太可能只使用少量导弹袭击,随后并未拉响警报。这次预警系统报错事件未酿成一场灾难,彼得罗夫避免了一场核战的发生,但这仅是一次报错事件,类似的事件一次又一次地发生。

我们非常幸运,所有这些报错都是在核战开始之前发现的,但是如果报错信息具有说服力呢?例如:深度模仿技术(deepfake technology)模仿总统指令下达核武器攻击?核战略专家们必须认真考虑类似这样的情形。

人工智能系统做出错误判断像人工智能本身一样危险,如果人们认为他们的通讯系统被黑客入侵,甚至他们拥有完美的系统安全性,他们怎么相信接收到的指令呢?

“兰德智库”关于确保军事摧毁效力产生类似的担忧,这份最新报告指出,俄罗斯等国家都认为美国试图利用人工智能威胁他们国家战略核力量的生存能力,破坏国家之间的信任感,这在危机时刻是灾难性的。如果智能算法扫描卫星图像能够确定核武器仓库位置,或者仅通过分析智能手机app数据,那么拥有较好技术的一方将占据优势,破坏力量平衡吗?

然而,其他专家对人工智能发展前景持乐观态度,他们表示,在战争对抗实例中,输入数据中出现轻度偏离,可以巧妙地欺骗机器学习算法,这可以用于应对扫描报复军事力量的算法。

但是这将产生一个新的担忧:军事核武器方面的任何“人工智能顾问”更容易遭受类似的攻击。如果你用于扫描核发射空中区域的机器学习算法被“愚弄”,这将使指挥人员在指挥和控制结构系统中做出错误决策。人类决策失误可能是最大的风险,但是过于信任自动化系统和算法将是灾难性的。

冷战时期美国和前苏联之间的对抗核武器关系十分微妙,是建立在双方试图猜测对方战略计划、军事目的和能力的评估分析之上。对军事另一方试图做什么或者掌握军事技术的误解,将成为做出地缘政治决策的关键因素,随着人工智能技术加速发展,预测可能发生军事行动的困惑再次点燃人们的恐惧感,考虑到“人工智能分歧”和军备竞赛,很可能导致核战争一触即发。军备竞赛的发展速度经常超越其安全性,这就是为什么很多人十分担忧超级智能或者自动化武器的原因。

伴随着人工智能的快速发展,该技术具有的重要社会功能仅有少数人理解,传统机构认为有必要对人工智能加速发展做出反应,但可能会得出危险决定。新的核态势评估报告建议使用核武器应对网络攻击,但是“网络攻击”是一个概念定义不准确的术语,发动网络攻击的源头需要很长时间才能跟踪到位,这一策略是否具有现实意义?

很明显,许多国家都不想泄露自己的军事机密,的确人工智能系统具有一定的神秘性,能够帮助人们探测到潜在的军事威胁和攻击。但是我们日常工作生活已从人工智能辨别的是非概念中普通受益,核武器策略是另一个领域,其黑盒算法属性很少有人理解,不可靠的算法很难对该系统构成破坏。现在我们比以往任何时候都需要我们的专家与军事领导人之间进行沟通。

美国战略空军指挥部乔治·李·巴特勒(George Lee Butler)将军称,我们通过某些技术、和“如有神助”的运气,避免了冷战时期出现核灾难,我认为后者起到的作用最大。(卡麦拉)

 
最新文章
相关阅读