华盛顿消息:美国陆军的“项目融合”、空军的“先进战斗管理系统”和海军的“项目超配”是每个军种赋予人工智能和自主启用网络的名称,这些网络由相互交织的“网状”节点组成。
安装在 KC-46 Pegasus 上的通信吊舱将使 F-35 Lightning II 和 F-22 Raptor 连接并立即接收和传输最新信息,以确保决策优势。这个概念被称为高级战斗管理系统框架下的能力版本 1
军种这些各自计划的定义概念或战略推动力是当前技术现代化努力的明确和基本的基础,因为它基于的前提不是任何作战平台或“节点”,无论是战斗机、坦克还是地面控制站或水面舰艇,不仅可以作为自己的具有作战能力的“实体”运行,而且可以作为关键的监视和战争信息“节点”运行,能够实时收集、处理、组织和传输大部队的时间敏感数据。
例如,不必通过一对一的视频输入将图像发送到地面控制中心,前出行动的监视无人机可以找到关键的敌方目标,分析大量其他不相关但相关的变量,并发送新的时间——在几秒钟内将敏感的情报信息传送到部队的多个位置。
五角大楼联合人工智能中心 (JAIC)
这些计划中的每一个军种都可能有自己的项目,但它们基本上都基于共同的战术和战略方法。五角大楼的联合人工智能中心(JAIC)现在正大力强调将这些各自的军种工作合并成一个协调的、高效的、高速的多服务战争机器。
所以我认为,你知道,我们是关键的合作伙伴,你知道,ABMS 系列演习,与项目融合(Project Convergence)一起,我们还与海军在他们的 Project Overmatch 上密切合作,”Lt. Gen.根据五角大楼的记录,联合人工智能中心主任迈克尔格罗恩告诉记者。
这已经发生了,随着所有军种在多军种攻击“网络”的背景下大规模加快“传感器到射手”的时间,新的努力正在迅速获得关注。与周围地形、来袭敌方火力、导航细节以及在这种情况下哪种攻击模式最优化相关的敌方目标可以更快地被看到和评估,攻击部队在战斗中获胜的速度也就越快。
这是不言而喻的,也是至关重要的。简单地说,进入或领先于敌人的决策周期是决定现代战争胜利的基本因素。
结合人工智能数据分析和动态军事行动
同时,这种技术架构仅与能够摧毁它们的远程、高分辨率传感器和精确制导武器一样有效。然而,如果目标信息或具有重要意义的时刻没有被及时发现和识别以致于它们可以被摧毁,那么这些传感器和武器可能没有多大用处。
然后,信息驱动的传感和人工智能支持的数据分析在设计上与所谓的“动能”选项(例如导弹、火箭、枪支、炸弹和其他武器)相结合,以在敌人之前完成杀伤链。对于陆军,它可以从无人-无人团队开始,其中前出行动的微型无人机将传感器细节传输到更大的无人机,然后通过名为 Firestorm 的 AI 系统传递数据,该系统在几秒钟内将威胁配对或目标数据由具有最佳攻击方法的“传感器”或“射手”提供。
从几英里外的微型无人机或卫星通信网络开始,使用地面战车、直升机甚至下马的部队寻找、识别和摧毁敌人的过程可以从 20 分钟……减少到 20 秒。
美国空军 ABMS的想法在范围和应用上是相似的,因为它涉及收集、处理和传播卫星、轰炸机、战斗机、无人机甚至地面攻击系统之间的关键作战数据。
在美国空军的一个测试环境中,称为 ABMS“匝道外”,一种陆基155 毫米火炮武器通过跟踪和摧毁高速机动巡航导弹实现了前所未有的突破。
武器化人工智能:俄罗斯和A国
武器化的人工智能能力,”是五角大楼领导人用来解释技术先进的对手所带来的严重和不断增长的风险的一个术语,对手越来越有能力构建人工智能支持的致命机器人武器系统,而不受伦理、道德考虑或人类决策的约束。
关注集中在一个问题上,因为俄罗斯和A国等国家运行着有能力且快速发展的人工智能机器人、无人机和武器系统,可能脱离人类决策。
五角大楼联合人工智能中心指挥官迈克尔格罗恩中将引用“像俄罗斯这样的政权”可能开发武器化人工智能能力的可能性表示,美国和盟友可能无法使用类似的能力,特别是在潜在对手使用人工智能武器攻击而没有道德或人道主义问题的情况下。
这会让美军处于劣势吗?当然,特别是考虑到在决定使用致命武力的情况下,根据五角大楼的原则,人类必须始终“处于循环中”。
武器化人工智能:美国和盟国
然而,格罗恩似乎暗示,先进武器开发商、科学家和未来学家现在正在与一个志同道合的国际盟友合作,这些盟友对解决伦理问题感兴趣,但仍然在战斗中占上风。这似乎与理论和技术发展有关,这可能会寻求平衡、定位或整合最佳技术能力与足以击退 AI 驱动的敌人攻击的最佳战术。
“我们认为,通过从一开始就引入人工智能原则和道德,我们实际上获得了节奏、速度和能力,我们并不孤单。我们目前与 16 个国家建立了人工智能防御合作伙伴关系,所有接受相同道德原则的国家都联合起来帮助彼此思考并研究如何在这个结构中实际开发人工智能,”格罗恩对记者说,根据五角大楼的记录。
在谈到他所谓的“道德基线”时,格罗恩说,有一些方法可以根据既定的道德参数来设计和使用高效的、支持人工智能的武器。
五角大楼的科学家、工程师和武器开发人员现在正在考虑一种这样的可能性,即构建能够立即对非人类目标(例如来袭的反舰导弹)实施“防御性”或“非致命性”攻击的人工智能系统。导弹、迫击炮、火箭或无人机。
另一个有趣的细微差别是,考虑到支持 AI 的传感器、火控、武器系统和数据分析可以运行的速度和程序效率,快速的人类决策不一定总是“放慢”关于是否攻击。
例如,高级 AI 分析可以将有关传入攻击的数据与庞大的历史数据库进行比较,并立即确定哪种行动方案最能解决这种情况。之所以会发生这种情况,是因为先进的算法可以利用历史数据库来比较过去如何解决特定攻击情况,以及一系列有影响的变量,例如天气、地形、范围和可用的“效应器”。
通过这种方式,就像去年秋天陆军项目融合演习期间的情况一样,杀伤链可以在几秒钟内完成,而人类决策者仍在“循环”中运作。
“如果我们能做出好的决策,让决策者知情,我们认为这是人工智能最重要的应用。然后我们将继续从那里进入其他功能。这个清单是无穷无尽的,你知道,在战场上成功地移动后勤,根据历史模式和先例了解正在发生的事情,了解天气或地形的影响,对机动,所有这些都可以得到人工智能的帮助,”格罗恩。
本文来源 网电空间战
系列回顾
⊙赵立坚:反对借网络安全问题向中国泼脏水
⊙杜振华:普京给出解决台湾问题的新方案?可行之处在哪里?
⊙牟林:涉嫌侮辱英烈者刑拘大快人心,《长津湖》引发的负面舆论值得警惕
——END——