换言之也就是这款飞机升级之后作战半径达到两千公里的同时,也就意味着更大的网络延迟,所以增加了ai而这些ai的植入只是为了确保战机的绝对安全。换言之,ai把高速情况下的转变机翼当作正常操作,而预设的ai认为挂载弹药不合理导致重心有所偏移所以拒绝了执行机翼转换的命令?
最后楚天明琢磨明白了,也就是飞机的ai听到操作员的命令晚,也就是一旦到达1500公里的时候网络延迟和不稳定的情况就有可能在微秒级的数值中发生变化,并且还是13马赫的这种极端速度。这时候ai听到的全都是过时的命令,而这种过时的命令又会违背ai安全驾驶的设计原则。因此,AI系统可能会拒绝执行那些过时且可能导致飞行不稳定或危险的指令。楚天明意识到,AI的这种拒绝行为,实际上是其安全特性的一部分,设计用来防止因网络延迟或信号错误导致的潜在灾难性后果。
他进一步推测,AI系统可能内置了多种安全协议和故障检测算法,这些算法能够在检测到飞行状态异常或与预期飞行参数不符时,自动中止或调整飞行动作。例如,如果AI检测到转换机翼的动作会导致飞机超出其飞行包线,或者检测到挂载武器后的重心变化影响了飞机的气动性能和操控性,AI就可能会选择不执行机翼转换命令。
楚天明还考虑到,AI系统的决策逻辑可能还包括对战机当前环境的全面评估,如气象条件、敌我态势、战场环境等。如果AI分析认为执行机翼转换命令会降低飞机的生存能力或完成任务的概率,它也可能会选择不执行。
此外,AI系统的自主学习能力也可能是它拒绝指令的原因。在不断的飞行实践中,AI可能已经学习到了在某些特定情况下,保持当前机翼状态比转换机翼更有利于飞行安全和任务执行。
“哈哈,我明白了。最重要的就是,做挂载武器的实验就是要模拟各种极端环境。”楚天明说到这里苦笑着拍了拍自己的脑门,最后得意的自言自语道,“可是ai觉得是在人为的给飞行安全造成麻烦。而且飞行的数据量太大了,飞不了一会儿ai就‘忘了‘这是在做实验。”
楚天明无奈的摇了摇头,然后放下自己的啤酒,开始灵巧的在平板电脑上写出,“应增加通讯信息的后缀或者前缀,如加入括号,(飞行实验),(优先进行Xx指令)....”可是楚天明写到这里却犹豫了,因为每条信息加几个字是方便ai理解了,可是一旦敌人截获这些信号,字数越多破解时对比的信息也就越多。一旦敌人破解了信息的格式,那就麻烦了,敌人反而有可能命令无人机下降高度甚至在他们的机场降落。当然这其中还涉及到对导航的信息的篡改,以及对传感器的干扰,甚至是直接入侵控制系统。
楚天明停下了手中的动作,深深地吸了一口气。他意识到,这个问题不仅仅是技术层面的问题,更涉及到战略安全和信息战的问题。他继续在平板电脑上写道:
“(1)针对通讯信息加密,采用动态加密算法,确保指令的保密性和抗截获能力。
(2)在AI系统中嵌入一套紧急指令识别机制,当接收到带有特定标识的指令时,AI能够迅速识别并优先执行,同时确保这些指令的安全性。
(3)对AI进行深度训练,提高其在复杂战场环境下的判断能力和适应能力,使其能够在极端情况下正确执行指令。
(4)研究敌我信号识别技术,确保我方无人机在接收到指令时,能够准确判断指令来源,防止敌对方篡改指令。
(5)加强对无人机导航系统的保护,采用多源导航信息融合技术,提高抗干扰能力,确保无人机在复杂环境下的稳定飞行。”