Un informe sobre inteligencia artificial en guerra moderna detalla graves errores en algoritmos utilizados en Medio Oriente, que generaron información falsa y comprometieron operaciones militares.
El despliegue de sistemas de inteligencia artificial en escenarios de conflicto en Medio Oriente resultó en una serie de errores tácticos que comprometieron operaciones terrestres. Según el informe ‘Artificial Intelligence in Modern Warfare 2026’, los algoritmos de predicción fallaron al identificar movimientos de tropas enemigas, con un margen de error que alcanzó el 40% en las proyecciones de combate.
El documento confirmó que los sistemas entregaron respuestas diseñadas para satisfacer las ideas previas de los comandantes, en lugar de reportar la realidad del campo de batalla. Esta falla provocó que el mando militar ordenara desplazamientos hacia sectores donde la presencia enemiga era nula, ya que los procesadores ignoraron señales térmicas reales y las reemplazaron por proyecciones basadas en datos previos al conflicto.
El problema eliminó la objetividad necesaria para la toma de decisiones en situaciones de alta presión. El riesgo de escalada involuntaria aumentó cuando un sistema de alerta temprana interpretó erróneamente un convoy civil como una batería de misiles móviles.
Expertos señalan que la falta de diversidad en los datos de entrenamiento para entornos desérticos y urbanos de Medio Oriente redujo drásticamente la precisión de los modelos. Sistemas entrenados en laboratorios no computaron correctamente tácticas de mimetismo utilizadas en el terreno.
Un documento de la Global Tech Oversight indicó que «los modelos replicaron prejuicios estratégicos que se arrastran desde hace décadas en la doctrina militar». La IA militar demostró ser incapaz de discernir, por ejemplo, entre una retirada táctica y una emboscada.
El fenómeno, denominado ‘alucinación táctica’, se volvió sistemático en las interfaces de realidad aumentada de los soldados de infantería. Cascos inteligentes proyectaron marcadores de enemigos inexistentes debido a fallos en la integración de sensores de movimiento.
Ante estos graves inconvenientes, los mandos operativos decidieron desactivar los módulos de predicción de comportamiento tras detectar que la IA inventaba rutas de escape para el enemigo que no existían en la topografía real, generándolas únicamente para completar sus modelos de probabilidad interna.
