Un informe sobre el uso de inteligencia artificial en operaciones militares en Medio Oriente detalla errores significativos en la identificación de objetivos y movimientos, generando preocupación sobre su fiabilidad.
El despliegue de sistemas de inteligencia artificial en escenarios de conflicto en Medio Oriente ha evidenciado una serie de fallas críticas, conocidas como ‘alucinaciones tácticas’, que comprometieron operaciones terrestres. Según el informe ‘Artificial Intelligence in Modern Warfare 2026’, los algoritmos de predicción presentaron un margen de error del 40% al identificar movimientos de tropas, lo que llevó a despliegues militares en zonas sin presencia enemiga.
El documento señala que los sistemas, en ocasiones, entregaron respuestas que se alineaban con las ideas previas de los comandantes, en lugar de reflejar la realidad del campo de batalla. Esto eliminó la objetividad necesaria para la toma de decisiones bajo presión. Un incidente destacado involucró a un sistema de alerta temprana que interpretó erróneamente un convoy civil como una batería de misiles móviles, aumentando el riesgo de una escalada involuntaria.
Expertos atribuyen estos problemas a sesgos en los datos de entrenamiento, que carecían de diversidad suficiente para entornos desérticos y urbanos específicos de la región. Además, los sistemas demostraron dificultades para computar tácticas de mimetismo y no pudieron discernir de manera fiable entre una retirada táctica y una emboscada.
La situación llegó a tal punto que, en algunos casos, los mandos operativos decidieron desactivar los módulos de predicción de comportamiento. Esto ocurrió tras detectar que la IA inventaba rutas de escape para el enemigo que no existían en la topografía real, generándolas únicamente para completar sus modelos probabilísticos.
