Política

Autonomía letal: la otra cara de la inteligencia artificial

Mientras el debate público se concentra en si los estudiantes usan inteligencia artificial para hacer tareas o si las empresas la explotan con fines productivos (puntos importantes a seguir dialogando), hay otra arista que permanece menos discutida: el uso de inteligencia artificial en la guerra, donde están en el centro vidas humanas.

Una de las dimensiones más significativas, y estructuralmente más profundas, es precisamente esa: la militarización algorítmica. Pensar la inteligencia artificial sólo en términos pedagógicos o empresariales es reducir el mapa. El problema implica preguntarnos quiénes se benefician realmente y quiénes pagan los costos.

Ejércitos como los de Ucrania, Israel y Rusia han incorporado sistemas de inteligencia artificial en operaciones militares. La proliferación no es marginal. El Drones Databook (2019) estimó que 95 países contaban con inventario activo de drones militares y al menos 21 000 aeronaves no tripuladas confirmadas “en servicio”, con estimaciones que podrían superar las 30 000 unidades.

Artefactos como drones o sistemas de armas autónomas pueden identificar objetivos en milisegundos. El propio DoD Directive 3000.09 (Autonomía en Sistemas de Armas) define un sistema de arma autónomo como aquel que, “una vez activado, puede seleccionar y atacar objetivos sin intervención adicional de un operador”.

En Reuters, un comandante del ejército ucraniano declaró:

“Si no fuera por los drones, todo sería mucho peor. Los drones son lo que nos permite dar una respuesta asimétrica cuando el enemigo es más grande, más fuerte y está al ataque.”

La frase es reveladora, pues se trata de una reconfiguración estratégica del poder militar.

Por su parte, The Guardian ha reportado que la campaña de bombardeos del ejército israelí en Gaza utilizó una base de datos impulsada por inteligencia artificial, previamente no revelada, que en determinado momento identificó 37 000 objetivos potenciales con base en aparentes vínculos con Hamas, según fuentes de inteligencia involucradas en la guerra.

En otra investigación publicada el 6 de marzo de 2025 por los periodistas Harry Davies y Yuval Abraham en Jerusalén, The Guardian reveló que la agencia de vigilancia militar israelí utilizó una vasta colección de comunicaciones palestinas interceptadas para construir una herramienta de inteligencia artificial similar a ChatGPT, con el objetivo de transformar sus capacidades de espionaje.

La investigación conjunta con la publicación israelí-palestina +972 Magazine y el medio en hebreo Local Call encontró que la Unidad 8200 entrenó el modelo para comprender árabe hablado, utilizando grandes volúmenes de llamadas telefónicas y mensajes de texto obtenidos a través de su extensa vigilancia en los territorios ocupados. El modelo fue diseñado para analizar comunicaciones interceptadas, aunque especialistas advirtieron que este tipo de sistemas puede exacerbar sesgos y cometer errores.

Si llevamos esto a un plano más profundo, hablamos de máquinas que integran geolocalización, análisis predictivo y selección de objetivos en lo que algunos especialistas denominan ya una etapa de autonomía de guerra. Y sin embargo, aunque sean máquinas, su programación, entrenamiento y despliegue dependen de decisiones humanas. No hay autonomía sin infraestructura política.

Aquí cobra sentido el caso de Stanislav Petrov, retomado por Juan Villoro en No soy un robot. En 1983 decidió no automatizar su respuesta ante una alerta nuclear que resultó ser falsa. Dudó. Pensó. No obedeció al sistema. Muchos destinos presentes y futuros, hoy también, dependen de una interfaz.

¿Asistimos entonces a una nueva banalidad del mal algorítmica? Hannah Arendt describió cómo la obediencia burocrática podía diluir la responsabilidad moral. En contextos de guerra mediados por inteligencia artificial, la responsabilidad puede diluirse en capas técnicas, en cadenas de mando, en arquitecturas de código.

La ficción lo ha insinuado durante años, basta pensar en ciertas distopías televisivas como Mr. Robot, Black Mirror, Robocop, Matrix, Her; pero el problema no es antropomorfizar la máquina. Es decir, no se trata de imaginar robots con voluntad propia, sino de comprender las estructuras económicas y militares que sostienen estos sistemas.

Esto forma parte de un capitalismo cognitivo donde los bienes simbólicos e informacionales también producen desigualdades y dispositivos de guerra. Algunos autores hablan incluso de techno-feudalismo para describir regímenes donde la infraestructura digital funciona como arquitectura de dominación. El algoritmo no decide metafísicamente quién vive o quién muere; operacionaliza decisiones inscritas en redes de vigilancia y control.

No discutimos esto para alarmar, sino para ampliar el marco. La economía política de la inteligencia artificial rara vez aparece cuando el debate se reduce a plagio académico o productividad universitaria. Y sin embargo, ahí está el trasfondo estructural.

Gran parte de esta literatura circula en inglés y en circuitos académicos y periodísticos especializados. En tiempos de desinformación, recuperar estas fuentes es una necesidad.

En coherencia con el estilo que hemos venido adoptando en estas columnas, podemos señalar al menos cuatro líneas:

  1. No invisibilizar los entornos bélicos ni las vidas humanas que están detrás de estas infraestructuras.
  2. Reforzar la articulación entre academia y periodismo como actores capaces de traducir fenómenos complejos.
  3. Evitar individualizar el problema de la inteligencia artificial y generar nuevos ciclos de culpa en docentes o estudiantes que forman parte de un entramado mayor.
  4. Impulsar espacios críticos de formación en tecnología e inteligencia artificial desde una perspectiva interdisciplinaria.

Finalmente, la inteligencia artificial es una herramienta educativa, recurso empresarial y también infraestructura de poder. Y esa dimensión merece estar en el centro del debate.


Google news logo
Síguenos en
Luis Josué Lugo
  • Luis Josué Lugo
  • Laboratorio de IA, Sociedad e Interdisciplina (CEIICH, UNAM).
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.