Lo que hasta hace poco era un tabú susurrado en los pasillos de las grandes tecnológicas, hoy se proclama abiertamente en comunicados de prensa y contratos multimillonarios. La línea que separaba el desarrollo de tecnología de consumo del negocio de la guerra se ha vuelto porosa, si no inexistente. Gigantes como Google, Microsoft, Meta y OpenAI, que en el pasado enfrentaron revueltas internas por colaboraciones militares, ahora compiten por una porción del billonario presupuesto que potencias como Estados Unidos destinan a la modernización de sus fuerzas armadas. Este cambio no es una simple evolución, sino una aceleración tectónica que fusiona el silicio de la innovación con el acero de la defensa, redibujando el mapa del poder global.
La justificación es una narrativa simple y poderosa: la carrera por la supremacía en Inteligencia Artificial contra adversarios geopolíticos, principalmente China. Bajo este paraguas, los principios éticos se vuelven flexibles. OpenAI, fundada con un espíritu de cautela, ha modificado sus términos de uso para permitir aplicaciones militares. Google ha eliminado restricciones similares de su código de conducta. Este pragmatismo se ve impulsado por un flujo de capital sin precedentes, donde el Pentágono no solo contrata servicios, sino que también integra a ejecutivos tecnológicos en sus filas como asesores estratégicos, creando un complejo corporativo-estatal con una agilidad y un alcance nunca antes vistos.
El futuro previsible se organiza en torno a bloques de poder tecno-nacionales. Estos no son simples alianzas militares, sino ecosistemas integrados donde gobiernos, corporaciones tecnológicas, fondos de inversión y contratistas de defensa operan en simbiosis. La evidencia es clara: contratos directos del Departamento de Defensa de EE.UU. a sus campeones nacionales de IA, y la búsqueda de capital por parte de empresas como Anthropic en fondos soberanos de naciones aliadas en Oriente Medio, a pesar de reconocer explícitamente los dilemas éticos que esto conlleva. La necesidad de capital para entrenar modelos de IA cada vez más potentes —un costo que asciende a cientos de miles de millones de dólares— obliga a las empresas a elegir un bando.
Para naciones fuera de estos núcleos de poder, como las de América Latina, este escenario plantea un desafío existencial a su soberanía tecnológica. La inversión local en infraestructura, como los nuevos centros de supercómputo en Chile, es un paso fundamental, pero palidece frente a la escala de los gigantes. La disyuntiva futura será cruda: alinearse con un bloque, adoptando su tecnología, sus dependencias y sus vulnerabilidades, o arriesgarse a una desconexión estratégica que podría significar irrelevancia económica y militar. La soberanía ya no se medirá solo en fronteras físicas, sino en el control sobre la propia infraestructura digital y algorítmica.
Estamos presenciando una transferencia de poder desde los estados hacia un puñado de corporaciones tecnológicas. Cuando los ingenieros más brillantes del mundo son disputados en una feroz “guerra por el talento” entre Microsoft, Google y OpenAI, con salarios y recursos que los estados no pueden igualar, queda claro quién controla el recurso humano más crítico. Cuando una empresa como ScaleAI, participada por Meta, se convierte en la evaluadora oficial de los modelos de IA para el ejército estadounidense, la línea entre proveedor y socio estratégico se borra.
Esta dinámica se extiende a la base material del poder. La incursión de un gigante de la defensa como Lockheed Martin en la minería de aguas profundas para asegurar su propio suministro de minerales críticos es una señal inequívoca. Las corporaciones ya no solo fabrican las herramientas de la guerra; ahora buscan controlar toda la cadena de suministro, desde la materia prima hasta el algoritmo. Esto nos proyecta a un futuro donde la seguridad nacional depende de entidades con fines de lucro, cuyos intereses comerciales no siempre se alinearán con el interés público. La pregunta fundamental que emerge es: ¿quién es el responsable final cuando un sistema de armas autónomo, desarrollado por una empresa privada, comete un error catastrófico en el campo de batalla?
La convergencia de silicio y acero nos conduce inexorablemente hacia la guerra algorítmica. Los conflictos se acelerarán, con ciclos de decisión de inteligencia, vigilancia y ataque (ISTAR) ejecutados en milisegundos por sistemas de IA. La promesa es una eficiencia letal, pero el riesgo es una escalada automatizada e incontrolable, donde los sesgos ocultos en los datos de entrenamiento pueden llevar a consecuencias devastadoras. Los datos que generamos masivamente cada día, como advierten los críticos, se convierten en el combustible que entrena a estos sistemas, convirtiendo nuestras vidas digitales en parte de la cadena de suministro militar sin nuestro consentimiento.
En este contexto, surge un concepto ambivalente: la “paz algorítmica”. Podría manifestarse como un estado de estabilidad global mantenido por sistemas de vigilancia predictiva y disuasión automatizada tan poderosos que harían impensable un conflicto a gran escala. Sin embargo, esta paz tendría un costo: una supervisión constante, la erosión de las libertades civiles y la fragilidad de un equilibrio dependiente de códigos y máquinas que podrían fallar o ser manipulados. La elección del futuro no parece ser entre guerra y paz, sino entre diferentes tipos de conflicto y diferentes formas de control. La tecnología no ofrece una salida a la condición humana, sino que amplifica sus dilemas a una escala y velocidad sin precedentes, dejándonos la tarea de decidir qué tipo de futuro estamos dispuestos a aceptar.