Durante años fue un secreto a voces, una relación incómoda velada por códigos de conducta y declaraciones de principios. Hoy, el velo ha caído. La alianza entre Silicon Valley y el complejo militar-industrial ya no es una insinuación, sino una realidad consolidada a través de contratos multimillonarios, fichajes estratégicos y un cambio tectónico en la ética corporativa. Eventos recientes, como el acuerdo de US$ 30.000 millones anuales entre OpenAI y Oracle para el proyecto de supercomputación Stargate, o la inversión de US$ 14.300 millones de Meta en Scale AI —un proveedor clave del Pentágono—, no son hechos aislados. Son las señales inequívocas de que se está forjando un nuevo tipo de poder, uno donde el código se convierte en arma y la soberanía se mide en gigavatios y talento.
La dinámica actual trasciende la histórica colaboración entre tecnología y defensa. Estamos presenciando la externalización de funciones críticas de seguridad nacional a corporaciones privadas cuyo alcance es global y cuya rendición de cuentas es, en el mejor de los casos, ambigua. La designación de altos ejecutivos de Meta y OpenAI como tenientes coroneles en la reserva del Ejército de EE.UU. es más que un gesto simbólico; es la institucionalización de un eje Pentágono-Valle que redefine las reglas del juego.
La trayectoria actual nos proyecta hacia varios futuros plausibles, cada uno con sus propias tensiones y puntos de inflexión. La dirección que tome dependerá de decisiones críticas que se están tomando en este preciso momento en consejos de administración y agencias de seguridad.
Quizás el cambio más profundo no sea tecnológico, sino ético. El antiguo lema de Google, “Don"t Be Evil”, parece una reliquia de una era ingenua. OpenAI, nacida como una organización sin fines de lucro para el beneficio de la humanidad, eliminó en enero de 2024 la prohibición explícita del uso de su tecnología para fines “militares y de guerra”. Más revelador aún es el memorando interno del CEO de Anthropic, Dario Amodei. Al contemplar aceptar inversiones de regímenes autoritarios, reconoció que probablemente enriquecería a “dictadores”, pero lo justificó como una necesidad para seguir siendo competitivos. “Desafortunadamente, creo que "Ninguna mala persona debería beneficiarse de nuestro éxito" es un principio bastante difícil para dirigir un negocio”, escribió.
Esta nueva moralidad corporativa es una de realpolitik algorítmica. Los ideales fundacionales se subordinan a las demandas del capital y a la lógica de una carrera armamentista que, una vez iniciada, obliga a todos los participantes a correr, sin importar la dirección. La narrativa de una “carrera contra China” se convierte en una justificación conveniente para eludir regulaciones y concentrar poder, posicionando a estas empresas como “demasiado importantes estratégicamente para fracasar”.
Nos encontramos en una encrucijada histórica. Las decisiones que se están tomando hoy en los pasillos de poder de Washington y Silicon Valley no solo determinarán el futuro de la guerra, sino también la relación entre el ciudadano, la tecnología y el Estado. La convergencia de la IA con la defensa promete avances sin precedentes en seguridad, pero también plantea riesgos existenciales para la autonomía humana y los valores democráticos.
La pregunta fundamental que queda abierta no es si la IA cambiará el mundo, sino quién controlará esa transformación. ¿Serán corporaciones privadas con lealtades divididas entre sus accionistas y la seguridad nacional? ¿Serán los estados, utilizando la tecnología para consolidar su poder? ¿O surgirá un contrapeso, impulsado por la resistencia interna y la demanda ciudadana de transparencia y control? El contrato del código armado ya se está escribiendo, y sus cláusulas definirán el orden global de las próximas décadas.