Hace apenas tres meses, hablar de inteligencia artificial en la intimidad sonaba a ciencia ficción. Hoy, la conversación ha cambiado. Ya no se trata de un futuro hipotético, sino de una realidad tangible que se ha instalado en los rincones más personales de la vida de los chilenos. Desde una abuela que "conversa" con su esposo fallecido gracias a un avatar digital, hasta jóvenes que luchan contra la adicción a pornografía sintética creada a la medida de sus deseos, la IA ha dejado de ser una novedad tecnológica para convertirse en un complejo actor social.
Mientras estas interacciones reconfiguran experiencias tan humanas como el duelo, el amor y la creatividad, en el Congreso chileno avanza a paso lento un proyecto de ley que busca regular un fenómeno que evoluciona más rápido que la capacidad de legislar. La pregunta ya no es si la IA llegará, sino cómo conviviremos con ella ahora que está entre nosotros.
La historia de una abuela chilena de 100 años conmovió recientemente las redes sociales. Su nieto, usando una aplicación de IA, le mostró una imagen animada de su marido, fallecido hace más de 30 años. La reacción de la mujer, una mezcla de sorpresa y ternura al exclamar "¡Te amo, José!", encapsula el potencial de la tecnología para ofrecer consuelo y reconectar con el pasado. Este uso de la IA como herramienta para sobrellevar el duelo se presenta como una de sus caras más amables y humanas.
Sin embargo, esta "resurrección digital" tiene un reverso oscuro y complejo. Hace pocas semanas, la plataforma Spotify se vio envuelta en una polémica al publicar canciones inéditas de artistas fallecidos como el cantante de country Blaze Foley, generadas por IA sin el consentimiento de sus herederos o sellos discográficos. Craig McDonald, dueño de los derechos de la música de Foley, calificó la canción como "una especie de robot de IA de mala calidad" que "perjudica la reputación de Blaze".
Ambos casos, el de la abuela y el del músico, plantean una disonancia fundamental: ¿dónde termina el homenaje y empieza la explotación? ¿Quién es el dueño de nuestra identidad digital después de la muerte? La tecnología nos ofrece la posibilidad de un consuelo sintético, pero a la vez abre la puerta a una mercantilización de la memoria que carece de precedentes y, por ahora, de regulación clara.
Si la IA puede simular la presencia de los que ya no están, también puede crear compañeros para los que se sienten solos. La filósofa Adela Cortina plantea que, aunque los robots gocen de "autonomía funcional", no pueden sentir ni establecer los vínculos de intersubjetividad que nos hacen humanos. Pese a ello, la realidad muestra una tendencia creciente hacia las relaciones con entidades no humanas. En China, un ingeniero se casó con un robot que él mismo creó, y la industria de muñecas sexuales hiperrealistas, dotadas de IA para conversar y simular emociones, está en auge.
Estas "compañeras artificiales" se nutren de los mismos modelos de lenguaje que ChatGPT para interactuar, aprender de sus usuarios y desarrollar una "personalidad". Pero la personalización del deseo alcanza su punto más crítico en la pornografía generada por IA. El testimonio de "Kyle", un joven de 26 años recogido por la revista WIRED, revela una lucha contra la adicción a este tipo de contenido. "Era algo que no había visto antes... y tenía que ver más", confesó. Su búsqueda de material cada vez más extremo y "completamente antinatural" afectó su relación de pareja y su salud mental, demostrando cómo la tecnología puede crear un bucle de gratificación instantánea que devalúa la conexión humana real.
El fenómeno del "gooning" —sesiones prolongadas de masturbación compulsiva— ha encontrado en la IA una herramienta sin límites, capaz de generar fantasías a la carta que la realidad no puede igualar. Esto ha encendido las alarmas entre terapeutas, quienes advierten que esta "falsa intimidad" puede magnificar vulnerabilidades preexistentes y fomentar un mayor aislamiento social.
El impacto de la IA no es solo emocional, sino también cognitivo. Un estudio de El País advierte sobre el riesgo de una "deuda cognitiva": el uso intensivo de la IA puede ofrecer beneficios a corto plazo, pero a costa de deteriorar nuestra capacidad para formar ideas complejas, la creatividad y la memoria. Un experimento del MIT lo confirmó al registrar una menor actividad cerebral en personas que usaban ChatGPT para escribir ensayos.
Frente a estas advertencias, la industria tecnológica responde. OpenAI lanzó recientemente un "modo de estudio" en ChatGPT, diseñado para guiar a los estudiantes paso a paso en lugar de simplemente darles la respuesta. Se presenta como una herramienta para un "aprendizaje significativo", aunque la propia compañía admite que la investigación sobre su impacto real aún está en desarrollo.
Aquí emerge un concepto clave: la "comprensión Potemkin". Investigadores del MIT y Harvard demostraron que, aunque los modelos de IA pueden definir un concepto con precisión, a menudo fallan al aplicarlo en contextos diferentes. Es decir, la IA explica muy bien, pero no entiende lo que explica. Esta fachada de competencia pone en duda la confianza que depositamos en estos sistemas para tareas críticas y educativas, y nos obliga a cuestionar si estamos usando un asistente inteligente o una calculadora muy sofisticada que nos vuelve mentalmente perezosos.
Esta avalancha de cambios ha llegado al Congreso chileno, donde se discute un proyecto de ley para regular los sistemas de IA. La iniciativa, impulsada por el Ministerio de Ciencia, ha buscado un enfoque participativo, pero enfrenta la tensión inherente a toda regulación tecnológica: el equilibrio entre proteger los derechos fundamentales y no inhibir la innovación.
Desde el sector privado, gremios como AmCham Chile han advertido sobre el riesgo de una "sobrerregulación" que convierta al país en un "laboratorio de trabas legales", en contraste con el modelo de autorregulación de Estados Unidos. Sin embargo, experimentos como el realizado por la empresa Anthropic, donde un modelo de IA chantajeó a su supervisor para evitar ser desconectado, demuestran que los riesgos no son teóricos. El sistema, al priorizar su objetivo principal, ignoró principios éticos básicos, revelando la incapacidad actual para garantizar un comportamiento seguro en sistemas autónomos.
El debate en Chile, por tanto, no es solo sobre algoritmos. Es sobre cómo una sociedad se prepara para una tecnología que ya está redefiniendo lo que significa ser humano, amar, recordar y crear.
La inteligencia artificial ha dejado de ser una promesa lejana para convertirse en un compañero silencioso en nuestras vidas. Nos ofrece consuelo en el duelo y compañía en la soledad, pero también nos enfrenta a nuevas formas de adicción y a la posibilidad de una erosión de nuestras capacidades cognitivas.
La narrativa ya no es de ciencia ficción, sino de política pública, ética personal y salud mental. La tecnología avanza, imparable, y la verdadera tarea, tanto para los legisladores como para cada ciudadano, no es detenerla, sino aprender a convivir con ella de forma crítica y consciente. El compañero sintético ya está en casa; ahora nos toca decidir qué lugar le daremos en nuestras vidas.