En los últimos tres meses, lo que parecía una lejana distopía tecnológica se ha instalado en la realidad cotidiana de Chile y el mundo. La inteligencia artificial generativa, esa herramienta prometedora, ha demostrado ser un arma de doble filo, capaz de crear fraudes sofisticados, desestabilizar instituciones y, sobre todo, minar el pilar fundamental de la vida en sociedad: la confianza. Ya no se trata de un debate para expertos en tecnología; es una conversación urgente sobre la nueva fragilidad de nuestra realidad compartida.
Hace poco más de un mes, el 2 de julio, la presidenta de Polla Chilena de Beneficencia, Macarena Carvallo, interpuso una querella criminal. Su imagen había sido utilizada, sin su consentimiento, para promocionar un sitio de apuestas fraudulento en Instagram. El caso no es una anécdota, sino un síntoma. La tecnología para crear "deepfakes" o réplicas sintéticas de personas es hoy tan accesible que cualquier rostro puede convertirse en el anzuelo para una estafa. Lo que le ocurrió a Carvallo es la materialización de un temor global: la identidad personal se ha vuelto un activo vulnerable, fácilmente clonable y monetizable por actores maliciosos.
Este fenómeno opera a distintas escalas. Mientras en Chile se usaba para un fraude financiero, a nivel global, gigantes como Meta se veían obligados a demandar en junio a aplicaciones como "CrushAI", que permitían a los usuarios "desnudar" a personas mediante IA, una forma de violencia digital que atenta directamente contra la dignidad y la privacidad. Ambos casos, aunque distintos en su fin, comparten un origen común: la trivialización de la manipulación de la identidad ajena, transformándola en una herramienta para el engaño o el abuso.
La amenaza no proviene únicamente de estafadores anónimos. A mediados de julio, el Instituto Nacional Electoral (INE) de México, organismo clave para su democracia, se vio envuelto en una polémica que ilustra una disonancia aún más profunda. El INE utilizó una voz sintética sorprendentemente similar a la del fallecido actor de doblaje José Lavat —famoso por ser el narrador de Dragon Ball— para una campaña institucional. La respuesta del organismo fue un laberinto de contradicciones: primero admitió el uso de IA por "recortes de presupuesto", para luego negar que se intentara imitar al actor.
El episodio es revelador. Una institución pública, en un intento por parecer "creativa" o ahorrar costos, terminó por alimentar la desconfianza que se supone debe combatir. Al recurrir a una voz clonada sin transparencia, el INE no solo ofendió al gremio de actores de voz, que se manifestó exigiendo regulación, sino que también legitimó, sin quererlo, la idea de que la realidad sintética es una herramienta válida en la comunicación oficial. Este tropiezo resuena con lo ocurrido hace apenas unos días en Ecuador, donde noticias falsas sobre la inestabilidad del Banco Pichincha, difundidas masivamente, provocaron un pánico financiero real, con retiros por 160 millones de dólares en un solo día. La lección es clara: sea por un torpe uso de la IA o por una campaña de desinformación tradicional, la credibilidad de las instituciones es hoy más frágil que nunca.
Frente a esta avalancha de nuevas amenazas, las respuestas regulatorias parecen correr desde atrás. Este 8 de agosto, en Chile, entra en vigencia una nueva ley que obliga a las empresas a usar un prefijo telefónico específico para llamadas comerciales o de spam. Es una medida concreta y bienvenida para un problema conocido, un intento por devolverle al ciudadano un mínimo de control sobre sus comunicaciones.
Sin embargo, esta solución contrasta dolorosamente con la magnitud del nuevo desafío. Mientras se legisla para identificar llamadas de telemarketing, la tecnología para clonar la voz de un familiar y pedir un rescate, o para crear un video falso de un candidato presidencial días antes de una elección, se perfecciona a una velocidad vertiginosa. El ataque "Día Cero" que afectó a Microsoft en julio, comprometiendo servidores de agencias gubernamentales, es un recordatorio de que el ecosistema digital es inherentemente vulnerable.
El debate, por tanto, ha superado la esfera técnica. La pregunta ya no es si la IA puede hacer algo, sino qué haremos nosotros cuando ya no podamos distinguir lo real de lo artificial. La crisis de la realidad sintética no es un problema tecnológico, sino social y epistemológico. Exige una nueva forma de alfabetización digital, un escepticismo saludable pero informado, y una discusión profunda sobre la responsabilidad de las plataformas que alojan estas tecnologías y de las instituciones que coquetean con ellas. El tema no está cerrado; apenas hemos comenzado a comprender sus consecuencias, y la confianza pública es la primera víctima visible.