La Realidad Dejó de Ser Evidente: Cómo la clonación de voces e imágenes sintéticas se convirtió en un arma contra la confianza pública

La Realidad Dejó de Ser Evidente: Cómo la clonación de voces e imágenes sintéticas se convirtió en un arma contra la confianza pública
2025-08-08
Fuentes
www.latercera.com cooperativa.cl cooperativa.cl es.wired.com www.latercera.com cooperativa.cl
  • La suplantación de identidad mediante IA ya no es ciencia ficción: casos como el fraude a la presidenta de Polla Chilena demuestran su uso para estafas concretas.
  • Instituciones públicas, como el Instituto Electoral de México, erosionan su propia credibilidad al usar o justificar ambiguamente tecnologías de voz sintética, generando desconfianza.
  • Mientras la tecnología avanza, la regulación reacciona lentamente. La nueva ley de prefijos para spam en Chile es una respuesta a un problema análogo, pero la brecha entre amenaza y solución se agranda.

¿Qué pasa cuando ya no podemos confiar en lo que vemos y oímos?

En los últimos tres meses, lo que parecía una lejana distopía tecnológica se ha instalado en la realidad cotidiana de Chile y el mundo. La inteligencia artificial generativa, esa herramienta prometedora, ha demostrado ser un arma de doble filo, capaz de crear fraudes sofisticados, desestabilizar instituciones y, sobre todo, minar el pilar fundamental de la vida en sociedad: la confianza. Ya no se trata de un debate para expertos en tecnología; es una conversación urgente sobre la nueva fragilidad de nuestra realidad compartida.

El Rostro y la Voz: La Nueva Frontera del Fraude

Hace poco más de un mes, el 2 de julio, la presidenta de Polla Chilena de Beneficencia, Macarena Carvallo, interpuso una querella criminal. Su imagen había sido utilizada, sin su consentimiento, para promocionar un sitio de apuestas fraudulento en Instagram. El caso no es una anécdota, sino un síntoma. La tecnología para crear "deepfakes" o réplicas sintéticas de personas es hoy tan accesible que cualquier rostro puede convertirse en el anzuelo para una estafa. Lo que le ocurrió a Carvallo es la materialización de un temor global: la identidad personal se ha vuelto un activo vulnerable, fácilmente clonable y monetizable por actores maliciosos.

Este fenómeno opera a distintas escalas. Mientras en Chile se usaba para un fraude financiero, a nivel global, gigantes como Meta se veían obligados a demandar en junio a aplicaciones como "CrushAI", que permitían a los usuarios "desnudar" a personas mediante IA, una forma de violencia digital que atenta directamente contra la dignidad y la privacidad. Ambos casos, aunque distintos en su fin, comparten un origen común: la trivialización de la manipulación de la identidad ajena, transformándola en una herramienta para el engaño o el abuso.

La Paradoja Institucional: Erosión de la Confianza desde Adentro

La amenaza no proviene únicamente de estafadores anónimos. A mediados de julio, el Instituto Nacional Electoral (INE) de México, organismo clave para su democracia, se vio envuelto en una polémica que ilustra una disonancia aún más profunda. El INE utilizó una voz sintética sorprendentemente similar a la del fallecido actor de doblaje José Lavat —famoso por ser el narrador de Dragon Ball— para una campaña institucional. La respuesta del organismo fue un laberinto de contradicciones: primero admitió el uso de IA por "recortes de presupuesto", para luego negar que se intentara imitar al actor.

El episodio es revelador. Una institución pública, en un intento por parecer "creativa" o ahorrar costos, terminó por alimentar la desconfianza que se supone debe combatir. Al recurrir a una voz clonada sin transparencia, el INE no solo ofendió al gremio de actores de voz, que se manifestó exigiendo regulación, sino que también legitimó, sin quererlo, la idea de que la realidad sintética es una herramienta válida en la comunicación oficial. Este tropiezo resuena con lo ocurrido hace apenas unos días en Ecuador, donde noticias falsas sobre la inestabilidad del Banco Pichincha, difundidas masivamente, provocaron un pánico financiero real, con retiros por 160 millones de dólares en un solo día. La lección es clara: sea por un torpe uso de la IA o por una campaña de desinformación tradicional, la credibilidad de las instituciones es hoy más frágil que nunca.

La Lenta Carrera por Regular lo Indetectable

Frente a esta avalancha de nuevas amenazas, las respuestas regulatorias parecen correr desde atrás. Este 8 de agosto, en Chile, entra en vigencia una nueva ley que obliga a las empresas a usar un prefijo telefónico específico para llamadas comerciales o de spam. Es una medida concreta y bienvenida para un problema conocido, un intento por devolverle al ciudadano un mínimo de control sobre sus comunicaciones.

Sin embargo, esta solución contrasta dolorosamente con la magnitud del nuevo desafío. Mientras se legisla para identificar llamadas de telemarketing, la tecnología para clonar la voz de un familiar y pedir un rescate, o para crear un video falso de un candidato presidencial días antes de una elección, se perfecciona a una velocidad vertiginosa. El ataque "Día Cero" que afectó a Microsoft en julio, comprometiendo servidores de agencias gubernamentales, es un recordatorio de que el ecosistema digital es inherentemente vulnerable.

El debate, por tanto, ha superado la esfera técnica. La pregunta ya no es si la IA puede hacer algo, sino qué haremos nosotros cuando ya no podamos distinguir lo real de lo artificial. La crisis de la realidad sintética no es un problema tecnológico, sino social y epistemológico. Exige una nueva forma de alfabetización digital, un escepticismo saludable pero informado, y una discusión profunda sobre la responsabilidad de las plataformas que alojan estas tecnologías y de las instituciones que coquetean con ellas. El tema no está cerrado; apenas hemos comenzado a comprender sus consecuencias, y la confianza pública es la primera víctima visible.

La historia documenta la transición de la inteligencia artificial de una promesa tecnológica a una herramienta tangible para el fraude y la desinformación, mostrando un ciclo completo de amenaza, impacto en instituciones y figuras públicas, y las primeras respuestas regulatorias. Permite analizar con profundidad las consecuencias sociales y la erosión de la confianza en la era digital, un tema de creciente relevancia cuyos efectos ya son visibles y debatidos.