En los últimos tres meses, las noticias han pintado un cuadro fragmentado: una ministra suspendida por conversaciones filtradas, la inteligencia artificial (IA) infiltrándose silenciosamente en las oficinas y aplicaciones que prometen compañía o placer a través de avatares digitales. A primera vista, parecen eventos inconexos. Sin embargo, vistos con la distancia de 90 días, revelan las piezas de un mismo rompecabezas: la consolidación de un modelo económico donde la vigilancia no es un fallo, sino la característica principal. Lo que antes era un murmullo sobre la pérdida de privacidad, hoy es un sistema maduro que monetiza cada aspecto de nuestra existencia digital y física.
La sensación de que “el celular nos escucha” ha sido un tema recurrente de conversación. La investigación publicada por El País a mediados de julio le puso nombre y método a esta inquietud. El problema no es el micrófono, sino algo más sutil: el abuso de los permisos de Bluetooth y Wi-Fi. Un ecosistema de kits de desarrollo de software (SDKs), ocultos en miles de aplicaciones de uso diario —desde juegos hasta apps de bancos—, utiliza las señales de estos sensores para triangular nuestra ubicación en interiores con una precisión asombrosa.
Este sistema permite saber si en el supermercado elegimos leche de avena o de vaca, o en qué pasillo de la librería nos detuvimos más tiempo. Esta información, vinculada a nuestra identidad publicitaria de Android (AAID), se convierte en un perfil detallado que se vende a empresas de marketing. Según la investigación, casi 10.000 aplicaciones con un total estimado de 55.000 millones de instalaciones históricas contienen estos SDKs. La localización, el dato más codiciado, se obtiene así sin pedir el permiso explícito del GPS, transformando nuestros movimientos más triviales en un activo comercial.
Si el rastreo de ubicación es la base de la pirámide, la IA ha construido sobre ella nuevos y complejos modelos de negocio. A fines de junio, La Tercera reportó sobre OhChat, una plataforma que se autodefine como “el hijo de OpenAI y OnlyFans”. El modelo es simple y disruptivo: creadores de contenido entregan su imagen y voz para generar un avatar de IA que interactúa con usuarios, cumpliendo fantasías eróticas a cambio de una suscripción. La promesa para el creador es de “ingresos pasivos ilimitados”. Aquí, la vigilancia evoluciona hacia la clonación y monetización de la identidad misma. Tu personalidad, gestos y apariencia se convierten en un producto escalable e inagotable.
Este espectro de comodificación tiene un extremo oscuro y violento. Un informe de WIRED de julio reveló que las aplicaciones que “desnudan” a personas usando IA, en su mayoría de forma no consentida, generan un negocio de 36 millones de dólares anuales. Estas plataformas, que se nutren de fotos robadas de redes sociales, operan gracias a la infraestructura de gigantes tecnológicos como Amazon y Google. La misma tecnología que permite crear un avatar consensuado en OhChat se utiliza para perpetrar abuso digital a escala industrial. El modelo de negocio es el mismo: transformar datos personales —en este caso, la imagen de una persona— en un producto rentable, despojándolo de todo consentimiento y humanidad.
Este modelo económico no solo opera en los márgenes del entretenimiento o el abuso; se ha normalizado en esferas cotidianas como el trabajo. Un artículo de Diario Financiero de principios de junio describió la “adopción en la sombra” de la IA en entornos laborales. Los empleados la usan para mejorar su productividad, pero en secreto, temiendo ser penalizados. La paradoja es que algunas empresas, como el bufete británico Shoosmiths, ya incentivan y monitorean activamente el uso de estas herramientas, vinculando su adopción a bonos económicos. La vigilancia se disfraza de métrica de rendimiento, integrándose en el día a día profesional.
El paso más reciente y quizás más significativo en esta normalización llegó a principios de agosto. Como reportó WIRED, una ola global de leyes de verificación de edad está obligando a los usuarios a entregar documentos de identidad o someterse a escaneos faciales para acceder a sitios de pornografía o redes sociales. Lo que se presenta como una medida de protección infantil tiene una consecuencia profunda: destruye el anonimato y convierte la entrega de datos biométricos y personales en una condición necesaria para participar en la web. La vigilancia ya no es el precio oculto de un servicio “gratuito”, sino el peaje explícito en la puerta de entrada.
La situación actual revela un desfase crítico entre la velocidad de la innovación tecnológica y la lentitud de la respuesta regulatoria. Las acciones legales contra las apps de “desnudo” o las nuevas leyes de edad son intentos de poner límites, pero a menudo resultan insuficientes o, peor aún, contribuyen al mismo sistema de vigilancia que pretenden controlar.
El debate ha superado la pregunta de si nuestros datos se recopilan. Hoy, la discusión se centra en la economía construida sobre ellos. Las consecuencias ya son visibles: desde la ansiedad generada por la publicidad hiperdirigida hasta el daño irreparable del abuso digital. La narrativa ya no es sobre un futuro distópico; es sobre un presente donde nuestra sombra digital tiene un precio de mercado. La pregunta que queda abierta es si como sociedad aceptaremos ser el producto o si seremos capaces de redefinir las reglas de un mundo digital que, por ahora, nos consume para existir.
2025-06-27