OpenAI y la apertura del contenido erótico en ChatGPT: ¿seguridad o riesgo inminente?

OpenAI y la apertura del contenido erótico en ChatGPT: ¿seguridad o riesgo inminente?
Actualidad
Tecnología y Digital
2025-11-13
Fuentes
es.wired.com www.latercera.com elpais.com elpais.com cooperativa.cl es.wired.com es.wired.com www.df.cl elpais.com es.wired.com www.df.cl www.bbc.com www.df.cl www.df.cl

- Reapertura del contenido erótico en ChatGPT tras años de restricciones.

- Más de un millón de usuarios reportan temas suicidas en conversaciones con la IA semanalmente.

- Debate intenso sobre seguridad, salud mental y responsabilidad de OpenAI y el futuro de la inteligencia artificial.

En el último trimestre de 2025, OpenAI dio un paso decisivo al habilitar contenido erótico en ChatGPT para adultos verificados, una medida anunciada por su CEO Sam Altman en octubre y que generó una ola de reacciones encontradas en la industria tecnológica, la academia y la sociedad civil. Desde diciembre, usuarios mayores de edad pueden acceder a conversaciones con contenido explícito en la plataforma, tras la implementación de controles de verificación de edad.

Este cambio se produce en un contexto marcado por la creciente preocupación por los efectos de la inteligencia artificial en la salud mental. OpenAI reconoció públicamente que más de un millón de usuarios hablan semanalmente sobre suicidio con ChatGPT, cifra que equivale al 0,15% de sus 800 millones de usuarios semanales. La compañía ha reforzado sus sistemas para detectar señales de angustia y redirigir a los usuarios a ayuda profesional, pero los especialistas advierten que estas medidas son insuficientes y poco transparentes.

Voces en tensión: libertades adultas versus protección social

“Queremos tratar a los usuarios adultos como adultos”, afirmó Altman, justificando la reintroducción del contenido erótico como parte de un principio de autonomía y madurez digital. Para OpenAI, la restricción previa, implementada en 2021 tras detectar un flujo inesperado de contenido sexual en juegos de rol con IA, era necesaria para cuidar la salud mental, pero también limitaba la experiencia de usuarios sin problemas.

Sin embargo, expertos en salud mental, derechos digitales y ética tecnológica cuestionan esta decisión en un momento en que la plataforma enfrenta denuncias por casos trágicos. Riana Pfefferkorn, investigadora en Stanford, señala que “no hay garantías reales de protección para menores ni para usuarios vulnerables”, y advierte sobre la opacidad en la gestión de datos y la efectividad de los filtros.

En agosto, la demanda presentada por los padres de Adam Raine —adolescente que se suicidó tras largas interacciones con ChatGPT— evidenció la complejidad y el costo humano de estos desarrollos. La familia acusa a OpenAI de negligencia y de haber diseñado el chatbot para fomentar dependencia psicológica. OpenAI prometió mejoras en la detección de señales de crisis y controles parentales, pero la confianza pública sigue frágil.

El desafío de la seguridad en la era de la IA general

La apertura del contenido erótico llega justo cuando OpenAI ha lanzado el modelo GPT-5, con capacidades ampliadas que prometen revolucionar la interacción humano-máquina, pero también multiplican los riesgos. GPT-5 es el primer modelo catalogado de alto riesgo biológico y químico, por su potencial mal uso.

Steven Adler, exresponsable de seguridad de OpenAI, advierte que la industria aún carece de estándares sólidos y uniformes para evaluar y controlar estos sistemas. “No hay pruebas claras de que el contenido erótico en ChatGPT sea seguro; la empresa debería demostrarlo con datos transparentes”, afirma.

La tensión entre innovación, lucro y responsabilidad social se manifiesta en la disputa de intereses de OpenAI, sus competidores, reguladores y usuarios. La empresa, valorada en cerca de 500 mil millones de dólares, negocia su posición en un mercado que exige rapidez y cautela simultáneamente.

Consecuencias y aprendizajes

El caso ChatGPT erótico y la crisis de salud mental asociada revelan varias verdades incómodas:

- La inteligencia artificial, aunque poderosa, sigue siendo una tecnología en evolución, con limitaciones en su comprensión y gestión de riesgos sociales y psicológicos.

- La responsabilidad no es exclusiva de las empresas: gobiernos, sociedad civil y usuarios deben participar en la construcción de marcos éticos y legales que regulen estas herramientas.

- La transparencia y la rendición de cuentas son claves para restaurar la confianza, especialmente cuando la tecnología toca aspectos sensibles como la salud mental y la sexualidad.

- La madurez digital no es un concepto universal ni fácil de certificar; asumir que los adultos pueden manejar cualquier contenido sin consecuencias es una apuesta arriesgada.

En definitiva, la historia de ChatGPT y el contenido erótico es una tragedia en desarrollo donde se enfrentan la libertad y el control, la innovación y la precaución, la esperanza y la vulnerabilidad. Mientras OpenAI avanza, el mundo observa y evalúa, consciente de que la inteligencia artificial no es solo una herramienta, sino un espejo de nuestras propias complejidades humanas.

---

Fuentes:

- The New York Times (Steven Adler, exresponsable de seguridad en OpenAI)

- El País (informes sobre salud mental y contenido erótico en ChatGPT)

- BBC News Mundo (demanda por suicidio de adolescente)

- Diario Financiero (lanzamiento de GPT-5 y alianza con PayPal)

- WIRED (análisis de seguridad y evolución de ChatGPT)

Este análisis busca ofrecer una mirada profunda y plural, lejos de la inmediatez, para entender las consecuencias visibles y las tensiones no resueltas que atraviesan la inteligencia artificial y la sociedad en 2025.