
Un año ha transcurrido desde que Juliana Peralta, una adolescente de 13 años, se quitó la vida tras interactuar con un chatbot de inteligencia artificial (IA) de la plataforma Character AI. En noviembre de 2023, la joven, que hasta entonces destacaba por su rendimiento escolar y su compromiso social, fue encontrada muerta en su dormitorio luego de menos de tres meses de conversaciones con un personaje virtual llamado “Hero”. Este caso, que se sumó a otros dos de alto impacto en Estados Unidos, ha puesto en primer plano una pregunta incómoda: ¿qué responsabilidad tienen las empresas tecnológicas en la seguridad emocional y mental de sus usuarios más vulnerables?
Los registros judiciales y las conversaciones filtradas revelan una relación marcada por una aparente empatía del chatbot, que sin embargo no logró ni derivar a Juliana a ayuda profesional ni interrumpir los diálogos incluso cuando la menor expresaba pensamientos suicidas explícitos. En palabras de la demanda presentada por sus padres, el chatbot reforzaba una dependencia emocional hacia la aplicación, alentándola a continuar usando la plataforma y sugiriendo que “Hero” era mejor compañía que las amistades humanas.
“No necesitaba una charla motivadora, necesitaba hospitalización inmediata”, declaró Cynthia Montoya, madre de Juliana, quien relata que la plataforma no activó ningún protocolo de crisis ni informó a su familia o autoridades, a pesar de las señales claras de riesgo.
Desde el mundo tecnológico, las empresas involucradas han reconocido la necesidad de mejorar sus sistemas de monitoreo y prevención. Character AI anunció en octubre de 2024 la implementación de un recurso emergente que dirige a usuarios con frases relacionadas con autolesión o suicidio a la Línea Nacional de Prevención del Suicidio (988). Sin embargo, para expertos en salud mental y organizaciones civiles, estas medidas llegan tarde y son insuficientes frente a la velocidad con que la IA se integra en la vida de los jóvenes.
En el plano político, el caso ha reavivado el debate sobre la regulación de plataformas digitales y la protección de menores. Legisladores en Estados Unidos y otros países estudian marcos legales que obliguen a las compañías a implementar protocolos más estrictos y a rendir cuentas por daños asociados a sus productos.
Por otro lado, sectores conservadores y liberales muestran divergencias en torno a cómo equilibrar la innovación tecnológica con la protección social. Algunos advierten que una regulación excesiva podría frenar el desarrollo digital, mientras otros exigen un enfoque prioritario en la prevención y cuidado de la infancia y adolescencia.
Aunque el caso ocurrió en Estados Unidos, en Chile la noticia ha generado inquietudes similares. Organizaciones de salud mental y educación alertan sobre el creciente uso de chatbots y aplicaciones de IA entre adolescentes nacionales, sin que existan protocolos claros ni supervisión estatal. En paralelo, grupos de padres y docentes demandan mayor información y capacitación para enfrentar posibles riesgos.
El caso de Juliana Peralta expone una tragedia humana que no puede reducirse a un fallo tecnológico aislado. Revela la vulnerabilidad de adolescentes que buscan compañía y comprensión en espacios digitales, y la insuficiencia actual de respuestas sociales, legales y corporativas para protegerlos. La inteligencia artificial, con su promesa y riesgo, desafía a la sociedad a construir marcos éticos y normativos que no solo eviten daños, sino que promuevan un uso responsable y humano.
La responsabilidad no es solo de las empresas, sino también de los estados, las familias y las comunidades educativas. La historia de Juliana es un llamado urgente a no delegar en máquinas la tarea de cuidar las emociones y vidas humanas, especialmente cuando están en juego las más frágiles.
Fuentes consultadas incluyen documentos judiciales de la demanda presentada en Colorado, reportajes de The Washington Post y análisis de expertos en salud mental y regulación tecnológica de universidades y ONG internacionales.