AllyAI y la Inclusividad en IA: ¿Un Sello Real o Solo una Promesa?

AllyAI y la Inclusividad en IA: ¿Un Sello Real o Solo una Promesa?
Tecnología y Digital
Inteligencia Artificial
2025-11-22
Fuentes
www.latercera.com www.latercera.com elpais.com www.df.cl www.latercera.com www.latercera.com www.df.cl www.df.cl es.wired.com www.latercera.com www.latercera.com www.latercera.com www.latercera.com www.latercera.com

- Certificación AllyAI busca eliminar sesgos en IA para comunidades LGTBIQA+.

- Debate técnico y ético sobre la posibilidad real de una IA inclusiva y libre de prejuicios.

- Riesgo de rainbow-washing y desafíos regulatorios en un contexto político global complejo.

Un proyecto con promesas y obstáculos

En julio de 2025, AllyAI, una iniciativa impulsada por la organización LGBT Tech, anunció el desarrollo de la primera certificación para sistemas de inteligencia artificial inclusivos, con foco en la comunidad LGTBIQA+. Su objetivo es garantizar que las tecnologías basadas en IA reconozcan y mitiguen sesgos que históricamente han excluido o perjudicado a estas poblaciones, especialmente en ámbitos críticos como la salud, la justicia social y el acceso a servicios financieros.

Sin embargo, a cuatro meses de la fecha prevista para su lanzamiento, el proyecto enfrenta retrasos y cuestionamientos técnicos y políticos que ponen en duda su viabilidad inmediata.

---

¿Es posible una IA realmente inclusiva?

Expertos en inteligencia artificial y derechos LGTBIQA+ coinciden en que eliminar por completo los sesgos en IA es una meta compleja y aún lejana. Según Sabine Weber, investigadora en procesamiento del lenguaje natural, los grandes modelos de lenguaje se entrenan con datos masivos que reflejan discursos dominantes, dejando fuera o distorsionando las voces de comunidades marginadas.

“Mucho contenido que podría ser legítima autoexpresión queer se filtra porque ciertas palabras se clasifican automáticamente como inapropiadas, sin considerar su contexto real”, explica Weber.

Los ajustes posteriores en el aprendizaje por refuerzo, aunque útiles, son considerados parches que no garantizan una solución definitiva. Raj Korpan, experto en robótica, advierte que estos parches pueden generar problemas inesperados en aplicaciones prácticas, como asistencia robótica, donde un sesgo puede tener consecuencias graves.

Davide Cirillo y Nataly Buslón, especialistas en sesgos de género y ética en IA, proponen un enfoque bias-aware: sistemas conscientes de sus limitaciones y en constante auditoría, en lugar de buscar una supuesta neutralidad imposible.

---

El riesgo del rainbow-washing y la necesidad de rendición de cuentas

Uno de los principales temores es que el sello AllyAI se utilice como una estrategia de marketing para aparentar inclusividad sin cambios profundos en las empresas, fenómeno conocido como rainbow-washing. Korpan insiste en que la certificación debe ser parte de un proceso continuo, con auditorías actualizadas y una rendición de cuentas clara.

Buslón enfatiza que la transparencia es clave: “Si no podemos garantizar que un sistema funcione para todas las personas, debemos ser claros sobre sus limitaciones, como se hace con los efectos adversos en medicamentos.”

Además, la responsabilidad ante incidentes relacionados con IA —como exclusión en servicios o daños psicológicos— sigue siendo un terreno gris: ¿quién responde cuando un algoritmo falla?

---

Regulación en construcción y desafíos globales

Actualmente, la regulación en inteligencia artificial es incipiente y fragmentada. La Unión Europea lidera con su AI Act, que entrará en vigor plenamente en 2026, pero fue diseñada antes de la explosión de modelos generativos como ChatGPT, dejando vacíos en el control de estos sistemas.

“La AI Act es un buen inicio, pero aún debe incorporar una perspectiva interseccional y participación real de grupos vulnerables”, señala Buslón.

Por otro lado, en Estados Unidos y otras regiones, las políticas públicas han retrocedido en derechos humanos y diversidad, complicando la implementación de estándares inclusivos. Además, más de 40 empresas europeas solicitaron una moratoria de dos años para la regulación, calificándola de poco clara y compleja.

En este escenario, garantizar la independencia y transparencia de los organismos reguladores es un desafío mayúsculo. Weber alerta que gobiernos con posturas conservadoras podrían influir negativamente en la definición de criterios de inclusividad, poniendo en riesgo la confianza en estos sellos.

---

¿Quién define la inclusividad?

AllyAI planea crear un comité experto con representación de la comunidad LGTBIQ+, académicos y profesionales, pero la gobernanza a nivel global sigue siendo incierta. La concentración de poder regulatorio en organismos únicos suscita dudas sobre la imparcialidad y la capacidad para adaptarse a cambios culturales y sociales.

Además, la iniciativa ha tenido que replantear su estrategia para adaptarse a un contexto político global volátil, especialmente tras la llegada de gobiernos con agendas contrarias a los derechos LGTBIQ+.

---

Conclusiones y miradas futuras

La historia de AllyAI ilustra la complejidad de construir una inteligencia artificial verdaderamente inclusiva en un mundo atravesado por desigualdades, tensiones políticas y limitaciones tecnológicas. El proyecto, aunque pionero y necesario, enfrenta la realidad de que la erradicación total de sesgos es una utopía técnica y social.

La certificación AllyAI puede ser un paso importante si se acompaña de transparencia, auditorías continuas y compromiso real de las empresas y reguladores. Sin embargo, también expone riesgos de simplificación y marketing vacío que podrían erosionar la confianza en la IA responsable.

La discusión pública debe avanzar hacia una rendición de cuentas clara, una regulación adaptable y plural, y la inclusión activa de las comunidades afectadas en el diseño y evaluación de estas tecnologías.

Como señala Christopher Wood, director de LGBT Tech: “Nuestra misión es crear una tecnología que promueva la inclusividad, la equidad y el respeto para todas las personas, pero sabemos que este es un camino largo y complejo.”

El futuro de la inteligencia artificial inclusiva está en juego, y la sociedad observa con atención cómo se libran estas batallas en el coliseo de la ética tecnológica.

---

Fuentes:

- WIRED, "Un viaje al interior de AllyAI y la búsqueda de una inteligencia artificial realmente inclusiva", 2025.

- Entrevistas con expertos en IA responsable y derechos LGTBIQA+.

- Documentos oficiales de la Unión Europea sobre AI Act.

- Informes de Amnistía Internacional sobre derechos humanos en EE.UU.