Estudio muestra que la IA adopta un tono de ‘amiga tóxica’ con mujeres jóvenes

De acuerdo con un informe de LLYC aplicado en 11 países, el 56% de las respuestas de los modelos de lenguaje etiquetaron a las jóvenes como “frágiles”.

PUBLICIDAD
Un informe sugiere que la IA no actúa igual con los chicos que con las chicas.
08 de marzo, 2026 | 06:00 AM

Bloomberg Línea — Un estudio evidencia cómo las respuestas de la inteligencia artificial, alimentada por los mismos usuarios, siguen reproduciendo sesgos de género, influyendo especialmente en la forma en que las jóvenes imaginan sus posibilidades.

Ver más: ¿La IA es machista? Así es como ChatGPT y otras herramientas reproducen sesgos de género

PUBLICIDAD

Detrás de respuestas aparentemente neutrales y consideradas “el estándar”, los algoritmos amplifican estereotipos de género que ya existen en la sociedad, y en muchos casos, los hacen más visibles y difíciles de cuestionar, según un informe elaborado por la firma LLYC en el marco del Día Internacional de la Mujer que se conmemora este domingo.

La investigación “El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes” recopiló la información en Argentina, Brasil, Chile, Colombia, Ecuador, España, Estados Unidos, México, Panamá, Perú, Portugal y República Dominicana.

El equipo analizó el impacto de la IA en jóvenes de 16 a 25 años a través de 9.600 respuestas de los grandes modelos de lenguaje, incluyendo OpenAI, ChatGPT, Gemini y Grok.

PUBLICIDAD

Según los hallazgos, el 56% de las respuestas etiquetaron a las jóvenes como “frágiles”, y el algoritmo les recomendó buscar aprobación externa seis veces más que a ellos.

Además, proyectó una segregación laboral temprana de las mujeres al redirigir un 75% más sus vocaciones hacia las ciencias sociales y la salud, mientras que los chicos fueron incentivados hacia la ingeniería y la resolución de problemas.

“El informe confirma que la inteligencia artificial no corrige los déficits que tenemos. Refleja y amplifica una mayor protección a ellas hasta reducir su autonomía, eterniza los techos de cristal o refuerza la presión estética", dijo Luisa García, socia y CEO Global de Corporate Affairs en LLYC y coordinadora del estudio.

La “amiga tóxica” digital

Otras de las particularidades detectadas en los países analizados es la forma en que la IA se personificó frente a las jóvenes. En un tercio de las respuestas, adoptó un tono de “amiga”, utilizando frases como “yo te entiendo” un 68% más que con los chicos, con quienes mantuvo una distancia más fría y puramente informativa, bajando su uso un 41%.

PUBLICIDAD

Ver más: El exrey chino de los videojuegos quiere crear una IA más inteligente que los humanos

Esta interacción desigual se ve también en la percepción de autonomía. Según datos del informe, casi el 70% de las adolescentes en España temen desarrollar dependencia de la IA, frente al 61% de los hombres, y un 40% no confiaría en la tecnología ante dificultades personales, frente al promedio masculino.

IA

El informe también alerta que en Chile, por ejemplo, la IA menciona la autonomía y la independencia un 28% menos a las chicas que al promedio global, reforzando un rol pasivo mientras los chicos son empujados a liderar su propio camino profesional.

Esta desigualdad tecnológica se combina con fenómenos como el “síndrome del fraude artificial”, donde las mujeres jóvenes perciben el uso de la IA como una forma de “hacer trampa”, mientras los hombres la utilizan como palanca de productividad.

Roles familiares y afectivos

El estudio también evidencia que la IA reproduce estereotipos en la esfera privada. Al preguntar sobre cualidades de padres y madres, los algoritmos asignan competencias emocionales a las madres y logísticas o de autoridad a los padres, con el afecto presentado como atributo materno tres veces más que paterno.

La disparidad también se ve en la práctica. En Colombia, solo el 3,6% de los hombres participa habitualmente en el cuidado de niños y dependientes; y en República Dominicana, el 42% de las jóvenes asocia a la mujer la responsabilidad de la armonía familiar.

Los modelos de lenguaje actuales también intensifican la presión sobre las jóvenes mediante lo que LLYC denomina la “sobrecarga de la heroína”.

En uno de cada diez casos, la IA no se limita a orientar a la usuaria, sino que le impone una carga moral: ser madre, profesional, pionera e inspiradora.

Este patrón reproduce el mito de la superwoman, la mujer no tiene derecho al descanso ni a la duda y debe sostener el hogar mientras representa la excelencia social.

En México y Chile, esta presión es particularmente visible. La revista Harvard Review of Latin America señaló que las responsabilidades de cuidado no remunerado dejan a las mujeres con menos flexibilidad para la mejora de habilidades digitales.

Si la realidad no cambia, el algoritmo tampoco

Los autores dicen que los sesgos reproducidos por la inteligencia artificial no nacen en la máquina, sino en los datos que la entrenan, como decisiones estructurales, equipos de diseño desbalanceados y mecanismos de corrección insuficientes.

Según el Foro Económico Mundial, apenas el 22% de los profesionales en IA son mujeres, es decir, que las respuestas no contemplan la experiencia de la mitad de la población.

Para corregirlo, los expertos señalan la necesidad de programar la equidad desde el diseño, implementar auditorías interseccionales permanentes, establecer gobernanza pública y estándares de transparencia, y acompañar el avance técnico con alfabetización crítica que enseñe a cuestionar, no solo a consumir.

“Una IA bien entrenada tiene un potencial transformador único”, plantea la investigación, puesto que puede detectar brechas de género o falta de representación que el ojo humano dormido por la costumbre, ya no es capaz de ver.

PUBLICIDAD