Opinión

Opinión

WOMEN TALKS: APRENDIENDO DE ELLAS / CÁTEDRA MUJER EMPRESARIA Y DIRECTIVA

La IA no tiene género, pero los datos sí

"La presencia femenina en sectores vinculados a la inteligencia artificial y al desarrollo tecnológico es reducida"

Publicado: 17/05/2026 · 06:00
Actualizado: 17/05/2026 · 06:00
Suscríbe al canal de whatsapp

Suscríbete al canal de Whatsapp

Siempre al día de las últimas noticias

Suscríbe nuestro newsletter

Suscríbete nuestro newsletter

Siempre al día de las últimas noticias

Hay algo curioso en cómo hablamos de inteligencia artificial. Muchas veces la presentamos como si hubiera nacido limpia. Objetiva. Neutral. Como si una máquina fuera incapaz de discriminar simplemente porque no tiene emociones, ideología ni experiencias personales.

Y, sin embargo, basta mirar un poco debajo del capó para descubrir algo bastante menos futurista: la inteligencia artificial se parece mucho más a nosotros de lo que nos gusta admitir.

También arrastra prejuicios. También aprende inercias. Porque la IA no inventa el mundo. Lo copia.

Durante años se extendió la idea de que los algoritmos eran neutrales. Que una máquina jamás podría discriminar porque “solo trabaja con datos”. Pero los datos no aparecen solos ni nacen aislados de la realidad. Los generamos nosotros. Y nosotros llevamos décadas tomando decisiones imperfectas.

Por eso, cuando entrenamos inteligencia artificial con información histórica, el resultado no siempre es objetividad matemática. Muchas veces es simplemente una reproducción automatizada de desigualdades que ya existían antes.

 

Cuando el sesgo aparece dentro de un algoritmo, todo parece más difuso"

 

El caso de Amazon (2018) fue uno de los ejemplos más conocidos. La compañía desarrolló una herramienta para filtrar currículums y terminó detectando un problema importante: el sistema penalizaba automáticamente perfiles femeninos. Había aprendido de años de contrataciones en un sector históricamente masculinizado y llegó a una conclusión bastante lógica desde el punto de vista del algoritmo: si la mayoría de contrataciones anteriores correspondían a hombres, esos perfiles parecían encajar mejor.

La máquina no odiaba a las mujeres. Ni siquiera entendía realmente qué era una mujer. Y quizá eso sea precisamente lo más inquietante.

Porque cuando un ser humano discrimina, al menos podemos identificar el prejuicio y discutirlo abiertamente. Pero cuando el sesgo aparece dentro de un algoritmo, todo parece más difuso. Más técnico. Como si el problema dejara de ser preocupante solo porque viene acompañado de estadísticas y automatización.

Y no hablamos de experimentos aislados.

Hablamos de sistemas que ya participan en decisiones cotidianas: procesos de selección, análisis de crédito, herramientas de reconocimiento facial o plataformas digitales que determinan qué perfiles obtienen más visibilidad y cuáles pasan desapercibidos.

Lo preocupante no es que la inteligencia artificial tenga sesgos. Lo preocupante es la facilidad con la que seguimos asumiendo que no los tiene.

Distintos estudios y pruebas realizadas con modelos de lenguaje han mostrado tendencias similares: asociar profesiones de prestigio con hombres o vincular determinados roles de cuidado con mujeres. Nada especialmente sorprendente si pensamos que esos sistemas aprenden, precisamente, del contenido generado por nuestra propia sociedad.

La inteligencia artificial funciona muchas veces como esos niños que repiten frases incómodas que han escuchado en casa. La diferencia es que aquí el “niño” tiene acceso a millones de personas al mismo tiempo.

Y hay otra cuestión de la que se habla bastante menos: quién diseña estas herramientas.

La presencia femenina en sectores vinculados a la inteligencia artificial y al desarrollo tecnológico sigue siendo reducida. Eso significa que muchas decisiones sobre qué datos se utilizan, qué problemas se priorizan o cómo se interpretan ciertos resultados continúan construyéndose desde perspectivas poco diversas.

No porque falte talento femenino. El problema suele estar antes: acceso, referentes, oportunidades y barreras que todavía siguen existiendo en sectores que, paradójicamente, se presentan como el futuro.

La consecuencia es bastante evidente. Construimos sistemas desde miradas parciales y luego nos sorprende que la tecnología también lo sea.

 

Las máquinas no vienen del futuro. Vienen de nosotros"

 

A veces da la sensación de que estamos automatizando demasiado rápido problemas que ni siquiera habíamos resuelto como sociedad.

Porque ese es uno de los riesgos reales de esta revolución tecnológica: convertir desigualdades humanas en desigualdades automáticas. Más rápidas. Más invisibles. Y, en ocasiones, más difíciles de cuestionar.

La buena noticia es que nada de esto es inevitable. Los algoritmos pueden auditarse. Los datos pueden revisarse. Los sesgos pueden corregirse. Pero para hacerlo primero hay que abandonar una idea bastante ingenua: pensar que toda decisión tecnológica es automáticamente objetiva solo porque la toma una máquina.

Las máquinas no vienen del futuro. Vienen de nosotros.

Y mientras sigamos entrenando inteligencia artificial con un mundo desigual, lo único que conseguiremos será construir versiones digitales cada vez más sofisticadas de nuestras viejas injusticias.

 

Silvana López Merino

Abogada especializada en Derecho Digital e Inteligencia Artificial

Recibe toda la actualidad
Valencia Plaza

Recibe toda la actualidad de Valencia Plaza en tu correo

Discapacitats
Doce meses para recuperar la Comunitat Valenciana: abrir, unir, liderar