
En un contexto laboral cada vez más digitalizado, la inteligencia artificial (IA) se presenta como una herramienta de eficiencia y objetividad. Sin embargo, esta aparente neutralidad es engañosa. En la práctica, los sistemas de IA reproducen y amplifican desigualdades estructurales, especialmente aquellas que afectan a las mujeres. La discriminación sexista en los procesos de selección automatizados es ya una realidad jurídica, social y tecnológica que exige atención urgente.
Sesgos que se heredan, desigualdades que se perpetúan
Los algoritmos de IA no nacen imparciales. Se entrenan con datos históricos que reflejan un mercado laboral profundamente desigual. Si los datos de partida están sesgados —por ejemplo, si los currículums masculinos han sido históricamente más valorados—, el sistema aprenderá a replicar ese patrón. Así, mujeres con lagunas en su trayectoria por maternidad, o que han trabajado en sectores feminizados, son penalizadas automáticamente por sistemas que no contemplan la diversidad de experiencias.
Además, la subrepresentación de mujeres —especialmente de grupos étnicos y sociales desfavorecidos— en los equipos que diseñan y entrenan estos sistemas limita la inclusión de perspectivas diversas. La falta de enfoque ético y feminista en el diseño de la IA contribuye a invisibilizar necesidades específicas y perpetuar estereotipos sexistas, como asistentes virtuales con voz femenina subordinada o filtros que priorizan perfiles masculinos en puestos de liderazgo.
Impactos concretos en el empleo femenino
La IA afecta a las mujeres en múltiples dimensiones del trabajo:
- Automatización de empleos feminizados: Sectores como atención al cliente, administración o servicios, donde predominan mujeres, son los primeros en ser automatizados, sin que existan planes claros de reubicación o formación.
- Brechas en el acceso y uso: Las mujeres tienen menor acceso a formación en STEM y roles tecnológicos, lo que las coloca en desventaja para aprovechar la IA como herramienta de desarrollo profesional.
- Falta de transparencia: Las personas candidatas no siempre saben si sus datos están siendo procesados por sistemas automatizados, ni bajo qué criterios, lo que dificulta la defensa frente a decisiones discriminatorias.
Propuestas para una IA justa
Para revertir esta tendencia y garantizar que la IA contribuya a la igualdad en lugar de perpetuar la exclusión, es necesario implementar medidas concretas:
- Fomentar la participación activa de mujeres en todas las fases del desarrollo de sistemas de inteligencia artificial, especialmente en aquellas relacionadas con la identificación, supervisión y corrección de sesgos que excluyen, invisibilizan o limitan sus oportunidades laborales y sociales
- Auditorías de sesgo obligatorias en sistemas de selección automatizados (ATS), con participación sindical y supervisión pública.
- Transparencia algorítmica: Las empresas deben informar a las personas candidatas si sus datos serán procesados por sistemas automatizados y bajo qué criterios.
- Formación en ética digital y sesgos algorítmicos para responsables de recursos humanos y desarrolladores de software de selección.
- Protocolos de revisión humana en todas las fases del proceso, especialmente en la criba curricular y entrevistas automatizadas.
- Acceso a mecanismos de reclamación específicos para casos de discriminación algorítmica, con inversión de la carga de la prueba.
- Inclusión de cláusulas de equidad tecnológica en los planes de igualdad y convenios colectivos.
Tecnología con justicia social
La inteligencia artificial puede ser una aliada en la lucha por la igualdad, pero sólo si se diseña, implementa y evalúa con perspectiva de género y derechos humanos. De lo contrario, cada decisión automatizada que excluye a una mujer por su trayectoria, por su voz o por su contexto, no es solo un error técnico: es una vulneración de derechos que no debe tolerarse.
Jurista Feminista

Deja un comentario