El reclutamiento de la mano de obra es cada vez más importante para el capital, porque la fuerza de trabajo compleja crece en las empresas y, sin embargo, no aciertan a cubrir las vacantes. La selección del personal fracasa en la mayor parte de los casos.
Una sola vacante suele recibir una media de 250 solicitudes, pero no aciertan en el momento de seleccionar al trabajador. La mitad de las contrataciones ponen de manifiesto algún tipo de sesgo.
El capital cree que el remedio es dejar la selección en manos de la inteligencia artificial porque el capital cree que de esa manera elimina el riesgo de discriminación. Sin embargo, lo que ocurre es que el sesgo informático sustituye al humano.
Los algoritmos también discriminan a los trabajadores en función de sus opiniones, raza, sexo o idioma, un proceso que comienza desde el momento mismo en que la inteligencia artificial redacta el anuncio con la oferta de trabajo.
Mientras los datos personales no estén debidamente protegidos, la huella digital acaba en manos del capital, que la utiliza para evaluar a los solicitantes, porque ya ninguna empresa juzga a un trabajador por su currículo. La inteligencia artificial los sustituye por plataformas digitales, como Linkedin.
La discriminación algorítmica se produce cuando los datos con los que se entrena la inteligencia artificial ya tienen sesgos contra ciertos colectivos sociales, lo que lleva a que tomen decisiones en su contra.
Los prejuicios de quienes desarrollan los algoritmos contribuyen a un reclutamiento sesgado cuando se trata de inteligencia artificial, lo que significa que muchas menos personas críticas, de color y mujeres superan el filtro de la inteligencia artificial.
Esta cuestión ha sido objeto de múltiples controversias judiciales en algunos países hasta ahora, y salió a la luz por primera vez en un caso que involucra a Amazon, que desarrolló su propio algoritmo de reclutamiento utilizando datos recopilados de los solicitantes aceptados durante la última década, la mayor parte de los cuales eran hombres. Cuando se implementó, el filtrado eliminó directamente a las mujeres candidatas, sobre todo cuando eran negras (*).
Los informáticos intentaron apañar el fallo, pero es muy difícil que la inteligencia artificial no regrese a lo que aprendió anteriormente, por lo que seguía discriminando a las mujeres en los procesos de selección de la fuerza de trabajo.
Amazon dejó de seleccionar a sus trabajadores mediante la inteligencia artificial.
Meta/Facebook también implementó su propio filtrado discriminatorio, lo que en 2018 dio lugar a varios pleitos en Estados Unidos, así como a una multa administrativa por parte del gobierno danés contra la plataforma de redes sociales por el mismo motivo.
Algunos trabajadores fueron rechazados mediante algoritmos de contratación porque tenían peinados típicos de negros, vivían en barrios con altas concentraciones de población emigrante o incluso escuchaban ciertos géneros musicales.
(*) https://forbes.com.mx/la-herramienta-de-inteligencia-artificial-de-amazon-discrimina-a-las-mujeres/