Una herramienta contra las ofertas discriminatorias de trabajo

Unos investigadores se encuentran trabajando en una herramienta que elimine los prejuicios en las oportunidades de trabajo. Más información aquí.

Una herramienta contra las ofertas discriminatorias de trabajo

La búsqueda de empleo a través de páginas web se ha vuelto algo común en el día a día de los seres humanos a nivel mundial. Esto ha eliminado las fronteras, por lo que personas de todo el mundo pueden optar a un cargo sin importar la distancia a la que estén. Sin embargo, hay varios motivos que pueden generar inconvenientes a la hora de aspirar a un empleo en cualquier empresa que se consiga en la red. A pesar de lo que la mayoría de las personas pueda llegar a pensar, la discriminación laboral en portales web sí existe. Por distintas razones, las ofertas de trabajo que se pueden encontrar en las páginas digitales pueden llegar a ser sometidas a varias críticas, a parte de las habilidades en el campo a desarrollar, y esto es algo que se está buscando erradicar.

Por este motivo se inició un trabajo en conjunto entre investigadores de la Unidad de Data Science del centro tecnológico Eurecat, de la Universidad Pompeu Fabra y la Universidad Técnica de Berlín para desarrollar un algoritmo que trata acabar con la discriminación racial y de género a la hora de generar ofertas laboras en la red.

FA*IR

FA*IR, como fue llamado el proyecto, creó un algoritmo que impide que se generen agravios en las páginas web que ofrecen empleos, ya sea por razones de género, apariencia física o procedencia, analizando varios portales digitales de uso cotidiano en la red para la búsqueda de oficio. Esta propuesta va de la mano con la creciente creencia de los curriculum a ciegas. Es decir, sin foto, sin indicar el sexo y sin que aparezca ningún tipo de vinculación la religión o de otra clase del aspirante en pro de evitar cualquier tipo de discriminación a la hora de seleccionar el nuevo personal de una empresa.

Para esto, han estudiado datos de ofertas de empleo, de reincidencia de presos y ranking de admisión de universidades con lo que buscan detectar los patrones de discriminación que se puedan encontrar en los portales de ofertas. “Cada vez son más comunes los motores de búsqueda en que los ítems que se buscan no son páginas web sino personas”, destaca Carlos Castillo, director de la Unidad de Data Science de Eurecat a través de un comunicado de prensa. “Esto puede favorecer patrones discriminatorios, aprendidos por algoritmos que no están programados para compensar o corregir prejuicios humanos”, añade. Los algoritmos por su naturaleza no están programados ni preparados para corregir prejuicios humanos.  No obstante, pueden aprender patrones discriminatorios y afectar de manera negativa a ciertos colectivos. Esto es lo que pretender evitar los investigadores de la iniciativa FA*IR.

Igualdad de oportunidades

La idea principal del proyecto es que cada individuo tenga las mismas oportunidades de trabajo, sin ser diferenciados por motivos que vayan más allá de sus cualidades en el área que esté buscando alguna empresa. “Si hay cien perfiles de hombres y mujeres igualmente cualificados y en los primeros resultados del buscador solo aparecen hombres, tenemos un problema”, comentó Castillo, quien enfatizó en que las oportunidades laborales deben ser iguales para todos. La principal función del algoritmo es la de reorganizar los resultados y evitar la discriminación sin afectar la validez de los resultados, a través de un mecanismo de acción positiva.

  • El proyecto se divide en tres fases. En la fase de preprocesamiento de la información, la estrategia utilizada consiste en controlar la distorsión del conjunto de datos: “En la práctica, supone eliminar datos sensibles de potenciar la discriminación como el código postal, el género o la raza para que no se puedan extraer modelos de decisión que discriminen”, comentó Sara Hajian, investigadora de la Unidad de Data Science de Eurecat.
  • Una vez se tienen los datos “hay que hacer una aproximación ética que integre la antidiscriminación por diseño. Esto supone modificar los algoritmos de ‘data mining’ para que no contengan decisiones injustas”.
  • Por último, “en la tercera fase se proponen tareas de postprocesamiento de los modelos de extracción de datos obtenidos en vez de limpiar el conjunto de datos original o cambiar los algoritmos de minería de datos”.

A pesar de lo peculiar o polémico que pueda sonar el proyecto, la motivación de este ha calado en gran parte de los conocedores de la materia, debido a que presenta dos motivaciones que se han buscado reforzar en los últimos años. En primer lugar, aceptar que la mayoría de las personas se deja llevar por algún tipo de sesgo discriminatorio a la hora de juzgar a una persona que recién estamos conociendo o que en definitiva no conocen; y en segundo lugar, eliminar todo tipo de sesgo y tratar de evaluar a la gente de la forma más justa y objetiva posible. Por estos dos motivos es que el proyecto FA*IR ha sido uno de los ganadores de las becas que otorga una vez al año la comunidad perteneciente a Data Transparency Lab, que promueve la transparencia y la protección de los datos en Internet mediante soluciones innovadoras.

Valora esta noticia: 1 estrella2 estrellas3 estrellas4 estrellas5 estrellas (0 votos, media: 0,00 de 5)
Loading ... Loading ...