El lado oscuro de la Inteligencia Artificial en RRHH

El lado oscuro de la Inteligencia Artificial en los procesos de selección

El Covid ha sacudido la vida de millones de personas en muchos aspectos, más allá de lo obvio que es la salud, ha alterado nuestra forma de vivir, nuestra forma de socializar y también nuestra forma de encontrar empleo.

Tras el Covid, muchas organizaciones grandes y no tan grandes, pymes y pequeños comercios han tenido que cerrar sus puertas definitivamente o reducir sus equipos a lo mínimo aceptable para poder sobrevivir. Y no sólo estamos hablando de España, sino que es un hecho que se repite a nivel mundial. 

El cierre de estas organizaciones o la reducción de sus plantillas implica otro aspecto importante. Actualmente contamos con un gran grueso de la población que ha perdido su empleo y se encuentra nuevamente en búsqueda activa de empleo.

Antes del Covid, quizá una organización podría encontrarse con 10 o 20 CVs por puesto a cubrir, o un número manejable que permitiera al Recrutier revisar las candidaturas, analizarlas y decidir si incluir o no a un candidato dentro de un proceso de selección.

Sin embargo, donde antes se presentaban 25 candidatos/as ahora se cuentan por centenas.

Mientras algunas organizaciones optan por leer en diagonal todas las candidaturas, o quedarse con los 10 primeros que más o menos les encajen o directamente echar las cartas a una vidente; otras optan por adquirir un software de Inteligencia Artificial (IA) para ayudar en la primera criba y reducir así los cientos de CVs que reciben al día.

La Inteligencia Artificial y la promesa de la no-discriminación

La IA llegó a los Departamentos de RRHH con la promesa de eliminar los defectos más graves del proceso de selección en sí, entre ellos es la de evitar aplicar criterios discriminatorios a la hora de seleccionar a un candidato

La OMS se refiere al principio de no discriminación de la siguiente manera.

El principio de no discriminación busca “garantizar que los derechos humanos se ejerzan sin discriminación de ningún tipo por motivos de raza, color, sexo, idioma, religión, opinión política o de otro tipo, origen nacional o social, propiedad, nacimiento u otra condición como discapacidad, edad, estado civil y familiar, orientación sexual e identidad de género, estado de salud, lugar de residencia, situación económica y social”.                 

Committee on Economic, Social and Cultural Rights, General Comment No. 20, Non-discrimination in economic, social and cultural rights; 2009.

La no discriminación debería aplicarse en todos los procesos de selección, pero ¿realmente en los procesos de selección actuales tod@s tienen las mismas oportunidades? 

La respuesta es NO.

El propio proceso de revisar el CV de una persona ya suele acompañarse de connotaciones discriminatorias, no siempre conscientes. Se pide la foto, se mira la edad (cada vez menos pero se hace), se hacen juicios de valor en función de qué deportes practica una persona, etc. O peor, de todos los CVs que se reciben para un puesto de trabajo sólo un 10% los llegará a leer el Recruiter, el resto acabarán apilados en una mesa o guardados en un cajón.

Algunos estudios han demostrado que en ocasiones se producen procesos discriminatorios no intencionados hacia la mujer en algunos casos, debido a la constante exposición de estereotipos culturales por ejemplo, hacia grupos minoritarios, o a determinados grupos de edad.

Así pues para evitar discriminar a los candidatos por alguna condición, la idea era eliminar de la ecuación al Recruiter y sustituirla por IA.

La IA no es más que la simulación de procesos humanos a través de máquinas

Las máquinas son más rápidas para hacer un primer cribado y para garantizar que se tienen en cuenta todos los candidatos que se presentan a la oferta.

Para algunos candidatos es a veces inexplicable que a los pocos segundo de haberse inscrito en una oferta de trabajo su proceso haya avanzado tan rápido.

Otra cosa a favor de la IA en RRHH es que promete acabar con la parte oscura del proceso de selección que es discriminación de candidatos en el proceso.

Entonces, ¿la IA ha resuelto el problema de la discriminación?

NO

La IA para funcionar correctamente tiene que alimentarse de buenos datos, de datos de calidad. 

Igual que una dieta. Una dieta preparada por un nutricionista profesional nunca dará los mismos resultados que la dieta de moda que te permite adelgazar 5 kg en una semana.

Actualmente, en la mayor parte de las organizaciones, los datos de los que se está alimentando los sistemas de IA son discriminatorios en sí.

Frida Polli, CEO de Pymetrics, organización especializada en ciencia del comportamiento y en auditar los datos de los que se alimenta la IA de las organizaciones, en un artículo a la revista digital Wired, dice

“La IA es como los niños: aprenden de los seres humanos que hay a su alrededor”. 

Frida Polli, CEO de Pymetrics

Por tanto si los datos que le facilitamos a nuestro sistema de IA parten de datos discriminatorios, obviamente seguiremos replicando los mismos patrones de discriminación pero esta vez a gran escala.

En la misma entrevista a la revista digital Wired se expone la experiencia de Kolkata, un ciudadano indio que creció en UK. 

Kolkata descubrió que cuanto más extranjero u exótico era un nombre, mayor es la asunción de que no tendrá un buen nivel de inglés. Esto da lugar a que el Recruiter revise más minuciosamente a dicho candidato para confirmar sus propios prejuicios (revisar con especial énfasis la estructura gramatical del Resumé por ejemplo, cuando en otros candidatos con nombres menos exóticos lo pasaría por alto).

Otros trucos que dice haber hecho en su CV para tener más oportunidades laborales es la de modificar ligeramente su nombre o eliminar cualquier referencia idiomática relacionada con su procedencia o religión.

Tal y como Frida Polli y otros expertos del sector defienden, la importancia de auditar los datos con los que se está alimentando el sistema de IA ya que tiene consecuencias directas en la organización. En los procesos de selección tiene un impacto directo en la captación del talento adecuado y en el reclutamiento a los mejores candidatos.

Por tanto, si no se auditan los datos como es debido, no sólo estaremos replicando procesos discriminatorios a gran escala, sino que no estaremos atrayendo al talento que necesitamos para que nuestra organización cumpla con sus objetivos y siga creciendo.

En un reciente informe llevado a cabo por la consultora Capgemini sobre la ética y la Inteligencia Artificial en las organizaciones detalla que el 70% de los clientes espera que las organizaciones que cuenten con sistemas de IA para sus interacciones éstas sean justas y transparentes

Sin embargo, el informe revela que, a pesar de que las empresas son cada vez más conscientes y saben que tiene que ponerse al día en este aspecto, se observa que el avance en la implementación de una IA ética no es consistente en las organizaciones.

Es más, el mismo informe revela que el 65% de los ejecutivos son plenamente conscientes de las discriminaciones implícitas de sus sistemas de Inteligencia Artificial.

Si lo extrapolamos al ámbito del Recruitment, si no se auditan los datos con los que se alimentan los sistemas de IA ¿cómo podemos garantizar la no disriminación y la igualdad de oportunidades dentro del proceso de selección?

No sólo se está privando de que tod@s tengan las mismas oportunidades, sino que quizá el candidato ideal esté siendo descartado antes de tiempo.

Tal y como afirma Nausica Trias directora general de AIS Group a RRHH Digital:

“La IA hoy por hoy, carece de sentido común y, por lo tanto, necesita a las personas para que la guíen, para que la ayuden a aprender y a evitar sesgos. Las personas son las que, en definitiva, hacen que la IA genere valor”

Bibliography

The risks of AI bias in recruitment. (n.d.). https://www.linkedin.com/feed/news/the-risks-of-ai-bias-in-recruitment-4970044/

Using AI to Eliminate Bias from Hiring. (n.d.). 

https://hbr.org/2019/10/using-ai-to-eliminate-bias-from-hiring (n.d.). 

“AI and the ethical conundrum” Report. https://www.capgemini.com/news/ai-and-ethics-2020-report/ 

In the Covid-19 jobs market, biased AI is in charge of all the hiring. (n.d.). https://www.wired.co.uk/article/ai-discriminate-coronavirus-jobs

“AI and the ethical conundrum” Report. “AI and the ethical conundrum” Report https://www.capgemini.com/wp-content/uploads/2020/10/AI-and-the-Ethical-Conundrum-Report.pdf

Principio de no discriminación por la OMS https://www.who.int/gender-equity-rights/understanding/non-discrimination-definition/en/

Deja un comentario

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Copy Protected by Chetan's WP-Copyprotect.
%d bloggers like this: