Connect with us

Inteligencia Artificial

Aplicar IA en la contratación de personal podría hacer más daño que bien

José Luis Becerra Pozas

Published

on

Las herramientas de contratación de personal basadas Inteligencia Artificial pueden reducir el sesgo en la contratación al incorporar decisiones basadas en “inteligencia no humana”, pero es importante que el ser humano conserve el juicio y no se base sólo en lo que dice una máquina.

El uso de Inteligencia Artificial (IA) en el proceso de contratación ha aumentado en los últimos años y las empresas recurren a evaluaciones automatizadas, entrevistas digitales y análisis de datos para analizar currículums y seleccionar candidatos. Pero a medida que TI se esfuerza por lograr una mejor diversidad, equidad e inclusión (DEI), resulta que la IA puede hacer más daño que ayudar si las empresas no son estratégicas y reflexivas sobre cómo implementar la tecnología.

“El sesgo generalmente proviene de los datos. Si no tiene un conjunto de datos representativo, o cualquier cantidad de características que decida, entonces, por supuesto, no va a encontrar y evaluar a los solicitantes correctamente”, explica Jelena Kovačević, becaria de IEEE, William R. Berkley, profesor y Decano de la Escuela de Ingeniería de NYU Tandon.

El principal problema con el uso de la IA en la contratación es que, en una industria que ha sido predominantemente masculina y blanca durante décadas, los datos históricos sobre los que se construyen los sistemas de contratación de IA tendrán en última instancia un sesgo inherente. Sin diversos conjuntos de datos históricos para entrenar algoritmos de IA, es muy probable que las herramientas de contratación de IA tengan los mismos sesgos que han existido en la contratación de tecnología desde la década de 1980. Aún así, si se usa de manera efectiva, la IA puede ayudar a crear un proceso de contratación más eficiente y justo, señalan los expertos.

Los peligros del sesgo en la IA

Debido a que los algoritmos de Inteligencia Artificial generalmente se entrenan con datos pasados, el sesgo con la IA siempre es una preocupación. En la ciencia de datos, el sesgo se define como un error que surge de suposiciones erróneas en el algoritmo de aprendizaje. Entrene sus algoritmos con datos que no reflejen el panorama actual y obtendrá resultados erróneos. Como tal, con la contratación, especialmente en una industria como la TI, que ha tenido problemas históricos con la diversidad, entrenar un algoritmo sobre los datos históricos de contratación puede ser un gran error.

“Es realmente difícil garantizar que una pieza de software de IA no esté intrínsecamente sesgada o tenga efectos sesgados”, dice Ben Winters, miembro de IA y derechos humanos del Centro de Información de Privacidad Electrónica. Si bien se pueden tomar medidas para evitar esto, agrega, “se ha demostrado que muchos sistemas tienen efectos sesgados basados ​​en la raza y la discapacidad”.

Si no tiene una diversidad apreciable en su conjunto de datos, entonces es imposible que un algoritmo sepa cómo los individuos de grupos subrepresentados se habrían desempeñado en el pasado. En cambio, su algoritmo estará sesgado hacia lo que representa su conjunto de datos y comparará a todos los candidatos futuros con ese arquetipo, afirma Kovačević.

“Por ejemplo, si las personas negras fueran excluidas sistemáticamente del pasado, si no se contrataron mujeres en el pasado, y crea un algoritmo basado en eso, no hay forma de que el futuro se prediga adecuadamente. Si contrata sólo de las ‘escuelas de la Ivy League’, entonces realmente no sabe cómo se desempeñará un solicitante de una escuela menos conocida, por lo que hay varias capas de sesgo”, añade.

Por su parte, Wendy Rentschler, directora de responsabilidad social corporativa, diversidad, equidad e inclusión en BMC Software, es consciente de los posibles aspectos negativos que la IA puede aportar al proceso de contratación. Describe un caso infame del intento de Amazon por desarrollar una herramienta de reclutamiento de Inteligencia Artificial como un excelente ejemplo: la compañía tuvo que cerrar el proyecto porque el algoritmo discriminaba a las mujeres.

“Si la empresa de software más grande no puede hacerlo, le doy una gran pausa a toda la tecnología de recursos humanos y sus afirmaciones de poder hacerlo”, asevera Rentschler.

Algunas empresas de software de contratación de IA hacen grandes afirmaciones, pero aún está por verse si su software puede ayudar a determinar el candidato adecuado. La tecnología puede ayudar a las empresas a agilizar el proceso de contratación y a encontrar nuevas formas de identificar candidatos calificados mediante IA, pero es importante no dejar que los reclamos elevados empañen el juicio.

Si usted está tratando de mejorar la DEI en su organización, la IA puede parecer una solución rápida o una solución mágica, pero si no es estratégico sobre el uso de la IA en el proceso de contratación, puede ser contraproducente.

La clave es asegurarse de que su proceso de contratación y las herramientas que está utilizando no excluyan a los grupos tradicionalmente subrepresentados.

Discriminación con IA

Depende de las empresas asegurarse de que están utilizando la Inteligencia Artificial en el proceso de contratación de la manera más ética posible y no ser víctimas de afirmaciones exageradas sobre lo que pueden hacer las herramientas. Matthew Scherer, asesor senior de políticas para la privacidad de los trabajadores en el Center for Democracy & Technology, señala que, dado que el departamento de Recursos Humanos no genera ingresos y generalmente se etiqueta como un gasto, los líderes a veces están ansiosos por incorporar tecnología de automatización que pueda ayudar a reducir costos. Sin embargo, ese entusiasmo puede hacer que las empresas pasen por alto los posibles aspectos negativos del software que están utilizando. Scherer también señala que muchas de las afirmaciones hechas por las empresas de software de contratación de Inteligencia Artificial a menudo son exageradas o completamente falsas.

“Particularmente las herramientas que pretenden hacer cosas como analizar las expresiones faciales de las personas, su tono de voz, cualquier cosa que mida aspectos de la personalidad, eso es aceite de serpiente”, dice.

En el mejor de los casos, las herramientas que pretenden medir el tono de voz, las expresiones y otros aspectos de la personalidad de un candidato en, por ejemplo, una entrevista en video, están “midiendo qué tan culturalmente ‘normal’ es una persona”, lo que en última instancia puede excluir a los candidatos con discapacidades o cualquier candidato que no se ajuste a lo que el algoritmo determina como un “candidato típico”. Estas herramientas también pueden poner a los candidatos discapacitados en la incómoda posición de tener que decidir si deben revelar alguna discapacidad antes del proceso de entrevista. A los candidatos discapacitados les puede preocupar que si no divulgan la información, no obtendrán las adaptaciones adecuadas necesarias para la evaluación automática, pero es posible que no se sientan cómodos al revelar una discapacidad tan temprano en el proceso de contratación, o en absoluto.

Y como señala Rentschler, el BIPOC (siglas del inglés black, indigenous and people of color), las mujeres y los candidatos con discapacidades a menudo están acostumbrados a la práctica del “cambio de código” en las entrevistas, que es cuando los grupos subrepresentados hacen ciertos ajustes en la forma en que hablan, aparecen o se comportan, con el fin de hacerse “más cómodos” a su entrevistador. En este caso, los sistemas de Inteligencia Artificial pueden darse cuenta de eso e identificar incorrectamente su comportamiento como falso o deshonesto, rechazando candidatos potencialmente fuertes.

Scherer afirma que las leyes de discriminación se dividen en dos categorías: impacto dispar, que es discriminación no intencional; y trato desigual, que es discriminación intencional. Es difícil diseñar una herramienta que pueda evitar impactos dispares “sin favorecer explícitamente a candidatos de grupos particulares, lo que constituiría un trato desigual bajo la ley federal”.

Regulaciones en la contratación de IA

La IA es una tecnología relativamente nueva, que deja poca supervisión en lo que respecta a la legislación, las políticas y las leyes en torno a las prácticas comerciales y de privacidad. Winters señala una queja de la FTC de 2019 presentada por EPIC que alega que HireVue estaba utilizando prácticas comerciales engañosas relacionadas con el uso del reconocimiento facial en su software de contratación.

HireVue afirmó ofrecer un software que “rastrea y analiza el habla y los movimientos faciales de los candidatos para poder analizar el ajuste, la inteligencia emocional, las habilidades de comunicación, la capacidad cognitiva, la capacidad de resolución de problemas y más”. HireVue finalmente retiró sus afirmaciones de reconocimiento facial y el uso de la tecnología en su software.

Pero existe una tecnología similar que utiliza juegos para “supuestamente medir los atributos de comportamiento subjetivos y hacer coincidir con el ajuste organizacional” o que utiliza la Inteligencia artificial para “rastrear Internet en busca de información disponible públicamente sobre las declaraciones de un candidato y luego analizarla en busca de posibles señales de alerta o ajuste”, explica Winters.

También existe preocupación sobre la cantidad de datos que la IA puede recopilar sobre un candidato mientras analiza sus entrevistas en video, evaluaciones, currículums, perfiles de LinkedIn u otros perfiles de redes sociales públicas. A menudo, es posible que los candidatos ni siquiera sepan que están siendo analizados por herramientas de Inteligencia Artificial en el proceso de entrevista y existen pocas regulaciones sobre cómo se administran esos datos.

“En general, actualmente hay muy poca supervisión de las herramientas de contratación de IA. Se han introducido varios proyectos de ley estatales o locales. Sin embargo, muchos de estos proyectos de ley tienen lagunas importantes, es decir, no se aplican a las agencias gubernamentales y ofrecen importantes soluciones. El futuro de la regulación en la contratación respaldada por IA debería requerir una transparencia significativa, controles sobre la aplicación de estas herramientas, límites estrictos de recopilación, uso y retención de datos, y pruebas independientes de terceros que se publiquen libremente”, señala Winters.

Uso responsable de la IA en la contratación

Rentschler y su equipo en BMC se han centrado en encontrar formas de utilizar la Inteligencia Artificial para ayudar a que el “capital humano de la empresa sea más estratégico”. Han implementado herramientas que seleccionan a los candidatos rápidamente mediante evaluaciones basadas en habilidades para el puesto al que se postulan y que programan entrevistas instantáneamente para conectarse con un reclutador. BMC también ha utilizado la Inteligencia Artificial para identificar el lenguaje problemático en las descripciones de sus funciones, lo que garantiza que sean neutrales al género e inclusivas para todos los solicitantes. BMC también ha empleado el software para conectar a los nuevos empleados con sus beneficios e información organizativa interna durante el proceso de incorporación. El objetivo de Rentschler es encontrar formas de implementar la Inteligencia Artificial y la automatización que puedan ayudar a los humanos de su equipo a hacer su trabajo de manera más efectiva, en lugar de reemplazarlos.

Si bien los algoritmos de Inteligencia Artificial pueden tener un sesgo inherente basado en datos históricos de contratación, una forma de evitar esto es centrarse más en la contratación basada en habilidades.

El equipo de Rentschler sólo usa herramientas de Inteligencia Artificial para identificar candidatos que tienen habilidades específicas que buscan agregar a su fuerza laboral e ignora cualquier otro identificador como educación, género, nombres y otra información de identificación potencial que históricamente podría haber excluido a un candidato del proceso. Al hacer esto, BMC ha contratado candidatos de entornos inesperados, dice Rentschler, incluido un refugiado sirio que originalmente era dentista, pero que también tenía algo de experiencia en codificación. Debido a que el sistema se centró sólo en buscar candidatos con habilidades de codificación, el ex dentista superó el filtro y fue contratado por la empresa.

Otras estrategias éticas incluyen tener controles y equilibrios establecidos. Scherer consultó con una empresa que diseñó una herramienta para enviar candidatos potenciales a un reclutador, quien luego revisaría sus currículums y decidiría si eran adecuados para el trabajo. Incluso si ese reclutador rechazara un currículum, el currículum del candidato se volvería a pasar por el algoritmo y, si se marcaba como un buen candidato potencial, se enviaría a otro reclutador que no sabría que ya fue revisado por otra persona en el equipo. Esto asegura que los humanos revisen dos veces los currículums y que no dependan únicamente de la Inteligencia Artificial para determinar candidatos calificados. También garantiza que los reclutadores no pasen por alto a los candidatos calificados.

“Es importante que el ser humano conserve el juicio y no se base sólo en lo que dice una máquina. Y eso es para lo que es difícil entrenar, porque lo más fácil de hacer para un reclutador humano siempre será simplemente decir: ‘Voy a seguir lo que me diga la máquina si la empresa espera que use esa herramienta’”, concluye Scherer.

Sarah White, CIO.com

Advertisement
Advertisement

VIDEOS

Resources

Advertisement

Recientes

Advertisement