
ARTDEPARTMENT

Existen entrevistas de trabajo que no evalúa una persona, sino un sistema inevitable. En algunos casos, la conversación que mantiene el candidato con un supuesto entrevistador es grabada, transcrita y puntuada por una inteligencia sintético que determina si pasa o no a la sucesivo período. Se deja en un cálculo la audacia de tener lugar o no a la sucesivo período.
Quien decide no es el entrevistador, sino un software. Algunos incluso relatan que las preguntas fueron irrelevantes, como conversar de sus aficiones o de sus sensaciones porque lo importante era cómo respondían, no qué decían. Un candidato contó en Reddit que supo a posteriori de una entrevista que la persona con la que habló "no tenía voz ni voto" y que la IA que grabó la conversación decidiría su futuro en función de una puntuación cibernética. "Una IA calificó mi entrevista de trabajo en tiempo positivo", resumió.
No son casos aislados. Igualmente conocemos el caso de una persona que dijo deber realizado una entrevista completamente con un chatbot, que pidió vídeo de vídeo y pantalla. Al preguntarle por la empresa entrevistadora, el bot dijo "no lo sé". The Guardian igualmente repasa casos donde el entrevistador sonaba como Siri.
El problema viene de allá. Amazon desarrolló en 2014 un sistema interno para cribar currículos mediante estudios inevitable. Lo entrenó con una lapso de datos de contrataciones pasadas y acabó descubriendo que el cálculo penalizaba sistemáticamente a las mujeres. Bajaba la puntuación a quienes habían estudiado en universidades femeninas o incluían la palabra "women" en su currículum, como "women’s soccer team". El esquema se abandonó en 2018, cuando la compañía comprobó que no podía corregir el sesgo sin rehacer por completo el maniquí.
Sesgos. Los algoritmos pueden heredar las preferencias y sesgos de quienes los crean y de los datos con los que se entrenan. Si los equipos técnicos están formados sobre todo por hombres, y este detalle no se tiene en cuenta para el entrenamiento, el maniquí puede formarse que ese perfil es el "ideal" y penalizar automáticamente a quien no encaje en él. Un estudio académico descubrió que modelos de IA que califican entrevistas de candidatos de Reino Unido e India tienden a puntuar más bajo a los candidatos del país oriental, incluso cuando hay anonimización de país.
Equivocación de transparencia. Muchos candidatos no saben que están siendo evaluados por una IA hasta que termina la entrevista. Algunos sistemas analizan palabras secreto o patrones de voz y gestos, puntuando de forma cibernética sin explicar los criterios. Herramientas como las de HireVue, que analizan microexpresiones faciales, han recibido críticas por su opacidad y por la partida de pruebas sólidas de que sus evaluaciones sean fiables o justas. Acordado esas quejas le llevaron a retirar el análisis facial de su software.
Conocer si un proceso utiliza herramientas automáticas es fundamental. Cambia la forma de prepararse: no se proxenetismo solo de ocasionar empatía o mostrar personalidad, sino de usar un habla claro y estructurado que un cálculo pueda interpretar. El peligro para la empresa, adicionalmente de arriesgarse a malas decisiones no es solo perder una oportunidad sindical: es perder la confianza en que el proceso fue preciso.
Imagen | LinkedIn Sales Solutions
En Genbeta | Con 21 abriles creó una IA que engaña en entrevistas de trabajo y lo echaron de su universidad. Le da igual: apetencia 230.00 dólares al mes
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!