IA usada pela primeira vez em entrevistas de emprego



A IA Inteligência Artificial e a tecnologia de expressão facial estão a ser usadas pela primeira vez em entrevistas de emprego no Reino Unido para identificar os melhores candidatos.

A Unilever, gigante dos bens de consumo, está entre as empresas que usam a tecnologia de IA Inteligência Artificial para analisar a linguagem, o tom e as expressões faciais dos candidatos quando recebem um conjunto de perguntas idênticas sobre o trabalho que filmam no seu telemóvel ou PC.


Os algoritmos seleccionam os melhores candidatos avaliando as suas performances nos vídeos em relação a cerca de 25.000 informações faciais e linguísticas compiladas em entrevistas anteriores daqueles que se mostraram bons no trabalho.

A Hirevue, empresa norte-americana que desenvolveu a tecnologia de entrevistas, afirma que a tecnologia permite que os recrutadores entrevistem mais candidatos no estágio inicial, em vez de simplesmente confiar em currículos, e que fornece um indicador mais confiável e objectivo do desempenho futuro, livre de preconceitos humanos.


No entanto, académicos e activistas opõem-se.

Isso vai favorecer as pessoas que são boas a fazer entrevistas em vídeo e qualquer conjunto de dados terá preconceitos, o que excluirá as pessoas que realmente seriam óptimas no trabalho
~Anna Cox, professora de interacção pessoa-máquina na UCL


Loren Larsen, director de tecnologia de Hirevue, disse ao The Daily Telegraph que 80 a 90% da avaliação preditiva foi baseada na análise de algoritmos do uso de linguagem e competências verbais dos candidatos.

A empresa diz que a tecnologia é diferente do reconhecimento facial e, em vez disso, analisa expressões. As expressões faciais avaliadas pelos algoritmos incluem sulcos na sobrancelha, aumento da sobrancelha, alargamento ou fechamento dos olhos, aperto dos lábios, elevação do queixo e sorriso, que são importantes em vendas ou em outros trabalhos públicos.


O uso de um sistema de IA sem rosto para realizar dezenas de milhares de entrevistas tem implicações realmente assustadoras para os candidatos.

Este algoritmo tentará reconhecer e medir as complexidades extremas da fala humana, linguagem corporal e expressão, que inevitavelmente terão um efeito prejudicial em candidatos não convencionais.

Como em muitos destes sistemas, a menos que o algoritmo tenha sido treinado com um conjunto de dados extremamente diversificado, há uma probabilidade muito alta de que isso possa sofrer algum tipo de distorção, resultando em candidatos de determinadas origens injustamente excluídos e discriminados
~Griff Ferris, oficial jurídico e de políticas da Big Brother Watch


Contraditório: artigo científico pela SciTechDaily






Relacionado: Big Data na gestão de RH



fonte: Data Science Academy
Licença CC BY-SA 4.0 Silvia Pinhão Lopes, 2.3.20
Print Friendly and PDF

Sem comentários:

Com tecnologia do Blogger.