Recursos Humanos

Histórico de recrutamento ensinou preconceito a ferramenta de IA da Amazon

A gestão digital veio para ficar pois otimiza tantos processos da nossa vida, pessoal e profissional. As áreas de Recursos Humanos não são exceção. Soluções como Sage Gestão de Recursos Humanos trazem-vos as opções ideais para o vosso tipo de empresa.

O passo seguinte para muitos departamentos de recursos humanos foi o investimento na Inteligência Artificial (IA). Unilever PLC, Goldman Sachs, Linkedin são algumas das empresas que usam algoritmos e IA para acelerar e tornar os seus processos de recrutamento mais eficazes. Ajudam a avaliar currículos, fazer triagem de candidatos e agregar candidaturas às funções certas dentro da empresa. Nem sempre, estes processos terminam com uma avaliação humana.

Recentemente, várias fontes relataram que a ferramenta de recrutamento de Inteligência Artificial da Amazon discriminava os currículos das candidatas que analisava.

A Amazon desenvolve sistemas de análise de candidatos, desde 2014, para automatizar o seu recrutamento. O motor de IA em questão foi sujeito a um treino com a base de currículos da própria empresa. Uma vez que ainda não existe paridade na indústria tecnológica americana, a listagem fornecida à IA pela Amazon com as candidaturas enviadas à empresa nos dez anos anteriores continha sobretudo homens. A análise da IA levou-a a criar um padrão de preferência por palavras que tendem a ser mais usadas por candidatos homens e começou a eliminar currículos com palavras como “feminino”. Depressa, o sistema autoensinou-se a dar preferência a candidatos masculinos e até a desvalorizar as candidatas de duas universidades femininas.

A Amazon dedicou-se à alteração do programa para os tornar neutros a estes termos específicos. No entanto, ao final de um ano, o sistema foi abandonado por não conseguir sugerir candidatos e candidatas ideais pelos padrões da Amazon. Amazon lançou uma declaração a defender que o programa nunca foi usado por recrutadores da Amazon para avaliar candidatos.

A inteligência artificial tem um longo caminho a percorrer. O ideal diz-nos que a IA pode substituir o nosso processo de decisão, por não se apoiar em preconceitos, e eliminar estruturas tendenciosas com decisões feitas com base nos dados puros. No entanto, a IA continua a ser educada por seres humanos e a perpetuar algumas atribuições mais tradicionalistas, como foi o caso das assistentes virtuais com vozes femininas – a Siri da Apple e a Alexa da Amazon. A primeira geração da IA visual da Google identificava Afro-descendentes como gorilas e os comandos de voz em certos carros colocaram as suas condutoras em risco, ao não reconhecerem as suas vozes, ao contrário do que acontecia aos condutores.

A nossa mão na inteligência artificial tem demonstrado os efeitos insidiosos dos nossos preconceitos. O desafio mais urgente é conseguirmos ainda compreender os avanços galopantes da lógica da inteligência artificial, para que consigamos resolver os preconceitos que nela incutimos de início.

 

Artigos Relacionados

0 Comentários

Deixe um comentário