Os processos seletivos têm se transformado nos últimos anos com a chegada das ferramentas de Inteligência Artificial nas empresas. O recrutamento passou a ser mais rápido, eficiente e houve grande redução de custos. Contudo, segundo pesquisa “A inteligência artificial no processo de seleção de pessoas: usos e consequências” realizada pela doutoranda Humberta Silva, da USP, a padronização desse processo pode reforçar desigualdades e dificultar o acesso de mulheres e outros grupos marginalizados a certas vagas.
A pesquisa investigou como a inteligência artificial impacta os processos de recrutamento e seleção e como seu uso pode ampliar as desigualdades na escolha dos candidatos. Para isso, ela conduziu três estudos: uma revisão da literatura e dois estudos qualitativos, sendo um estudo com empresas na Alemanha e no Brasil e outro com profissionais envolvidos no processo de seleção, como recrutadores e desenvolvedores. O objetivo foi entender suas experiências no uso e programação das IAs, ao invés de avaliar os softwares ou os candidatos diretamente.
Segundo o Fórum Econômico Mundial, mais de 90% das empresas já usam sistemas automatizados para filtrar candidaturas e 88% aplicam algum tipo de IA na seleção inicial. Nesse contexto, o estudo constatou que a IA tende a favorecer perfis já privilegiados e deixar de lado habilidades subjetivas, como empatia e adaptabilidade, essenciais para cargos de liderança. “O processo está mais distante e desumanizado. Com isso, há limitações para uma análise precisa das capacidades do candidato pela dificuldade em identificar aspectos subjetivos”, explica Humberta.
Os algoritmos podem reproduzir desigualdades
A pesquisadora também ressalta que a IA não é neutra, pois carrega os preconceitos, mesmo que implícitos, de quem a programa e dos dados com os quais foi alimentada. E, quando usada sem supervisão de forma automatizada, pode reproduzir desigualdades estruturais, incluindo discriminações por gênero, raça, classe e local de origem.
O problema está nos dados usados para treinar os algoritmos. Se uma empresa historicamente contratou mais homens para cargos técnicos, o sistema aprende a reproduzir essa tendência, favorecendo candidatos masculinos e prejudicando mulheres qualificadas. Critérios como proximidade geográfica, fluência em inglês ou instituição de ensino também podem excluir candidaturas, reforçando perfis homogêneos.
Além disso, o estudo revelou que a desumanização desse processo acaba fazendo com que profissionais de RH passem a atuar mais como supervisores de sistemas do que como avaliadores de pessoas, enquanto candidatas podem se sentir desmotivadas ou injustamente avaliadas por critérios automatizados, que podem não refletir suas habilidades reais.
Para reduzir esses impactos, a pesquisadora recomenda supervisão humana, auditorias regulares e participação ativa de profissionais de recursos humanos no desenvolvimento dos sistemas. O envolvimento de programadores de origens diversificadas também ajuda a minimizar essas predisposições e tornar os processos mais justos.
Liliana Vasconcellos, professora da FEA e orientadora do estudo, também reforça que “os profissionais de seleção precisam saber quando e como utilizar a tecnologia de forma ética, sustentável e eficiente.”