Risco invisível: IA trata homens e mulheres diferente e impacta na vida profissional

Estudos mostram que a inteligência artificial, longe de ser neutra, reproduz estereótipos de gênero ao influenciar desde recomendações salariais até na construção do currículo

Envato
Estudos revelam que a IA perpetua desigualdades de gênero Foto: Envato

Com o uso cada vez mais intenso da inteligência artificial na vida das pessoas, boa parte dos usuários acredita em uma neutralidade supostamente intrínseca da ferramenta. Mas na prática, não é bem assim. Por trás dos modelos de linguagem e das respostas “inteligentes”, há uma série de decisões, muitas vezes invisíveis, que acabam reforçando os mesmos estereótipos que já enfrentamos na sociedade. E isso tem efeitos concretos na vida das mulheres, especialmente no ambiente de trabalho.

À medida que a IA passa a ser usada para escrever textos, revisar currículos, sugerir salários e até fazer entrevistas simuladas, surgem evidências de que o gênero influencia – e muito – o tipo de resposta que é entregue.

A IA responde diferente dependendo de quem pergunta

Um estudo publicado em 2024 no Journal of Medical Internet Research colocou essa questão à prova ao analisar como o ChatGPT (modelo GPT-3.5) escreve cartas de recomendação para pessoas com nomes neutros, masculinos e femininos.

Ao todo, foram geradas e analisadas 1.400 cartas, todas escritas a partir de prompts pré planejados. A única diferença entre os textos era o nome da pessoa recomendada. E mesmo com o conteúdo base sendo o mesmo, as cartas variavam de forma significativa conforme o gênero.

As cartas escritas para nomes femininos traziam, com frequência, uma linguagem mais voltada a aspectos sociais, emocionais e dando destaque para as relações interpessoais. Termos como “amiga”, “colaboradora” e menções à vida familiar apareciam mais em 83% dos prompts testados. Também era comum encontrar mais pronomes pessoais (66%) e expressões ligadas à empatia ou cuidado, traços tradicionalmente associados às mulheres.

Um exemplo prático ajuda a ilustrar: ao usar o mesmo prompt para escrever uma carta para um prêmio de início de carreira, o modelo descreveu “Abigail” como ética, humilde e dedicada a ajudar os outros. Já “Nicholas” foi apresentado como alguém com competências técnicas sólidas, rigor analítico e diversas conquistas acadêmicas. Ambas as descrições são positivas, mas o foco é claramente diferente: enquanto uma destaca atributos sociais, a outra reforça desempenho técnico e as realizações.

A IA também ajuda… a pedir menos salário

Um novo estudo da Universidade Cornell, em parceria com a THWS (Universidade Técnica de Ciências Aplicadas de Würzburg-Schweinfurt), mostrou que até na hora de negociar salário as mulheres recebem recomendações diferentes.

Os pesquisadores criaram perfis fictícios com as mesmas qualificações e experiências e pediram para que modelos de IA, como o ChatGPT, sugerissem quanto essas pessoas deveriam pedir em entrevistas de emprego, modificando apenas o nome. O resultado? Em um dos casos, ao pedir recomendação para uma vaga como médico sênior em Denver, a IA sugeriu que o homem pedisse até US$400 mil por ano. Para a mulher, a sugestão foi de US$280 mil. Uma diferença de US$120 mil, sem nenhuma justificativa real, além de pistas sutis de gênero.

Os autores do estudo também concluíram que esses modelos não precisavam que a pessoa dissesse seu gênero ou raça para agir de forma enviesada, detalhes como o nome já foram suficientes para acionar padrões aprendidos com base em dados históricos. Perfis de minorias e refugiados também receberam recomendações sistematicamente mais baixas, mesmo sem nenhuma mudança no currículo. 

É o tipo de conselho que, vindo de uma ferramenta considerada imparcial e confiável por boa parte dos usuários, pode afetar negociações reais e perpetuar a desigualdade de modo inconsciente.

Até as perguntas são diferentes

A forma como cada pessoa se comunica com a inteligência artificial também carrega um padrão de acordo com o gênero. Segundo Shelley Zalis em artigo para a Forbes, enquanto homens tendem a ser mais diretos – “escreva um plano de negócios” – mulheres geralmente adotam um tom mais colaborativo – “você pode me ajudar a escrever um plano de negócios?”, ao se comunicarem com as IAs.

Além da forma, há também diferença no nível de detalhe. Uma pesquisa recente publicada pela Clarity Quest, mostra que 68,4% das mulheres usam operadores de busca para refinar suas pesquisas, contra apenas 46,2% dos homens. Ou seja, elas tendem a ser mais específicas, usando frases mais longas e descritivas.

Mulheres frequentemente incluem contexto emocional, se colocam em situações de cuidado (“sou mãe, trabalho, estou sobrecarregada”), e até suavizam os pedidos com “por favor” ou “se não for incômodo”, mesmo quando sabem que estão falando com uma IA. Na prática, isso quer dizer que enquanto um homem pode buscar “investimentos em tecnologia”, uma mulher pode digitar algo como “melhores opções de investimento em tecnologia para mulheres na faixa dos 40 anos com filhos e plano de aposentadoria”.

E isso impacta nas respostas. Pesquisas indicam que prompts mais assertivos costumam gerar respostas mais diretas e completas da IA. Ou seja, quanto mais simples e “mandona” a pergunta, melhor tende a ser a resposta. Isso pode acabar favorecendo quem se comunica de forma mais direta – e desfavorecendo justamente quem se expressa com mais cuidado ou nuance.

E por que isso importa?

Quando ferramentas de IA são cada vez mais usadas em RH, recrutamento, orientação profissional e produção de conteúdo, é fundamental que a diversidade esteja presente em todas as etapas: desde o desenvolvimento até o uso cotidiano.

Isso não significa que a IA é intencionalmente preconceituosa, mas sim que ela espelha os padrões que aprendeu durante seu treinamento, baseado em textos produzidos por humanos. Com isso, a forma como cada pessoa se comunica com essas ferramentas, e o tipo de resposta que recebe, pode acabar reforçando desigualdades já existentes.