IMG-LOGO
Economia

Seleção de candidatos a emprego só por IA? Economia traz risco de padronização

- 19/07/2025 7 Visualizações 7 Pessoas viram 0 Comentários
image 1

Segundo o Fórum Econômico Mundial, mais de 90% dos empregadores utilizam sistemas automatizados para filtrar ou classificar candidaturas a empregos, e 88% das empresas já empregam alguma forma de inteligência artificial para a triagem inicial de candidatos. A gigante de bens de consumo Unilever, por exemplo, usa ferramentas baseadas em IA da HireVue para avaliar candidatos em início de carreira, economizando 50.000 horas e mais de US$ 1 milhão no processo.

A maioria das empresas, ao considerar ferramentas de avaliação por IA, foca nos ganhos em termos de eficiência e qualidade que essas ferramentas trazem. Mas o que não consideram é como a avaliação por IA pode mudar o comportamento dos candidatos durante o processo.

Uma nova pesquisa, que analisou mais de 13.000 participantes de 12 estudos, revela que este é um ponto cego crucial. Foram estudadas simulações de várias situações de avaliação tanto em laboratório quanto no campo, e o estudo teve a colaboração de uma startup que oferece soluções de contratação baseadas em jogos chamada Equalture.

Os resultados mostram que os candidatos consistentemente enfatizaram traços analíticos quando acreditavam que estavam sendo avaliados por IA, enquanto minimizavam qualidades muito humanas — empatia, criatividade, intuição — que frequentemente distinguem funcionários excepcionais dos meramente competentes.

Isso levou os candidatos a apresentarem uma versão diferente e potencialmente mais homogênea de si mesmos, afetando quem provavelmente teria sucesso em um processo de contratação habilitado por IA, com implicações para organizações que usam IA em contratações, promoções ou decisões de admissão.

Por que isso importa para usa organização?

As implicações dessas descobertas vão além das decisões individuais de contratação. Quando os candidatos se representam de forma sistematicamente distorcida, as organizações enfrentam vários desafios críticos:

Distorção do pool de talentos

Embora a IA às vezes seja culpada por decisões de contratação tendenciosas (por exemplo, discriminação contra mulheres no processo seletivo), a pesquisa sugere que o simples fato de saber que está sendo avaliado por IA também gera viés nos candidatos, fazendo-os acreditar que devem priorizar suas capacidades analíticas.

Como resultado, as empresas podem estar eliminando exatamente os candidatos que precisam: aquele pensador inovador ou líder emocionalmente inteligente que você procura pode se apresentar como um analista que segue regras porque acredita que é isso que a IA quer ver.

Comprometimento da validade

As ferramentas de avaliação são tão boas quanto os dados que coletam. Quando os candidatos alteram estrategicamente suas respostas, a validade fundamental do processo de avaliação pode ser comprometida. As organizações podem deixar de medir capacidades autênticas — em vez disso, podem medir o que os candidatos acham que a IA valoriza mais.

Homogeneização não intencional

Se a maioria dos candidatos acredita que a IA favorece traços analíticos, o pipeline de talentos pode se tornar cada vez mais uniforme, potencialmente prejudicando iniciativas de diversidade e limitando a variedade de perspectivas nas organizações. Empresas como IBM e Hilton, que integram IA tanto na contratação quanto nos sistemas internos de promoção, agora precisam lidar com a questão de se essas ferramentas incentivam os funcionários a uma autoapresentação padronizada.

Novas regulamentações de transparência, como a Lei de IA da União Europeia, que exigem que as organizações divulguem o uso de IA em decisões de alto impacto, tornam esses resultados ainda mais prováveis. Quando os candidatos sabem que uma IA está avaliando-os, é mais provável que mudem seu comportamento.

O que os líderes podem fazer

Com base em nossas descobertas, as organizações podem tomar várias medidas concretas para lidar com o efeito da avaliação por IA:

Transparência radical

Não basta apenas divulgar que há avaliação por IA — seja explícito sobre o que ela realmente avalia. Comunique claramente que sua IA pode e valoriza traços diversos, incluindo criatividade, inteligência emocional e resolução intuitiva de problemas. Isso pode incluir fornecer exemplos de candidatos bem-sucedidos que demonstraram fortes capacidades intuitivas ou criativas.

Atualmente, poucas empresas parecem ser transparentes sobre o que exatamente a IA avalia — pelo menos essa informação não é facilmente acessível nas páginas de carreiras de muitas grandes empresas. Por outro lado, os candidatos discutem e compartilham suas intuições em blogs e vídeos, o que pode ser contraproducente porque pode ou não estar alinhado com as práticas reais. Recomendamos que as empresas não deixem seus candidatos especularem.

Auditorias comportamentais regulares

Implemente revisões sistemáticas dos resultados da avaliação por IA. Por exemplo, a cidade de Nova York aprovou a Lei Local 144, que exige que os empregadores realizem auditorias anuais de viés em contratações baseadas em IA. Em resposta, uma das líderes de mercado em contratação por IA, a HireVue, relata suas auditorias recentes para viés de raça ou gênero em diferentes cargos e casos de uso.

Além de examinar vieses demográficos, sugerimos usar essas auditorias para buscar padrões que indiquem adaptação comportamental: as respostas dos candidatos estão se tornando mais homogêneas ao longo do tempo? Você está vendo uma mudança para apresentações analíticas em detrimento de outros traços valiosos?

Avaliação híbrida

Algumas organizações combinam avaliações humanas e por IA. Por exemplo, a Salesforce observa que, além da tecnologia, um humano revisa as candidaturas. Nvidia e Philip Morris garantem a avaliação e decisão final por um humano. Um de nossos estudos mostra que, embora essa avaliação híbrida reduza a tendência dos candidatos de destacar capacidades analíticas, ela não a elimina. Para fechar essa lacuna, é necessário treinar os recrutadores humanos para compensar o efeito da IA.

O caminho a seguir

À medida que a IA se torna cada vez mais incorporada nas decisões organizacionais, devemos reconhecer que essas ferramentas não apenas mudam processos — elas mudam pessoas. Os ganhos de eficiência da avaliação por IA podem vir ao custo da apresentação autêntica dos candidatos e, em última análise, da diversidade humana que torna as organizações inovadoras e resilientes. A ironia é marcante: em nossa busca para eliminar o viés humano na contratação, podemos ter criado um sistema onde a IA introduz uma nova forma de viés.

A solução não é abandonar a IA, mas projetar sistemas de avaliação que considerem e contraponham essas mudanças comportamentais. Só mantendo os humanos — e não apenas métricas — no centro de nossas estratégias de avaliação podemos construir sistemas de contratação que realmente identifiquem e cultivem o talento diverso que nossas organizações precisam.




Deixe um comentário

Seu endereço de e-mail não será publicado. Os campos obrigatórios estão marcados *