Até onde a inteligência artificial pode influenciar um processo seletivo?
A tecnologia pode perpetuar desigualdades – e, claro, não conhece os candidatos com a profundidade necessária. Eis um dilema ético importante para o RH.
A discussão sobre tecnologia nos processos seletivos costuma cair em extremos. De um lado, a defesa apaixonada da eficiência; do outro, o receio de que algoritmos substituam a sensibilidade humana e desumanizem os candidatos em suas buscas por emprego. Quem está certo?
A resposta tem muitas nuances. Na prática, nenhum dos dois cenários funciona sozinho atualmente – nem a recusa das tecnologias, nem o uso desenfreado delas. O encontro dos dois mundos sustenta escolhas mais responsáveis e coerentes com a complexidade das pessoas. Vamos entender a situação por partes.
O avanço da IA ampliou nossa capacidade de lidar com grandes volumes de informação. Hoje, é possível analisar centenas de currículos em minutos, cruzar dados, identificar padrões e antecipar riscos de forma antes inimaginável. Isso libera tempo, um dos ativos mais preciosos de qualquer empresa. E esse tempo pode ser dedicado a outras etapas do processo seletivo.
Naturalmente, essa evolução traz alertas. A inteligência artificial possui vieses que não podem ser ignorados. Mesmo que não exista más intenções da parte do RH, a IA pode ter sido treinada a partir de dados incompletos, escolhas de programação e contextos sociais que ainda carregam desigualdades. Além disso, nenhuma IA conhece os candidatos de forma aprofundada.
Aí entra o grande dilema ético. Até onde é legítimo reduzir uma trajetória inteira à pontuação automática de um programa? Até onde um algoritmo deve influenciar decisões como essas, que afetam tanto a vida de alguém?
Se existem limitações naquilo que a IA pode fazer, ela não pode assumir a responsabilidade final de contratação. Além da chance de perder ótimos candidatos, também há riscos comportamentais que exigem leitura de ambiente, sensibilidade e capacidade de interpretar nuances emocionais. A máquina não reconhece quando um candidato está irritado ou mentindo, por exemplo. Ela não enxerga o que não é falado.
Selecionar exige empatia
Isso vale também para a nossa responsabilidade de ter empatia. Lembro de conduzir uma entrevista certa vez em que a candidata mal conseguia sustentar o olhar. Havia ansiedade, desconforto e uma ausência clara de presença. Quando abri espaço para ela, reafirmando que entendia que ela aparentava estar em um momento difícil e poderíamos reagendar a entrevista, ela revelou que a filha e o neto estavam em condições muito frágeis de saúde.
Não era hora de avaliá-la, mas de acolher e compreender a realidade de outro ser humano. Apenas ao lidar diretamente, de pessoa para pessoa, foi possível enxergar essas dimensões.
Por isso, insisto que a tecnologia é uma ferramenta poderosa, mas não substitui o olhar humano, que reconhece contextos e compreende exceções. A IA pode simular fit cultural, mapear competências e auxiliar com uma série de tarefas – e fazer tudo isso muito bem. Mas a maneira de garantir um processo seletivo eficaz e humanizado é priorizar o equilíbrio: a IA filtra, organiza e acelera; o humano decide, interpreta e acolhe.
Como afirma Carl Jung: “Conheça todas as teorias, domine todas as técnicas, mas ao tocar uma alma humana, seja apenas outra alma humana”.
10 previsões para DE&I em 2026
Liderança ausente: o que acontece quando o chefe “deixa rolar”
Neurocomunicação: os caminhos da ciência para hackear a atenção dos colaboradores
Por que tantos profissionais se perdem na transição de carreira?
Questionamentos de Aristóteles para uma vida que vale a pena ser vivida







