A falácia da IA sozinha: o que as empresas não entenderam sobre a NR-1
Em saúde mental no trabalho, a Associação Americana de Psicologia apontou que a inteligência artificial não pode substituir a interação humana. Entenda.

A era digital nos acena com promessas de eficiência e otimização em todas as frentes, e a gestão da saúde mental no ambiente corporativo não é exceção. A inteligência artificial surge como uma ferramenta aliada, capaz de processar volumes massivos de dados, identificar padrões e, em tese, prever crises.
Segundo a London School of Economics, o Brasil perde US$ 78 bilhões por ano com a queda de produtividade causada pela depressão. Nesse cenário, a IA se apresenta como um farol, oferecendo a promessa de identificar os problemas e, assim, contribuir para que cada dólar investido em saúde mental retorne quatro em ganhos de produtividade e bem-estar.
Contudo, a crença de que a IA, por si só, é a solução completa para a saúde mental e a conformidade com a NR-1 é, para mim, um equívoco perigoso. A NR-1 exige que as organizações identifiquem perigos, avaliem riscos e implementem medidas de controle, incluindo os riscos psicossociais. Essa tecnologia pode fornecer dados, mas a “alma humana” é quem os interpreta, compreende o contexto e, mais importante, elabora e executa as ações efetivas. É a liderança e os especialistas em RH que desenharão programas de conscientização, estabelecerão canais de escuta seguros e treinarão líderes para identificar precocemente sinais de sofrimento psíquico.
A experiência nos mostra que a intervenção é fundamentalmente humana. A IA poderia, no máximo, identificar as correlações, mas a decisão e a forma de engajar os colaboradores partiram da sensibilidade e estratégia da gestão.
A falácia da IA sozinha se acentua quando pensamos na complexidade do ser humano. A IA pode analisar padrões, mas não confronta a pessoa, não oferece um ângulo diferente, não traz o elemento humano de apoio e compreensão que é vital para a saúde mental.
IA não interage no universo dos afetos
A comodidade de relatórios automatizados não pode substituir a interação, o acolhimento e a inteligência contextual que apenas o ser humano pode proporcionar. O problema de usar um chatbot para o aspecto mais humano da psicoterapia, o contato de empatia com o paciente, é que essa tecnologia não foi programada para gerar nenhum tipo de ligação afetiva nem mesmo de compreensão sobre o que é dito.
Ele é apenas um algoritmo que produz sequências de palavras de maneira estatística, baseada em grandes bancos de dados de texto. E o que mais preocupa os psicólogos, porém, não é a questão moral sobre a preponderância de humanos sobre máquinas, mas a própria precisão do diagnóstico que é dado.
A Associação Americana de Psicologia (APA) publicou no ano passado um conjunto de diretrizes para lidar com o tema, apontando que os robôs não devem substituir a interação humana, embora reconheça o espaço para psicólogos usarem a IA de maneira positiva.
É importante ressaltar que a responsabilidade pelas condições de trabalho e pela saúde mental dos funcionários, inclusive quando se trata de prestadores de serviço terceirizados, recai sobre a empresa contratante. Afinal, a IA muitas vezes contribui não exatamente para ajudar as pessoas, como seria esperado, mas acaba acentuando a dependência e o isolamento, principalmente entre os mais jovens.
As empresas que buscam a conformidade plena com a NR-1 e, mais importante, o bem-estar genuíno de seus colaboradores, precisam integrar a tecnologia a um diagnóstico humano aprofundado, uma estratégia personalizada e um acompanhamento especializado contínuo.
O futuro do trabalho saudável e produtivo reside na sinergia entre o potencial tecnológico e a insubstituível capacidade humana de cuidar.