Avatar do usuário logado
Usuário
OLÁ, Usuário
Ícone de fechar alerta de notificações
Avatar do usuário logado
Usuário

Usuário

email@usuario.com.br
Prorrogamos a Black: Assine com preço absurdo

Sua empresa usa a inteligência artificial sem uma política interna? Entenda os riscos

Apenas 23,7% das companhias tratam a IA com a mesma seriedade que a LGPD ou a Lei Anticorrupção. Isso expõe um desequilíbrio entre operação e responsabilidade.

Por Enzo Baggio Losso, em colaboração especial para a Você RH*
1 dez 2025, 14h00
Uma pessoa segurando uma tela com LED representando inteligência artificial.
 (Freepik/Reprodução)
Continua após publicidade

Profissionais de marketing usam plataformas generativas para criar campanhas; equipes de RH automatizam a triagem de currículos; departamentos jurídicos testam ferramentas que auxiliam na revisão de contratos; e analistas exploram dados com apoio de algoritmos. O uso da inteligência artificial se espalhou de forma veloz no dia a dia corporativo, no entanto, na maioria das empresas, o avanço tecnológico não foi acompanhado por estruturas de controle e governança.

A pesquisa Panorama Nacional 2025, realizada pela Cornerstone Career Services com apoio da ABRH-SP e do Infojobs, mostra que 79,1% dos profissionais brasileiros utilizam IA em suas rotinas, enquanto apenas 23,7% das companhias afirmam ter políticas institucionais sobre o tema. Esses dados expõem um desequilíbrio entre a operação e a responsabilidade, pois a IA está presente nos processos, porém, quase todos sem acompanhamento ou sequer regras.

Esse descompasso já preocupa reguladores. A União Europeia aprovou em 2024 o AI Act, a lei que criou um marco legal para o uso ético de sistemas de IA. No Brasil, o Projeto de Lei 2.338/2023 propõe regras que incluem transparência, supervisão humana e prestação de contas, enquanto órgãos como o CNJ e a ANPD também vêm debatendo o tema, mas, ainda assim, dentro das empresas, a governança sobre o uso dessa tecnologia ainda é ponto fora da curva.

Adoção sem supervisão pesa ainda mais

Grande parte das organizações adotou ferramentas de IA de forma espontânea, sem planejamento estratégico, e essa prática, aplicada antes das normas, agrava o problema quando a alta gestão não enxerga os riscos envolvidos. Ainda há uma percepção equivocada de que criar políticas de governança atrasa a inovação, quando o resultado é justamente o oposto, já que a ausência de diretrizes aumenta as chances de falhas – o que, por sua vez, gera passivos jurídicos e danos à reputação.

Os exemplos são numerosos. Um funcionário que utiliza IA para montar um relatório pode acabar expondo dados sigilosos da empresa ou do cliente, violando a LGPD (Lei Geral de Proteção de Dados – Lei nº 13.709, de 2018). Campanhas geradas por algoritmos já vêm sendo publicadas sem checagem de autoria, o que gera possibilidade concreta de infração a direitos autorais. Em processos seletivos, o uso de critérios enviesados por ferramentas automatizadas tende a excluir candidatos de forma discriminatória ou imprecisa. Mesmo em pareceres jurídicos, o uso de IA sem supervisão tem levado à circulação de informações incorretas ou desatualizadas, e quando não há diretrizes, treinamento ou rastreabilidade, a organização perde a capacidade de demonstrar diligência, o que, do ponto de vista jurídico, pesa.

Continua após a publicidade

Não importa se a ferramenta foi usada sem autorização da liderança, pois a responsabilidade continua a ser da empresa. O entendimento que vem se consolidando no Brasil e em outras jurisdições é que o dever de controle e supervisão é da organização, portanto, se não há regras, quem responde é a estrutura que permitiu o uso desordenado da tecnologia.

A falta de política formal, de documentação, de protocolos de revisão e de canais de reporte pode ser interpretada como negligência, o que também leva à responsabilização da empresa, como já ocorre em casos de integridade corporativa, assédio e proteção de dados, uma vez que tribunais e órgãos reguladores costumam tratar a falta de estrutura como falha de gestão.

O que deve constar na política interna?

Uma política de uso responsável da inteligência artificial precisa estabelecer limites e finalidades, prevendo cláusulas de confidencialidade nos contratos com colaboradores e fornecedores. Projetos que envolvam dados pessoais devem passar por avaliação de impacto e as decisões automatizadas precisam ser rastreáveis. Já o uso de plataformas abertas com informações sensíveis tem de ser proibido, enquanto os fornecedores necessitam garantir que as ferramentas estejam em conformidade com as normas em vigor.

Continua após a publicidade

A empresa também precisa saber o que está contratando, sendo fundamental conhecer a origem dos dados utilizados, verificar licenças, identificar violações autorais em potencial e manter processos de revisão humana, especialmente nas áreas criativas e jurídicas, pois a ausência de revisão pode levar ao uso indevido de informações, distorções e até plágio.

Hoje, muitas dessas ferramentas estão sendo utilizadas sem o conhecimento da alta liderança, o que reforça a necessidade de criar mecanismos de reporte, mapeamento de uso e supervisão. Isso porque ter clareza sobre quem está usando IA, com qual finalidade e sob quais condições, é o primeiro passo para reduzir a exposição a riscos.

Direcionar a inovação, em vez de engessá-la

A construção de uma governança adaptativa não precisa limitar o uso da tecnologia, pois o objetivo não é engessar a inovação, mas direcioná-la com responsabilidade, criando comitês interdisciplinares, registrando fluxos de decisão e envolvendo jurídico, compliance, TI e RH em medidas que fortalecem a organização e evitam passivos desnecessários.

Continua após a publicidade

Assim como ocorreu com a LGPD e a Lei Anticorrupção, forma-se um padrão que se repete, no qual a adesão voluntária abre caminho para a regulamentação, que evolui para a fiscalização e culmina na responsabilização. O uso da inteligência artificial já entrou nessa trajetória, e o que ainda parece flexível hoje logo será objeto de auditorias, exigências contratuais e decisões judiciais.

As empresas que entenderem isso desde já estarão mais preparadas para crescer com segurança, pois a IA tem potencial de acelerar resultados, melhorar processos e gerar valor, no entanto, isso só acontece quando ela é usada com critério. O futuro corporativo será digital, mas também precisará se manter regulado, e quem não acompanhar esse movimento corre o risco de ficar vulnerável demais para competir.

Compartilhe essa matéria via:

*Enzo Baggio Losso é advogado do Ciscato Advogados Associados, com atuação em proteção de dados e regulação de inteligência artificial.

Publicidade

Matéria exclusiva para assinantes. Faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

PRORROGAMOS BLACK FRIDAY

Digital Completo

Gestores preparados vencem!
Por um valor simbólico , você garante acesso premium da Você RH Digital à informação que forma líderes de verdade.
De: R$ 16,90/mês Apenas R$ 1,99/mês
PRORROGAMOS BLACK FRIDAY

Impressa + Digital

Gestores preparados vencem!
Por um valor simbólico , você garante acesso premium da Você RH Digital à informação que forma líderes de verdade.
De: R$ 26,90/mês
A partir de R$ 9,90/mês

*Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$23,88, equivalente a R$1,99/mês.