GENERATIVO

O risco invisível da IA corporativa

Treinar pessoas para usar IA é o mesmo que ter uma estratégia de IA.

17 de outubro de 2025 - 10:47
Giovanna Gregori Pinto, fundadora da People Leão (Foto: Divulgação)

Giovanna Gregori Pinto, fundadora da People Leão (Foto: Divulgação)

A Deloitte acaba de anunciar um mega contrato global com a Anthropic, com o objetivo de implantar o Claude em mais de 500 mil funcionários. No mesmo mês, precisou devolver parte de um contrato governamental por entregar um relatório com erros gerados por IA, incluindo referências que nem existiam.

Esse contraste não é apenas irônico. Ele expõe o ponto cego da corrida corporativa pela inteligência artificial: a crença de que treinar pessoas para usar IA é o mesmo que ter uma estratégia de IA.

Nos últimos meses, em fóruns de RH e inovação, percebo o mesmo padrão: todos discutem adoção, formação e medo, mas quase ninguém discute governança.

As empresas estão ensinando seus times a usar ferramentas sem antes decidir para quê, com que grau de autonomia, e quem será responsável quando algo der errado.

Sem essas respostas, o “letramento em IA” vira um placebo organizacional e cria a ilusão de preparo, terceirizando o erro.

Antes de discutir como treinar, é preciso discutir quem decide e até onde vai o uso. As perguntas estratégicas são outras:

Qual o nível de autonomia aceitável para o uso de IA no trabalho?

Quem supervisiona os agentes e modelos criados internamente?

Como garantir que os dados estejam curados, seguros e atualizados?

Quais barreiras impedem que um erro operacional vire um desastre reputacional?

Essas são decisões de poder, não de usabilidade, e se o RH não participa delas, a IA deixa de ser vantagem competitiva e passa a ser risco sistêmico, como vimos no caso Deloitte.

Muitos dizem que o RH deveria liderar a estratégia de IA. Concordo em parte, pois o problema é que poucos RHs têm mandato político ou capacidade técnica para definir políticas de dados, arquitetura de sistemas ou compliance algorítmico.

Isso não significa que o RH deva se omitir, mas sim que precisa redefinir seu papel: ser o elo que traduz implicações humanas e culturais das decisões tecnológicas, e não apenas o departamento que ministra treinamentos.

A liderança da IA corporativa não será de quem entende mais de tecnologia, mas de quem entende melhor de autonomia, confiança e accountability. Nesse contexto, existem três estágios da maturidade em IA corporativa

Adoção espontânea: cada um usa o que quer, do jeito que quer. (Alta velocidade, alto risco.)

Letramento e guidelines: políticas básicas, foco em segurança e uso ético. (Necessário, mas insuficiente.)

Estratégia integrada: IA alinhada a objetivos de negócio e métricas de risco, com governança clara sobre dados e decisões. (É aqui que mora o diferencial competitivo.)

A maioria das empresas ainda está presa no estágio 2, formando usuários sem redesenhar o sistema de responsabilidade. Por isso, treinar sem estratégia é automatizar o passado.

Quando o RH se limita a promover “letramento”, o resultado é previsível: usa quem quiser, do jeito que quiser. E basta um relatório mal checado para corroer a credibilidade de uma marca inteira.

O futuro do trabalho não será definido por quem usa IA, e sim por quem governa seu uso com coerência entre cultura, risco e propósito.

A pergunta que o RH precisa fazer agora é: Qual é a nossa estratégia para integrar IA ao negócio, e não apenas às pessoas? O RH que ensina IA sem redesenhar como o poder e a responsabilidade se distribuem não está preparando o futuro. Está apenas automatizando o passado.

*Por Giovanna Gregori Pinto, graduada em psicologia pela PUC-Campinas, com MBA em gerenciamento de projetos pela FGV. A profissional é fundadora da People Leap e referência em estruturar áreas de RH em startups de tecnologia em crescimento.