ETARISMO

Consegui no Canadá emprego que é impossível no Brasil

O RH brasileiro está cometendo verdadeiros crimes contra as empresas.

12 de fevereiro de 2026 - 13:27
Marcelo Negrini (Foto: Divulgação)

Marcelo Negrini (Foto: Divulgação)

Sou CTO com mais de 30 anos de experiência internacional em 22 países, liderança em transformação digital, fintech, edtech, IA e e-commerce. Notas acima de 8 ao longo de toda a minha carreira acadêmica. Mentor Endeavor. Passagens por empresas que geraram centenas de milhões em valor.

Fiquei 9 meses desempregado no Brasil.

Não por falta de competência. Mas por um sistema de recrutamento que é, ao mesmo tempo, pseudocientífico, algoritmicamente enviesado e — vamos chamar pelo nome — criminoso. Mandei centenas, se não mais de mil aplicações de trabalho. Nenhuma resultou nem ao menos em entrevista. Headhunters, que por 30 anos me procuravam e me convidavam para novas vagas, sumiram (com honrosas exceções).

Minha salvação? Conseguir um emprego remoto no Canadá. Um país que não me perguntou meu signo do DISC, não rodou meu LinkedIn num algoritmo de "fit cultural" e não se assustou com o número no meu CPF. Não usou minhas datas de formatura para inferir minha idade. Não olhou quem eu sigo no Instagram para inferir minha ideologia.

Este artigo é uma denúncia. Uma denúncia fundamentada em leis, dados e jurisprudência. Sobre cinco práticas do RH brasileiro que violam a Constituição, a CLT, a LGPD e o Estatuto do Idoso — todos os dias, em milhares de processos seletivos, com total impunidade.

1. Etarismo: O Crime Que o Brasil Finge Não Ver

Vamos começar pelo mais óbvio — e pelo mais covarde.

41% dos profissionais brasileiros já sofreram discriminação por idade, segundo o estudo global Talent Trends 2025 da Michael Page, que entrevistou 50 mil profissionais em 36 países. O índice brasileiro é superior à média global (36%) e à da América Latina (35%). O Brasil é um dos piores países do mundo para profissionais com mais de 50 anos.

E não estou falando de "percepção". Estou falando de números na Justiça do Trabalho. O número de ações por etarismo saltou de 3 em 2018 para 403 em 2023 — um aumento de mais de 13.000%. O valor total das indenizações pleiteadas passou de R$ 4,47 milhões em 2018 para R$ 174,64 milhões em 2023[^36][^4]. Em 2024, até setembro, já havia mais de 340 novos casos.

E a jurisprudência é clara: tribunais condenam empresas. O TRT-15 manteve a condenação de R$ 20 mil por danos morais a um trabalhador de 66 anos, dispensado por etarismo. O TST manteve condenação de R$ 100 mil contra um banco pela mesma prática. E, nos termos da Lei 9.029/95, cabe ao empregador provar que a dispensa ou a não contratação não foi motivada por idade.

A legislação é explícita e não deixa margem para interpretação:

  • A Constituição Federal, no Art. 7º, XXX, proíbe a diferença de salário, função ou critério de admissão por motivo de idade.
  • A Lei 9.029/95, Art. 1º, proíbe qualquer prática discriminatória no acesso ou na manutenção do emprego por motivo de idade.
  • O Estatuto do Idoso, Art. 27, veda a fixação de limite máximo de idade para contratação. Constitui crime negar emprego por motivo de idade, com pena de reclusão de 6 meses a 1 ano.
  • A CLT, Art. 373-A, proíbe a publicação de vagas com restrição de idade.
  • A CLT, Art. 461, garante a igualdade salarial, sem distinção de idade.

Mesmo assim, um estudo da Stato/Mackenzie revelou que 44% dos entrevistados acreditam que profissionais acima de 50 anos têm dificuldade de adaptação, e 70% percebem que trabalhadores mais velhos recebem menos oportunidades de promoção[^10].

O etarismo não é um viés inconsciente. É uma política deliberada, operacionalizada por algoritmos e protegida por eufemismos como "energia", "dinamismo" e "aderência cultural".

 2. Algoritmos Ilegais: A Discriminação Automatizada Que Ninguém Audita

Em 2025, 73% das empresas brasileiras já utilizavam sistemas de IA em seus processos de recrutamento. Apenas 12% auditavam seus algoritmos para detectar discriminação.

Vou repetir: 88% das empresas que usam IA para contratar não fazem nenhuma verificação de viés.

Esses algoritmos são treinados com dados históricos. Se uma empresa nunca contratou ninguém com mais de 45 anos para determinada posição, a IA aprende que "idade acima de 45" é um fator negativo. Se os melhores avaliados são sempre do mesmo perfil demográfico, a IA reproduz esse viés como se fosse "competência".

O caso mais emblemático é o da Amazon, cujo algoritmo de recrutamento foi treinado com dados de 10 anos de contratações — que refletiam a predominância masculina na indústria tech — e passou a penalizar automaticamente currículos de mulheres.

Mas o que a legislação brasileira diz sobre isso?

  • CLT (Art. 1º e seguintes): princípios de não discriminação e igualdade de oportunidades.
  • Lei 9.029/95: veda práticas discriminatórias na contratação.
  • LGPD (Art. 5º, II): define opinião política, origem racial, dados de saúde como dados sensíveis, cujo uso em decisões automatizadas exige hipóteses legais rigorosas.
  • Constituição Federal (Art. 5º, caput e XLI): garante igualdade e veda qualquer forma de discriminação.

Candidatos têm direito legal de saber quais critérios foram adotados para sua exclusão. A ausência de transparência pode ser questionada judicialmente, e a empresa pode responder por danos morais na fase pré-contratual. E, mais: se a empresa terceiriza o processo para uma plataforma de IA, a responsabilidade é solidária — o empregador responde junto.

Uma fintech brasileira foi multada em R$ 2,3 milhões por usar CEPs para restringir crédito a moradores de favelas — a mesma lógica de proxy que os algoritmos de recrutamento usam para discriminar por idade, gênero e classe social.

O problema não é a tecnologia. É a impunidade. É que ninguém audita, ninguém fiscaliza, e quando o candidato é eliminado, ele recebe um email genérico de "agradecemos seu interesse" sem nenhuma explicação.

3. Testes de Personalidade: Pseudociência Com Selo de RH

DISC. Eneagrama. Big Five. MBTI. O mercado brasileiro de RH trata esses instrumentos como se fossem exames de sangue — objetivos, científicos, inquestionáveis.

Não são.

Um artigo jurídico publicado em outubro de 2025 no portal Jus.com.br, de autoria de André Jales Falcão Silva, investiga exatamente os limites legais desses testes. Suas conclusões são demolidoras:

  • Testes como o DISC e o Eneagrama carecem de validação empírica robusta para uso como critério eliminatório em processos seletivos.
  • O uso desses instrumentos como filtro de exclusão pode configurar discriminação indireta, mascarada pelo discurso de eficiência organizacional.
  • Instrumentos que se aproximam de testes psicológicos são de uso privativo do psicólogo, conforme a Lei 4.119/1962 e a Resolução CFP 002/2003. Um analista de RH aplicando esses testes sem habilitação está, tecnicamente, exercendo ilegalmente a profissão de psicólogo.
  • Os resultados desses testes constituem dados pessoais sensíveis pela LGPD e sua coleta exige consentimento explícito, finalidade definida e transparência total.
  • A Constituição Federal e a CLT vedam práticas discriminatórias no acesso ao trabalho, e eliminar candidatos por traços de personalidade que não têm relação objetiva com o cargo pode configurar violação de direitos fundamentais.

O próprio artigo conclui, em termos inequívocos: "Longe de serem ferramentas neutras de apoio à gestão de pessoas, DISC e Eneagrama devem ser compreendidos como práticas que carregam implicações jurídicas e sociais relevantes. Sua utilização como critério eliminatório nos processos seletivos revela-se problemática e, em muitos casos, incompatível com os princípios do Direito do Trabalho."

Um estudo da SciELO sobre testes psicológicos e direito reforça: "Não há nenhuma lei no Brasil que proteja um(a) candidato(a) do 'vazamento' de informações sobre sua personalidade. E, em alguns casos, estes fatores que podem impedir a contratação da pessoa poderiam ser considerados discriminatórios."

Mas o que fazem as empresas brasileiras? Aplicam DISC como triagem eliminatória em massa. Usam o Big Five para descartar quem pontua alto em "Abertura" (ou seja, pessoas criativas e questionadoras). Penalizam neurodivergentes que respondem de forma "atípica" a questionários calibrados para um padrão neurológico específico.

E chamam isso de "ciência de gente".

4. Presunção de Salário Alto: O Filtro Invisível Contra Experiência

Existe uma prática tão disseminada que já se tornou naturalizada: eliminar candidatos seniores antes da primeira entrevista com base na presunção de que "vão pedir muito" . Eu peço esse "muito", mas, em tempos normais, eu pedia depois de várias entrevistas e de provar meu valor. Hoje é impossível.

Funciona assim: o algoritmo (ou o analista de RH) olha o currículo, vê 20+ anos de experiência, cargos de diretoria ou C-level e conclui automaticamente que a pretensão salarial será incompatível com o orçamento. Sem perguntar. Sem negociar. Sem sequer abrir a conversa.

Isso é discriminação por idade com uma roupagem financeira. A pretensão salarial está sendo usada como proxy para excluir profissionais mais velhos — exatamente como o CEP é usado como proxy para excluir moradores de periferia.

Profissionais sêniores que estão dispostos a negociar, que valorizam desafio e propósito tanto quanto remuneração, que aceitariam faixas compatíveis com a realidade da empresa nunca chegam a ter essa conversa. São descartados por uma inferência algorítmica que viola diretamente a Lei 9.029/95 (discriminação por idade no acesso ao emprego) e o Art. 7º da Constituição (proibição de critérios de admissão por idade)

5. Perfilamento Político e Cybervetting: A LGPD Rasgada em Silêncio

A LGPD, em seu Artigo 5º, inciso II, classifica explicitamente a opinião política como dado pessoal sensível. Isso significa que coletar, inferir ou usar informações sobre o posicionamento político de um candidato em um processo seletivo exige hipóteses legais rigorosas — e discriminar com base nesse dado é ilegal.

Mas, na prática, o que está acontecendo é que uma indústria inteira de cybervetting opera justamente para isso. Empresas de background check digital varrem redes sociais, identificam padrões de conexões, analisam curtidas e compartilhamentos e produzem relatórios de "risco reputacional" que, na prática, funcionam como perfilamento ideológico.

A tecnologia de audiências semelhantes (Lookalikes) permite que algoritmos agrupem pessoas com base em comportamentos correlacionados com ideologia. Se a base de "melhores funcionários" de uma empresa é politicamente homogênea, a IA vai replicar esse viés sob a máscara de "compatibilidade cultural".

O resultado é um Apartheid Ideológico mediado por algoritmos, onde o candidato é descartado não pelo que sabe fazer, mas pelo que pensa sobre o mundo. A LGPD existe para impedir exatamente isso — mas sem auditoria algorítmica, sem fiscalização ativa e sem cultura de transparência, a lei é papel.

O Resultado: Fuga de Cérebros

E o que acontece quando um país trata seus profissionais mais experientes como descartáveis?

O Brasil enfrenta uma fuga de cérebros crescente, com milhares de profissionais qualificados migrando para outros países em busca de oportunidades que o próprio país lhes nega. Esse êxodo ameaça a inovação, a economia e setores estratégicos como ciência, tecnologia e saúde.

Eu sou estatística viva desse fenômeno. Um CTO brasileiro que foi forçado a buscar emprego no Canadá porque o mercado nacional o considerou "velho demais" aos 56 anos. Enquanto o Canadá viu experiência, o Brasil viu um número e uma "personalidade" calculada com critérios similares aos da Astrologia.

E eu não sou caso isolado. Converso toda semana com profissionais sêniores, brilhantes — diretores, VPs, CTOs, CFOs — que estão sendo sistematicamente excluídos do mercado brasileiro. Alguns aceitam posições muito abaixo de sua capacidade. Outros desistem. Outros emigram.

O país está exportando experiência e importando mediocridade corporativa.

O Que Precisa Mudar — Agora

Para o Ministério Público do Trabalho e a ANPD:

  • Auditoria algorítmica compulsória em plataformas de recrutamento. Se 73% das empresas usam IA e só 12% auditam, isso não é um gap — é negligência sistêmica.
  • Fiscalização ativa do uso de testes de personalidade como critério eliminatório, especialmente quando aplicados por profissionais não habilitados.
  • Investigação de cybervetting e de perfilamento político em processos seletivos.

Para o Congresso Nacional:

  • Regulamentação específica do uso de IA no recrutamento, com exigência de transparência, explicabilidade e direito de contestação do candidato.
  • Aprovação de projetos, como o PL 2677/23, que propõe eliminar o caráter eliminatório dos testes psicotécnicos.

Para profissionais que estão passando por isso:

  • Documente tudo. Salve prints de vagas com linguagem etarista ("energético", "dinâmico", "nativo digital"). Registre recusas sem justificativa após os testes de personalidade. Consulte um advogado trabalhista.
  • Processos por etarismo vencem — a jurisprudência é cada vez mais favorável ao trabalhador.
  • Você tem direito a saber os critérios de exclusão de qualquer processo seletivo que utilize decisões automatizadas (LGPD, Art. 20).

Para empresas que querem fazer diferente:

  • Auditem seus algoritmos. Exijam relatórios de viés dos fornecedores de IA.
  • Usem testes de personalidade como ferramenta de desenvolvimento, nunca como filtro eliminatório.
  • Substituam "fit cultural" (conformidade) por "add cultural" (complementaridade).
  • Divulguem as faixas salariais das vagas — eliminem a pretensão salarial como filtro oculto de etarismo.

Para Quem Está Lendo e Se Reconheceu

Se você tem 45, 50, 55, 60 anos e está ouvindo que "não tem perfil", que "não deu match no assessment", que "o processo seguiu com outros candidatos" — saiba de uma coisa:

O problema não é você. O problema é um sistema que quebra a lei todos os dias e chama isso de "gestão moderna de pessoas".

Etarismo é crime. Discriminação algorítmica é ilegal. Testes de personalidade eliminatórios, sem base científica, violam direitos fundamentais. Perfilamento político em processos seletivos viola a LGPD.

A pergunta que fica é: até quando vamos aceitar que o RH brasileiro opere como uma zona de impunidade?

Se você viveu algo parecido, compartilhe sua experiência nos comentários. Quanto mais visíveis formos, mais difícil fica para o sistema nos ignorar. 

E se este artigo te fez pensar, compartilhe. Não por engajamento — mas porque tem gente brilhante sendo descartada agora mesmo, em silêncio, por um algoritmo que ninguém audita.

*Por Marcelo Negrini, CTO da SalesCloser AI.