
Marcel Nobre (Foto: Divulgação)
Já imaginou como seria se hoje você precisasse fazer uma viagem longa sem usar o Google Maps? Ficar um mês inteiro sem pedir comida por aplicativo? Ou pior: sem acessar o Instagram por uma semana? Embora essas tecnologias tenham entrado na nossa vida com a promessa de nos dar conforto, facilidade e diversão, hoje são responsáveis por moldar nosso comportamento, decisões e até opiniões.
No Brasil, segundo a pesquisa Consumer Pulse, os usuários passam em média mais de nove horas por dia conectados, sendo três delas dedicadas exclusivamente às redes sociais. Esse cenário mostra que a privacidade praticamente deixou de existir. Tudo o que fazemos online deixa um rastro digital. Aplicativos de entrega, Waze, compras em marketplaces ou streaming (tudo gera dados). No fim das contas, os aplicativos são empresas de dados fantasiadas de empresas de serviço.
Essa presença constante das telas também afeta o pensamento crítico. Pesquisas apontam que um norte-americano consulta o celular 144 vezes ao dia, enquanto o tempo médio de atenção em uma única tela não passa de 47 segundos. Um estudo do MIT mostra que o uso excessivo de IA pode reduzir em até 32% a carga cognitiva necessária para aprendizagem. Aos poucos, estamos vivendo no modo automático e deixando de refletir sobre nossas escolhas.
Quando falamos em inteligência artificial, é preciso destacar a ilusão de atribuir consciência a algo que apenas emula padrões. A IA não sente nada. Ela apenas combina palavras por probabilidade, a partir do treinamento que recebeu. No fundo, não gosta de você, não sabe quem você é. Mesmo assim, estamos delegando a ela tarefas críticas, como atendimento, organização de projetos e até decisões estratégicas. O risco aumenta quando se considera o monitoramento constante de plataformas digitais, que usam interações simples como curtidas e tempo de visualização para alimentar algoritmos capazes de traçar perfis comportamentais detalhados. Esses sistemas conseguem prever conteúdos que têm maior chance de mudar sua opinião. Alguém define o que é parâmetro de normalidade, e os riscos de manipulação ainda não são plenamente compreendidos.
A concentração de mercado em torno de poucas empresas amplia esse quadro. Amazon, Microsoft e Google controlam cerca de 80% da infraestrutura global de nuvem. Esse nível de concentração virou questão geopolítica. Essas empresas têm o poder de decidir o que aparece no feed, na busca ou até em ferramentas de IA. São corporações movidas a lucro, mas que se apresentam como solucionadoras de problemas — sem necessariamente medir as consequências.
Um estudo da Ilumeo aponta que 80% dos consumidores estão dispostos a aceitar ajuda da inteligência artificial para tomar uma decisão de compra. Essa mesma lógica opera nas redes sociais, que funcionam como motores de recomendação de conteúdos. O TikTok, por exemplo, analisa milhares de sinais — tempo de visualização, repetição, toques no perfil, além de metadados de áudio e imagem — para ajustar instantaneamente o feed de cada usuário. O resultado é um ambiente altamente personalizado, em que cada indivíduo recebe um fluxo contínuo de estímulos moldados para mantê-lo engajado.
Esse mecanismo, aparentemente inofensivo, já mostrou seu potencial de manipulação em larga escala. O caso Cambridge Analytica revelou como dados pessoais coletados no Facebook foram utilizados para prever e influenciar escolhas eleitorais. A empresa, contratada pela campanha de Donald Trump em 2016 e também envolvida no Brexit, comprou acesso a informações de milhões de usuários por meio de testes de personalidade. Com esses dados, criou perfis psicossociais detalhados e direcionou mensagens segmentadas, muitas vezes desinformativas, para desestimular o voto ou mudar opiniões de grupos considerados mais vulneráveis.
As consequências foram significativas: a empresa foi dissolvida após o escândalo, enquanto a Meta aceitou pagar US$ 725 milhões para encerrar uma ação coletiva. Mais do que uma falha ética, o episódio escancarou como algoritmos e estratégias de microtargeting podem comprometer processos democráticos. Se já aceitamos que a IA nos ajude a escolher um produto ou uma música, também precisamos reconhecer que esse mesmo poder de recomendação pode ser usado para moldar convicções políticas, redefinir agendas sociais e, em última instância, influenciar a forma como enxergamos a realidade.
A conveniência completa esse cenário. A ausência de fricção se transformou em dependência. Hoje, se uma compra não chega no mesmo dia, não fechamos. O e-mail é completado automaticamente, o aspirador funciona sozinho. Ganhamos conveniência, mas perdemos autonomia. O futuro da liberdade pode acabar se resumindo a apertar um botão e deixar o algoritmo decidir por nós.
Reconhecer essa influência profunda e silenciosa é o primeiro passo para resgatar a autonomia, senso crítico e responsabilidade no uso das ferramentas digitais.
*Por Marcel Nobre, pesquisador, palestrante e especialista em inovação, tecnologia, tendências, IA e educação.