.png?w=730)
Foto: Depositphotos
O TikTok realizou um corte de ao menos 60 funcionários da equipe responsável por analisar a qualidade da moderação da plataforma e elaborar políticas de segurança de conteúdo no Brasil nesta última segunda-feira, 18.
A informação é do Estadão, que apurou que a empresa tem passado por uma “reestruturação” global na área, a qual também afetou centenas de colaboradores de Dublin, na Irlanda, recentemente.
Atualmente, a empresa conta com 40 mil profissionais no setor em todo o mundo, apesar de não especificar números no Brasil.
A estimativa é que houve uma redução de 15 funcionários para quatro em cada divisão da área, com cerca de 22 demissões apenas no setor de qualidade, segundo afirmam fontes anônimas ao Estadão.
O setor de lives, por sua vez, pode ter sofrido entre 10 a 15 cortes, de um total de 35 profissionais. Já o time de líderes de qualidade para vídeos curtos foi desligado quase que por completo, sobrando apenas um colaborador no segmento.
Nesta nova onda de cortes, os funcionários foram notificados via e-mail cerca de um mês antes das demissões serem concretizadas, em 19 de fevereiro.
A Bytedance, proprietária do TikTok, reitera, porém, que não se trata de uma demissão em massa, mas sim de uma “reorganização estratégica”.
“À medida que continuamos a cumprir nosso compromisso inabalável de proteger a comunidade do TikTok, estamos reestruturando nossa equipe de treinamento e qualidade, o que nos permitirá aprimorar ainda mais os processos de garantia de qualidade”, disse em um comunicado.
Ironicamente, no final de janeiro deste ano, Shou Chew, CEO do Tik Tok, revelou um investimento de US$ 2 bilhões na área de trust and safety da empresa, dizendo que suas “diretrizes seriam aplicadas vigorosamente”.
O Estadão ainda chama atenção para o fato de as demissões terem sido definidas logo antes do Tribunal Superior Eleitoral (TSE) ter determinado novas regras de uso para as redes sociais diante das eleições brasileiras municipais de 2024.
As diretrizes definem que as plataformas devem remover conteúdos inverídicos, como ataques à democracia, discursos de ódio, racismo, homofobia e difusão da ideologia nazista, mesmo sem determinação judicial prévia.
O tema, entretanto, não é novidade no país. Anteriormente, o assunto já havia virado pauta no PL das Fake News, o qual ganhou força com os ataques golpistas de 8 de janeiro.
Hoje, a moderação do TikTok é realizada em três etapas, sendo a primeira feita de forma automática por inteligência artificial, mirando conteúdos que possam ser classificados como nocivos ou que infrinjam direitos autorais.
Essa fase, entretanto, não é infalível, e, por isso, os moderadores humanos se tornam essenciais. Na última etapa, é feito um pente fino com analistas de qualidade, que padronizam o processo.