TENDÊNCIA

Assistente virtual do Google reage ao assédio

04/05/2022 13:21

Gigante de buscas é mais uma empresa a usar IA para educar o cliente.

Foto: Pexels

Tamanho da fonte: -A+A

O Google atualizou respostas do de seu assistente virtual, que agora vai reagir a interações consideradas inapropriadas por parte dos usuários.

São dois tipos de reação para dois tipos de perguntas divididas em inapropriadas e abusivas.

Em caso de uso de palavrões, ou expressões de conteúdo misógino, o assistente poderá responder de forma instrutiva, usando frases como: “Não fale assim comigo”.

Já as mensagens que não são explicitamente ofensivas também passam a ser respondidas de forma diferente. 

Se alguém pergunta ao assistente se ele quer “namorar” ou “casar” com ele, a voz do Google poderá dar um “fora” de um jeito bem-humorado, ou alertar sobre o incômodo trazido pelo comentário. 

Os usuários do assistente do Google podem escolher receber respostas com uma voz masculina ou feminina.

Segundo o Google revelou a jornalistas em coletiva de imprensa em São Paulo nesta terça-feira, 3, a voz feminina costuma receber mais respostas consideradas inapropriadas pela multinacional.

Dados internos apontam que no Brasil, um a cada seis insultos ao assistente virtual são explicitamente direcionados ao sexo feminino, seja por expressões de misoginia ou conotando assédio sexual.

Quando a voz é feminina, comentários ou perguntas sobre a aparência física são muito mais comuns do que a voz masculina, que por sua vez, recebe um grande número de comentários homofóbicos. 

“Entendemos que o Google Assistente pode assumir um papel educativo e de responsabilidade social, mostrando às pessoas que condutas abusivas não podem ser toleradas em nenhum ambiente, incluindo o virtual”, afirma Maia Mau, Head de Marketing do Google Assistente para a América Latina.

Os robôs de atendimento e assistentes virtuais parecem ser a última fronteira na luta contra as desigualdades raciais, sexuais e de gênero, uma bandeira em alta na pauta de responsabilidade corporativa das grandes corporações.

Em 2021 o Bradesco reprogramou o seu chatbot de atendimento aos clientes, que passou a dar respostas mais contundentes para contatos de clientes considerados ofensivos ou de assédio sexual.

Batizado de BIA e representado com traços femininos, o chatbot já recebeu 95 mil mensagens com conteúdo desse tipo só em 2020, revelou o Bradesco na época. 

Antes, o chatbot, ou inteligência artificial, como prefere o Bradesco, respondia “Não entendi, poderia repetir?”, para interações inapropriadas.

Depois das alterações, as devolutivas abordam diretamente a conduta do cliente e incluem respostas como “Essas palavras não podem ser usadas comigo e com mais ninguém” e “Para você pode ser uma brincadeira. Para mim, foi violento”.

Também em 2021, a TIM fez 90 alterações no script do seu robô de atendimento virtual visando adotar uma linguagem mais neutra e diminuir a quantidade de palavras e expressões com “teor masculino”.

Assim, “Bem-vindo ao atendimento” virou “Você está no atendimento”, o que é um pouco mais seco, mas evita uma palavra de gênero masculino. “Nosso cliente”, ficou “Cliente TIM”; “Nosso atendente” agora é “Nossa equipe”.

Veja também

PLAYER
Kore.ai: peso pesado de chatbots no Brasil

Empresa é líder do Quadrante do Gartner, capitalizada e tem presença mundial. 

SAÚDE
MedPlus confirma agendamentos com Nina Tecnologia

Através de uma integração, a solução entra em contato com os pacientes de forma automatizada.

CONTRATAÇÃO
Take Blip traz ex-Serasa para segurança

Capitalizada por aporte, startup de chatbots reforça o time com Paulo Kimura.

NASDAQ
Tencent quase dobra participação na Zenvia

A dona do WeChat entrou na brasileira em janeiro e acaba de apostar mais fichas.

AGRO
Bom Jesus adota solução da SoftExpert

Implementação foi feita pela J2a Consultoria, de Cuiabá.

RESULTADO
Zenvia fatura R$ 612,3 milhões

Valor é alta de 42,5%. Empresa está menos dependente do negócio de SMS.