.jpg?w=730)
Foto: Pexels
O Google atualizou respostas do de seu assistente virtual, que agora vai reagir a interações consideradas inapropriadas por parte dos usuários.
São dois tipos de reação para dois tipos de perguntas divididas em inapropriadas e abusivas.
Em caso de uso de palavrões, ou expressões de conteúdo misógino, o assistente poderá responder de forma instrutiva, usando frases como: “Não fale assim comigo”.
Já as mensagens que não são explicitamente ofensivas também passam a ser respondidas de forma diferente.
Se alguém pergunta ao assistente se ele quer “namorar” ou “casar” com ele, a voz do Google poderá dar um “fora” de um jeito bem-humorado, ou alertar sobre o incômodo trazido pelo comentário.
Os usuários do assistente do Google podem escolher receber respostas com uma voz masculina ou feminina.
Segundo o Google revelou a jornalistas em coletiva de imprensa em São Paulo nesta terça-feira, 3, a voz feminina costuma receber mais respostas consideradas inapropriadas pela multinacional.
Dados internos apontam que no Brasil, um a cada seis insultos ao assistente virtual são explicitamente direcionados ao sexo feminino, seja por expressões de misoginia ou conotando assédio sexual.
Quando a voz é feminina, comentários ou perguntas sobre a aparência física são muito mais comuns do que a voz masculina, que por sua vez, recebe um grande número de comentários homofóbicos.
“Entendemos que o Google Assistente pode assumir um papel educativo e de responsabilidade social, mostrando às pessoas que condutas abusivas não podem ser toleradas em nenhum ambiente, incluindo o virtual”, afirma Maia Mau, Head de Marketing do Google Assistente para a América Latina.
Os robôs de atendimento e assistentes virtuais parecem ser a última fronteira na luta contra as desigualdades raciais, sexuais e de gênero, uma bandeira em alta na pauta de responsabilidade corporativa das grandes corporações.
Em 2021 o Bradesco reprogramou o seu chatbot de atendimento aos clientes, que passou a dar respostas mais contundentes para contatos de clientes considerados ofensivos ou de assédio sexual.
Batizado de BIA e representado com traços femininos, o chatbot já recebeu 95 mil mensagens com conteúdo desse tipo só em 2020, revelou o Bradesco na época.
Antes, o chatbot, ou inteligência artificial, como prefere o Bradesco, respondia “Não entendi, poderia repetir?”, para interações inapropriadas.
Depois das alterações, as devolutivas abordam diretamente a conduta do cliente e incluem respostas como “Essas palavras não podem ser usadas comigo e com mais ninguém” e “Para você pode ser uma brincadeira. Para mim, foi violento”.
Também em 2021, a TIM fez 90 alterações no script do seu robô de atendimento virtual visando adotar uma linguagem mais neutra e diminuir a quantidade de palavras e expressões com “teor masculino”.
Assim, “Bem-vindo ao atendimento” virou “Você está no atendimento”, o que é um pouco mais seco, mas evita uma palavra de gênero masculino. “Nosso cliente”, ficou “Cliente TIM”; “Nosso atendente” agora é “Nossa equipe”.