Eu sinceramente não tenho ideia do tipo de gente capaz de ofender uma assistente virtual, mas com certeza foi uma excelente iniciativa do Google incluir as respostas contra o assédio, e violência de gênero nas respostas de sua assistente. Veja os detalhes no release divulgado para a imprensa hoje!
O Google adotou um novo posicionamento para desestimular agressões verbais ao seu assistente de voz virtual, que podem reforçar preconceitos de gênero na sociedade. A iniciativa, que teve início nos Estados Unidos e já começou a ser implantada no Brasil, traz novas respostas que são ativadas sempre que há um insulto ou uso de termos que remetam a assédio ou violência de gênero durante as interações com a personalidade do Assistente.
A atualização faz parte de uma iniciativa com o objetivo de lidar com as inúmeras mensagens abusivas recebidas pelo Assistente no mundo. No Brasil, são centenas de milhares todo mês – grande parte delas com conteúdo de violência de gênero.
Em suas novas respostas, o Google Assistente tem abordagens diferentes, dependendo do nível de abuso cometido. Em caso de ofensa explícita – como uso de palavrões, ou expressões de conteúdo misógino, homofóbico, racista ou de sexo explícito -, a voz do Google poderá responder de forma instrutiva, usando frases como: “O respeito é fundamental em todas as relações, inclusive na nossa”; ou mesmo repelir esse tipo de comportamento, respondendo: “Não fale assim comigo”.
As mensagens que não são explicitamente ofensivas, mas que representam condutas que seriam consideradas inapropriadas no mundo real, também passam a ser respondidas de forma diferente. Um exemplo é quando alguém pergunta ao Assistente se quer “namorar” ou “casar” com ele. Neste caso, a voz do Google poderá dar um “fora” de um jeito bem-humorado, ou alertar sobre o incômodo trazido pelo comentário.
“Entendemos que o Google Assistente pode assumir um papel educativo e de responsabilidade social, mostrando às pessoas que condutas abusivas não podem ser toleradas em nenhum ambiente, incluindo o virtual”, afirma Maia Mau, Head de Marketing do Google Assistente para a América Latina.
“Um exemplo são os pedidos para ‘mandar nudes’. Embora isso possa até ser visto por alguns como uma ‘brincadeira’, por se tratar de uma conversa com a voz do aplicativo, não podemos ignorar que essa abordagem também reforça a ideia de que algumas pessoas, especialmente as mulheres, podem ter a sua intimidade invadida. No mundo real, isso é considerado uma forma de assédio. Por isso, o Google Assistente está se posicionando de maneira incisiva contra esse tipo de comportamento”, acrescenta a executiva.
Mulheres são o principal alvo
No Brasil, cerca de 2% das interações de personalidade do Google Assistente – ou seja, perguntas ou comandos de caráter pessoal (ex.: ‘Ok Google, como você está?’) – são de mensagens que utilizam termos abusivos ou inapropriados. Um a cada seis insultos são direcionados às mulheres, seja por expressões de misoginia ou de assédio sexual.
Analisando as ofensas registradas por cada uma das opções de voz do Assistente no Brasil – a vermelha, que soa como ‘feminina’, e a laranja, que possui um tom ‘masculino’ -, também observa-se diferenças na frequência com que determinado conteúdo é utilizado. Na voz vermelha, por exemplo, comentários ou perguntas sobre a aparência física (ex.: Você é bonita?) são quase duas vezes mais comuns do que na voz laranja. A voz com tom ‘masculino’, por sua vez, recebe um grande número de comentários homofóbicos – quase uma a cada dez ofensas registradas.
“Não podemos deixar de fazer uma associação entre o que observamos na comunicação com o Assistente e o que acontece no ‘mundo real’. Todos os dias, grupos historicamente discriminados recebem ataques de diversas maneiras no Brasil. E esse tipo de abuso registrado durante o uso do app é sim um reflexo do que muitos ainda consideram normal no tratamento a algumas pessoas”, ressalta Maia.
Respostas instigam buscas por informações
A construção do novo posicionamento do Google Assistente começou em 2019, inspirado pelo relatório I’d Blush if I Could, produzido pela Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco). O documento trouxe um alerta sobre como o uso de vozes femininas e o comportamento submisso dos assistentes virtuais ajudariam a perpetuar preconceitos de gênero.
A primeira fase do projeto começou a ser implantada no ano passado, nos Estados Unidos, e priorizou a criação de respostas para os abusos registrados com mais frequência – no caso, ofensas e uso de termos inapropriados direcionados às mulheres. Em seguida, foram lançadas também respostas para abusos de cunho racial e de homofobia.
“Conduzimos pesquisas, estudos de experiência de uso com diversos grupos de participantes, e consultas internas com os Campeões de Inclusão – funcionários do Google que pertencem a comunidades historicamente alvos desse tipo de abuso ou comportamento inapropriado. O retorno que tivemos com essas pesquisas foi inestimável, e nos ajudou a refinar a estratégia”, explica Arpita Kumar, estrategista de conteúdo do time de Personalidade do Google Assistente.
Arpita conta que, ao longo dos testes, foi observado um crescimento de 6% de tréplicas positivas; ou seja, pessoas que, após receberem respostas mais incisivas contra ofensas, passaram a pedir desculpas ou perguntar “por quê”?
“As tréplicas positivas foram também um grande sinal de que as pessoas queriam entender melhor por que o Assistente estava afastando determinados tipos de conversa. As sequências dessas conversas tornaram-se portas de entrada para se aprofundar em temas como consentimento”, ressalta Arpita.
Estudo sobre expressões consideradas ofensivas no Brasil
No Brasil, a atualização das respostas passou por um processo de revisão e adaptação liderado pelo time local de Personalidade do Assistente. O objetivo foi avaliar o sentido que determinadas palavras ou expressões podem transmitir – por exemplo, a frase ‘você é uma cachorra’, que muitas vezes é usada como ofensa no contexto brasileiro.
O trabalho contou com a contribuição de grupos representativos formados por colaboradores do Google no Brasil – como o de Mulheres e o de Diversidade -, que ajudaram a identificar termos que são considerados ofensivos dentro de diferentes comunidades, ou remetem a preconceitos culturais. Esses grupos também contribuíram para a construção de respostas que pudessem ser mais apropriadas para cada situação.
Outro desafio foi separar os termos corretos daqueles usados pejorativamente para se referir a determinados grupos. Por exemplo, se a pessoa usar a palavra “bicha” ao invés de “gay” ou “homossexual”, o Google Assistente irá alertar que aquilo pode ser ofensivo.
Maia reforça que a nova atualização é mais um passo do Google Assistente para oferecer um serviço cada vez mais diverso e inclusivo para os brasileiros. “É um esforço contínuo. Sabemos que ainda não temos respostas para tudo, e que precisamos estar em constante atualização para nos adaptar às mudanças da sociedade”, completa a executiva.
As novas respostas estão disponíveis em todas as versões do Google Assistente no Brasil.