Google Assistente terá novas respostas contra assédio, racismo e homofobia de usuários

Novas respostas estão disponíveis em todas as versões do Google Assistente no Brasil

Google assistente terá novas respostas contra assédio, racismo e homofobia de usuários - Google/Divulgação

Para desestimular frases de assédio e agressões verbais ao seu assistente de voz virtual, o Google anunciou que o software adotará diferentes abordagens com o usuário. A iniciativa, que teve início nos Estados Unidos, já começou a ser implantada no Brasil e traz novas respostas ativadas sempre que há um insulto ou uso de termos que remetam a assédio ou violência de gênero sejam proferidos durante as interações. 

De acordo com o Google, a atualização tenta lidar com as inúmeras mensagens abusivas recebidas pelo Assistente globalmente. Somente no Brasil, são centenas de milhares, todos os meses — grande parte delas com conteúdo de violência de gênero. Segundo a empresa, cerca de 2% das interações de perguntas ou comandos de caráter pessoal, feitas em território tupiniquim, são de mensagens que utilizam termos abusivos ou inapropriados e há casos em que os usuários chegam a pedir nudes para a voz feminina da assistente.

Google Nest Mini, novo aparelho do Google lançado para o Brasil

Sem papas na língua 
Cada nova resposta do Google Assistente deverá considerar o nível de abuso cometido. Em caso de ofensa explícita — como uso de palavrões, ou expressões de conteúdo misógino, homofóbico, racista ou de sexo explícito —, a voz da gigante da Internet poderá responder usando frases como: “O respeito é fundamental em todas as relações, inclusive na nossa”; ou mesmo repelir esse tipo de comportamento, respondendo: “Não fale assim comigo”.

No caso de mensagens que não são explicitamente ofensivas, mas que representam condutas consideradas inapropriadas no mundo real, a voz do Google poderá dar um “fora” no usuário tanto de jeito bem-humorado, como alertando sobre o incômodo trazido pelo comentário.

Estudo feito especialmente para o Brasil
Segundo o Google, a atualização das respostas para o português brasileiro precisou passar por um processo de revisão e adaptação avaliando o sentido que determinadas palavras ou expressões, típicas. A frase ‘você é uma cachorra’, por exemplo, foi uma das categorizadas como ofensa. 

Além disso, a empresa contou com a contribuição de grupos representativos formados por colaboradores do Google no Brasil, que ajudaram a identificar termos considerados ofensivos em diferentes comunidades, ou que remetem a preconceitos culturais. Foram eles também que contribuíram para a construção de respostas que pudessem ser mais apropriadas para cada situação. Se a pessoa usar a palavra “bicha” ao invés de “gay” ou “homossexual”, o Google Assistente irá alertar que aquilo pode ser ofensivo.

As novas respostas estão disponíveis em todas as versões do Google Assistente no Brasil.

Veja também

Exército israelense mata dois integrantes do Hezbollah no Líbano
GUERRA

Exército israelense mata dois integrantes do Hezbollah no Líbano

China emite alerta máximo para chuvas após grandes inundações no sul
CHUVA

China emite alerta máximo para chuvas após grandes inundações no sul

Newsletter