Dom, 28 de Dezembro

Logo Folha de Pernambuco
TECNOLOGIA

Alexa, Siri, Lu, Bia: por que assistentes virtuais são geralmente associadas ao gênero feminino?

Robôs de atendimento por voz são tendência, mas o fato de serem sempre 'elas' gera críticas, por reforçar estereótipo de que as mulheres estão sempre dispostas a ajudar

iPhone 15 vem com a inteligência artificial SiriiPhone 15 vem com a inteligência artificial Siri - Foto: Patrick T. Fallon / AFP

Em 1927, o cinema trouxe uma das primeiras versões femininas de um robô com o filme Metrópolis, dirigido por Fritz Lang. Na tela, surgiu uma figura intrigante: Maria, androide com seios e características femininas. Quase um século depois, vemos uma evolução.

Agora, nomes como Alexa, da Amazon; Siri, da Apple; Lu, do Magalu; e Bia, do Bradesco, entre outros, representam uma nova geração de assistentes robóticos. O que as define não é mais a forma física reconhecível, mas suas vozes tranquilas e nomes femininos.

Em 2005, antes dos exemplos citados existirem, Clifford Nass, professor de Comunicação da Universidade Stanford, escreveu o livro “Wired for Speech: How Voice Activates and Advances the Human-Computer Relationship” (“Conectado por discurso: como a voz ativa avança a relação humano-computador”, em tradução livre) — documentou dez anos de pesquisa sobre elementos psicológicos e de design das interfaces de voz.

Nass chegou à conclusão de que a voz sintética feminina é percebida como capaz de ajudar a resolver nossos problemas, enquanto a equivalente masculina é vista como figura de autoridade.

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

A post shared by Folha de Pernambuco (@folhape)

Respostas sexistas
A coordenadora do grupo de pesquisa em Subjetividade, Comunicação e Consumo e do Comitê de Direitos Humanos da ESPM, Gisela Castro, afirma que questões mercadológicas influenciam na proposta das empresas de robôs femininos.

— Pesquisas dizem que os usuários preferem vozes e nomes de mulheres. As empresas visam lucro, então vão escolher as vozes que são mais aceitas por todos, para vender mais. Isso reforça o fato de as mulheres estarem sempre a postos para ajudar. Por isso a importância de deixar mais opções como a voz masculina, para ter essa quebra de padrões — explica.

Outra questão é como as assistentes virtuais respondem quando confrontadas com machismo e assédio. Em relatório divulgado em 2019, a Unesco tachou como sexista a prática de criar uma assistente virtual que, por padrão, adote voz e trejeitos de interação femininos. As respostas oferecidas por essas assistentes foram consideradas sexistas e reprodutoras de um estereótipo de subserviência.
 

Intitulado I’d blush if I could (“Eu ficaria vermelha se pudesse”, numa tradução livre), o estudo trata da subserviência “feminina” das assistentes virtuais/IAs e o servilismo expresso por outras assistentes digitais projetadas como mulheres jovens.

De lá para cá, mudanças foram vistas. Um exemplo mais próximo da nossa realidade foi a campanha feita pelo Bradesco, em 2021, envolvendo ações para dar respostas mais assertivas a mensagens de assédio e de preconceito de gênero contra o seu chatbot, a Bia.

— Em 2020, a Bia, Inteligência Artificial do Bradesco, recebeu em torno de 95 mil mensagens de ofensas e assédio sexual. As ofensas continuam, porém diminuíram mais de 40% as sobre assédio, insultos, entre outras coisas — diz a diretora de marketing do banco, Nathália Garcia.

As agressões sofridas pela Bia não são isoladas. O “assédio cibernético” acontece contra todo tipo de assistente virtual, seja ela dotada de inteligência artificial ou não. Desde 2018, a Lu, assistente virtual do Magazine Luiza, expõe nas redes as interações recebidas nos posts, com frases de conotação sexual.

— Chega a ser surpreendente em se tratando de personagem que é virtual. Além de expor, posicionou-se contra o assédio que recebia e pediu respeito às mulheres reais que passam por isso todos os dias — afirma Aline Izo, gerente de Redes Sociais do Magalu.

Siri e Alexa masculinos
Em nota, a assessoria da Amazon no Brasil informou que, quando alguém fala algo impróprio para a Alexa, não há qualquer resposta, nem manifestação. Além disso, os clientes podem escolher usar a voz com timbre masculino, e mudar a palavra de ativação para “Echo” ou “Amazon”, em seus dispositivos.

Em resposta ao Globo, a Apple disse que seus usuários podem ajustar a Siri e personalizar, como, por exemplo, voz feminina, masculina ou tratamentos sem gênero.

Segundo revelado pela Unesco, 73% das mulheres em todo o mundo já sofreram algum tipo de assédio on-line.

Uma consequência é a possibilidade de a tecnologia reforçar a visão de que mulheres deveriam ocupar papéis assistenciais.

A Nat, da empresa de cosméticos Natura, foi lançada em 2016 apenas dentro do Facebook para mostrar opções de presentes para os consumidores comprarem on-line. Em 2018, ela se tornou assistente virtual para apoiar consumidores e comerciantes a solucionar dúvidas mais frequentes de maneira ágil.

Hoje, segundo a própria companhia, a Nat transformou-se em influenciadora digital e porta-voz da marca no X (antigo Twitter) e no TikTok. Em nota, a Natura afirmou que a Nat ajuda a humanizar o discurso, além de aproximá-la do público jovem. Ela participa empaticamente de conversas para provocar diálogos que promovam saúde, bem-estar e autoestima das pessoas — especialmente mulheres negras.

— Isso não seria uma questão em si se as mulheres tivessem as mesmas condições reais de ocupar espaços de mais poder, como cargos de direção ou presidências. Enquanto essa for a realidade, precisamos ter cuidado para que a tecnologia não reforce estereótipos — finaliza Gisela.

Para Daniela Braga, fundadora e CEO da Defined.ia, a criação de robôs femininos não foi interesse mercadológico, mas representação inconsciente enraizada por milênios de um estereótipo servil da mulher:

— O desequilíbrio de gênero na indústria de tecnologia, sobretudo em IA, é problema complexo que reflete e perpetua estereótipos de gênero.

Veja também

Newsletter