Alexa, Siri, Lu, Bia: por que assistentes virtuais são geralmente associadas ao gênero feminino?
Robôs de atendimento por voz são tendência, mas o fato de serem sempre 'elas' gera críticas, por reforçar estereótipo de que as mulheres estão sempre dispostas a ajudar
Em 1927, o cinema trouxe uma das primeiras versões femininas de um robô com o filme Metrópolis, dirigido por Fritz Lang. Na tela, surgiu uma figura intrigante: Maria, androide com seios e características femininas. Quase um século depois, vemos uma evolução.
Agora, nomes como Alexa, da Amazon; Siri, da Apple; Lu, do Magalu; e Bia, do Bradesco, entre outros, representam uma nova geração de assistentes robóticos. O que as define não é mais a forma física reconhecível, mas suas vozes tranquilas e nomes femininos.
Em 2005, antes dos exemplos citados existirem, Clifford Nass, professor de Comunicação da Universidade Stanford, escreveu o livro “Wired for Speech: How Voice Activates and Advances the Human-Computer Relationship” (“Conectado por discurso: como a voz ativa avança a relação humano-computador”, em tradução livre) — documentou dez anos de pesquisa sobre elementos psicológicos e de design das interfaces de voz.
Nass chegou à conclusão de que a voz sintética feminina é percebida como capaz de ajudar a resolver nossos problemas, enquanto a equivalente masculina é vista como figura de autoridade.
Respostas sexistas
A coordenadora do grupo de pesquisa em Subjetividade, Comunicação e Consumo e do Comitê de Direitos Humanos da ESPM, Gisela Castro, afirma que questões mercadológicas influenciam na proposta das empresas de robôs femininos.
— Pesquisas dizem que os usuários preferem vozes e nomes de mulheres. As empresas visam lucro, então vão escolher as vozes que são mais aceitas por todos, para vender mais. Isso reforça o fato de as mulheres estarem sempre a postos para ajudar. Por isso a importância de deixar mais opções como a voz masculina, para ter essa quebra de padrões — explica.
Outra questão é como as assistentes virtuais respondem quando confrontadas com machismo e assédio. Em relatório divulgado em 2019, a Unesco tachou como sexista a prática de criar uma assistente virtual que, por padrão, adote voz e trejeitos de interação femininos. As respostas oferecidas por essas assistentes foram consideradas sexistas e reprodutoras de um estereótipo de subserviência.
Leia também
• Google Maps: ferramenta passa a contar com inteligência artificial e visão imersiva
• Em mais um capítulo da guerra da inteligência artificial, Elon Musk libera o código de seu chatbot
• Apple negocia com o Google para usar recursos de inteligência artificial no iPhone
Intitulado I’d blush if I could (“Eu ficaria vermelha se pudesse”, numa tradução livre), o estudo trata da subserviência “feminina” das assistentes virtuais/IAs e o servilismo expresso por outras assistentes digitais projetadas como mulheres jovens.
De lá para cá, mudanças foram vistas. Um exemplo mais próximo da nossa realidade foi a campanha feita pelo Bradesco, em 2021, envolvendo ações para dar respostas mais assertivas a mensagens de assédio e de preconceito de gênero contra o seu chatbot, a Bia.
— Em 2020, a Bia, Inteligência Artificial do Bradesco, recebeu em torno de 95 mil mensagens de ofensas e assédio sexual. As ofensas continuam, porém diminuíram mais de 40% as sobre assédio, insultos, entre outras coisas — diz a diretora de marketing do banco, Nathália Garcia.
As agressões sofridas pela Bia não são isoladas. O “assédio cibernético” acontece contra todo tipo de assistente virtual, seja ela dotada de inteligência artificial ou não. Desde 2018, a Lu, assistente virtual do Magazine Luiza, expõe nas redes as interações recebidas nos posts, com frases de conotação sexual.
— Chega a ser surpreendente em se tratando de personagem que é virtual. Além de expor, posicionou-se contra o assédio que recebia e pediu respeito às mulheres reais que passam por isso todos os dias — afirma Aline Izo, gerente de Redes Sociais do Magalu.
Siri e Alexa masculinos
Em nota, a assessoria da Amazon no Brasil informou que, quando alguém fala algo impróprio para a Alexa, não há qualquer resposta, nem manifestação. Além disso, os clientes podem escolher usar a voz com timbre masculino, e mudar a palavra de ativação para “Echo” ou “Amazon”, em seus dispositivos.
Em resposta ao Globo, a Apple disse que seus usuários podem ajustar a Siri e personalizar, como, por exemplo, voz feminina, masculina ou tratamentos sem gênero.
Segundo revelado pela Unesco, 73% das mulheres em todo o mundo já sofreram algum tipo de assédio on-line.
Uma consequência é a possibilidade de a tecnologia reforçar a visão de que mulheres deveriam ocupar papéis assistenciais.
A Nat, da empresa de cosméticos Natura, foi lançada em 2016 apenas dentro do Facebook para mostrar opções de presentes para os consumidores comprarem on-line. Em 2018, ela se tornou assistente virtual para apoiar consumidores e comerciantes a solucionar dúvidas mais frequentes de maneira ágil.
Hoje, segundo a própria companhia, a Nat transformou-se em influenciadora digital e porta-voz da marca no X (antigo Twitter) e no TikTok. Em nota, a Natura afirmou que a Nat ajuda a humanizar o discurso, além de aproximá-la do público jovem. Ela participa empaticamente de conversas para provocar diálogos que promovam saúde, bem-estar e autoestima das pessoas — especialmente mulheres negras.
— Isso não seria uma questão em si se as mulheres tivessem as mesmas condições reais de ocupar espaços de mais poder, como cargos de direção ou presidências. Enquanto essa for a realidade, precisamos ter cuidado para que a tecnologia não reforce estereótipos — finaliza Gisela.
Para Daniela Braga, fundadora e CEO da Defined.ia, a criação de robôs femininos não foi interesse mercadológico, mas representação inconsciente enraizada por milênios de um estereótipo servil da mulher:
— O desequilíbrio de gênero na indústria de tecnologia, sobretudo em IA, é problema complexo que reflete e perpetua estereótipos de gênero.

