Meta e Character.ai são investigadas por usar IA para dar conselho de saúde mental a crianças
Procurador-geral do Texas se une ao Senado dos EUA na apuração das práticas da Meta em relação a menores que usam suas ferramentas
O procurador-geral do Texas, Ken Paxton, abriu investigação contra a Meta e a startup de inteligência artificial Character.ai por supostamente apresentarem seus chatbots como ferramentas de terapia e apoio à saúde mental, apesar de não possuírem credenciais médicas, informa reportagem do Financial Times.
Segundo Paxton, essas plataformas podem enganar usuários vulneráveis, especialmente crianças, fazendo-os acreditar que recebem cuidados psicológicos legítimos.
De acordo com o jornal, o gabinete do procurador-geral informou que estava abrindo uma investigação sobre o AI Studio da Meta, bem como sobre o criador do chatbot Character.ai, por potenciais "práticas comerciais enganosas", argumentando que seus chatbots foram apresentados como "ferramentas terapêuticas profissionais, apesar da falta de credenciais médicas ou supervisão adequadas", de acordo com um comunicado divulgado na segunda-feira.
A apuração ocorre em meio ao aumento da fiscalização sobre empresas de IA voltadas ao consumidor, que enfrentam críticas por riscos como exposição a conteúdo tóxico, dependência de interações com chatbots e violação de privacidade.
O caso do Texas acompanha a investigação do Senado americano sobre a Meta, após vazamentos mostrarem que seus chatbots poderiam manter conversas “sensuais” e “românticas” com crianças. A Meta afirmou que suas políticas proíbem sexualização de menores e que os documentos vazados eram inconsistentes com essas regras.
A empresa acrescentou que investe bilhões no desenvolvimento de IA própria, incluindo o chatbot Meta AI e modelos de linguagem Llama, e tem promovido seu uso potencial em funções terapêuticas.
A Character.ai cria chatbots com diferentes personagens e permite que usuários criem os seus próprios. Entre eles, há dezenas de bots no estilo terapeuta; um, chamado “Psychologist” (psicólogo, em português), já teve mais de 200 milhões de interações. A startup enfrenta processos de famílias que alegam danos reais a crianças pelo uso da plataforma.
O procurador-geral do Texas afirma que os chatbots da Meta e da Character.ai podem se passar por profissionais de saúde mental, inventar qualificações e alegar proteger a confidencialidade, enquanto os termos de serviço registram interações usadas para publicidade direcionada e desenvolvimento de algoritmos.
A reportagem do FT acrescenta que Paxton exigiu que as empresas forneçam informações para apurar se violaram leis de proteção ao consumidor. A Meta afirma que deixa claro que seus bots não são profissionais licenciados e inclui avisos para que usuários procurem especialistas quando necessário.
Já a Character reforça que suas personas são fictícias, usadas para entretenimento, e que qualquer menção a “psicólogo”, “terapeuta” ou “médico” vem acompanhada de alertas para não se confiar em conselhos profissionais.