Qua, 24 de Dezembro

Logo Folha de Pernambuco
Tecnologia

Google retira promessa de não usar IA em armas

Empresa muda texto no qual afirmava que não buscaria "tecnologias que causem danos amplos"

Os chamados Princípios de IA do Google traziam, antes, um trecho intitulado "Aplicações da IA que não buscaremos",Os chamados Princípios de IA do Google traziam, antes, um trecho intitulado "Aplicações da IA que não buscaremos", - Foto: Josh Edelson/AFP

O Google removeu um trecho dos seus princípios sobre inteligência artificial (IA) no qual se comprometia a evitar o uso da tecnologia para aplicações perigosas, como fabricação de armas.

Os chamados Princípios de IA da empresa traziam, antes, um trecho intitulado “Aplicações da IA que não buscaremos”, como “tecnologias que causem ou possam causar danos amplos”, o que incluía armas, conforme capturas de tela vistas pela Bloomberg. Isso não aparece mais na página.

Procurado, o Google enviou uma postagem publicada na terça-feira em seu blog.

No texto, James Manyika, vice-presidente sênior, e Demis Hassabis, que chefia o laboratório de IA DeepMind, afirmam acreditar que “as democracias devem liderar no desenvolvimento da IA, guiadas por valores fundamentais como liberdade, igualdade e respeito pelos direitos humanos.”

E que empresas, governos e organizações “deveriam trabalhar juntos para criar uma IA que proteja pessoas, promova o crescimento global e apoie a segurança nacional.”

Remover a menção a “danos” pode ter implicações sobre a linha de trabalho do Google, diz Margaret Mitchell, que já codirigiu o time de ética de IA da empresa e hoje é cientista-chefe de ética na startup de IA Hugging Face:

— O maior problema é que o Google agora provavelmente vai trabalhar na implantação direta de uma tecnologia que pode matar pessoas.

A medida do Google é parte de uma ampla mudança nas políticas das big techs depois que Donald Trump assumiu a presidência. Meta e Amazon, por exemplo, suspenderam programas de diversidade e inclusão.

Tracy Pizzo Frey, que supervisionou o que é conhecido como IA Responsável no Google Cloud de 2017 a 2022, disse que os princípios de IA guiaram o trabalho que sua equipe realizava todos os dias.

"Eles nos pediram para questionar profundamente o trabalho que estávamos fazendo em cada um deles", disse ela em uma mensagem.

"E eu acredito fundamentalmente que isso fez nossos produtos melhores. IA Responsável é um criador de confiança. E a confiança é necessária para o sucesso."

Os funcionários do Google discutem há muito tempo como equilibrar as preocupações éticas e as dinâmicas competitivas no campo da IA, particularmente desde o lançamento do ChatGPT da OpenAI, que aumentou a pressão sobre o gigante de busca.

Em 2023, alguns funcionários do Google expressaram preocupações à Bloomberg de que o esforço da empresa para recuperar terreno na IA havia levado a falhas éticas.

Veja também

Newsletter