Google retira promessa de não usar IA em armas
Empresa muda texto no qual afirmava que não buscaria "tecnologias que causem danos amplos"
O Google removeu um trecho dos seus princípios sobre inteligência artificial (IA) no qual se comprometia a evitar o uso da tecnologia para aplicações perigosas, como fabricação de armas.
Leia também
• Ação do Google despenca após balanço e investidores questionam gasto com IA
• Amazon, Alphabet, Netflix: empresas que são alvo de ofensiva anti-diversidade por fundo de Oklahoma
• China retalia e taxará itens americanos em até 15%; Google será investigado
Os chamados Princípios de IA da empresa traziam, antes, um trecho intitulado “Aplicações da IA que não buscaremos”, como “tecnologias que causem ou possam causar danos amplos”, o que incluía armas, conforme capturas de tela vistas pela Bloomberg. Isso não aparece mais na página.
Procurado, o Google enviou uma postagem publicada na terça-feira em seu blog.
No texto, James Manyika, vice-presidente sênior, e Demis Hassabis, que chefia o laboratório de IA DeepMind, afirmam acreditar que “as democracias devem liderar no desenvolvimento da IA, guiadas por valores fundamentais como liberdade, igualdade e respeito pelos direitos humanos.”
E que empresas, governos e organizações “deveriam trabalhar juntos para criar uma IA que proteja pessoas, promova o crescimento global e apoie a segurança nacional.”
Remover a menção a “danos” pode ter implicações sobre a linha de trabalho do Google, diz Margaret Mitchell, que já codirigiu o time de ética de IA da empresa e hoje é cientista-chefe de ética na startup de IA Hugging Face:
— O maior problema é que o Google agora provavelmente vai trabalhar na implantação direta de uma tecnologia que pode matar pessoas.
A medida do Google é parte de uma ampla mudança nas políticas das big techs depois que Donald Trump assumiu a presidência. Meta e Amazon, por exemplo, suspenderam programas de diversidade e inclusão.
Tracy Pizzo Frey, que supervisionou o que é conhecido como IA Responsável no Google Cloud de 2017 a 2022, disse que os princípios de IA guiaram o trabalho que sua equipe realizava todos os dias.
"Eles nos pediram para questionar profundamente o trabalho que estávamos fazendo em cada um deles", disse ela em uma mensagem.
"E eu acredito fundamentalmente que isso fez nossos produtos melhores. IA Responsável é um criador de confiança. E a confiança é necessária para o sucesso."
Os funcionários do Google discutem há muito tempo como equilibrar as preocupações éticas e as dinâmicas competitivas no campo da IA, particularmente desde o lançamento do ChatGPT da OpenAI, que aumentou a pressão sobre o gigante de busca.
Em 2023, alguns funcionários do Google expressaram preocupações à Bloomberg de que o esforço da empresa para recuperar terreno na IA havia levado a falhas éticas.

