Ter, 09 de Dezembro

Logo Folha de Pernambuco
TECNOLOGIA

'IA 2027': relatório sobre futuro catastrófico terá continuação com plano para evitar colapso

Publicado em abril, documento projeta cenários de perda de controle sobre sistemas de inteligência artificial em 2 anos

Relatório liderado por ex-pesquisador da OpenAI projeta futuro sombrio com a IA Relatório liderado por ex-pesquisador da OpenAI projeta futuro sombrio com a IA  - Foto: Kirill Kudryavtsev/AFP

O relatório “AI 2027”, que imagina um futuro quase distópico para a inteligência artificial, se tornou uma espécie de leitura obrigatória na indústria de tecnologia e entre pesquisadores. Para os críticos, trata-se de uma narrativa especulativa que exagera riscos e, no fim, reforça a ideia de um poder insuperável das big techs. Seus autores dizem que o objetivo é estimular o debate.

Publicado pela organização sem fins lucrativos AI Futures, o texto projeta que, em até dois anos, modelos avançados de IA superarão humanos em diversas tarefas, com capacidade de “automatizar a maioria dos empregos administrativos”. No pior cenário, descrito até o fim da década, a inteligência artificial leva à erosão de instituições e acende uma corrida armamentista baseada em sistemas autônomos.

Agora, depois do documento com tom apocalíptico circular entre especialistas, desenvolvedores e chegar às mãos de autoridades, o grupo prepara uma continuação do documento: um panorama do que poderia ser feito hoje para evitar os piores desfechos para a IA. A expectativa é que a publicação saia nos próximos meses.

Assim como no caso do “AI 2027", quem lidera o novo relatório é Daniel Kokotajlo, ex-pesquisador da OpenAI, criadora do ChatGPT e empresa que escancarou a corrida atual pelo desenvolvimento da tecnologia Fora da empresa, ele se tornou uma espécie de dissidente da indústria.

Em entrevista ao Globo, Jonas Vollmer, diretor de operações do AI Futures, antecipa alguns pontos que o próximo trabalho do grupo irá trazer. Ele também analisa o espaço do Brasil nesse cenário e faz um alerta: para ele, estamos muito perto de delegar decisões demais a sistemas que não entendemos e que respondem a interesses corporativos, não ao bem coletivo.

1. O pós-AI 2027
Desde sua publicação, o “AI 2027” tem chamado a atenção pela forma detalhada com que antecipa cenários e aponta para futuros possíveis do mundo a partir de um descontrole da inteligência artificial.

O vice-presidente americano JD Vance chegou a mencionar publicamente a leitura do documento. Nos bastidores, os autores vêm mantendo diálogos com empresas e formuladores de políticas públicas para apresentar os resultados. O objetivo do grupo, de acordo com Vellmer, é fornecer análises independentes que ajudem a garantir um futuro mais seguro para a IA.

— Tem havido bastante interesse de governos, empresas de IA e também de outras partes da sociedade civil (no nosso trabalho). Diversas agências governamentais e vários tipos de atores nos procuraram. Nós também já realizamos exercícios de simulações de futuro em algumas das principais empresas de IA, que nos convidaram para apresentações ou conversas com equipes — conta Vollmer.

2. Próximas recomendações
Segundo Vollmer, entre as principais recomendações no novo documento está a exigência de maior transparência das empresas que lideram o desenvolvimento da tecnologia. Isso inclui a publicação dos chamados "model specs" — documentos que detalham como os sistemas de IA são treinados e quais princípios devem seguir. Segundo o pesquisador, esses arquivos são uma espécie de "constituição" dos modelos,

— Da mesma forma, deveriam existir documentos públicos de segurança.Ou seja, cada empresa deveria ser obrigada a divulgar um documento explicando quais são os riscos e os motivos pelos quais acreditam que seus sistemas são seguros — acrescenta.

O grupo também defende as empresas que lideram a IA divulguem relatórios públicos de segurança, nos quais expliquem os riscos em seus sistemas e por que acreditam que estão sob controle.

Outra proposta é a criação de mecanismos formais de proteção a denunciantes (whistleblowers), que garantam anonimato a funcionários que desejem alertar sobre condutas potencialmente perigosas. Para Vollmer, a falta de informações sobre o que se passa dentro das empresas que lideram a IA é um dos riscos mais preocupantes hoje:

— Uma das dinâmicas perigosas que mais nos preocupam é o fato de o público estar no escuro sobre o que acontece dentro dessas empresas. Acreditamos que o mundo precisa saber

Ele menciona ainda a necessidade de algum grau de coordenação internacional, ainda que informal. Uma das ideias discutidas seria um acordo voluntário entre as empresas mais avançadas para que, durante um período determinado, foquem em mitigar riscos em vez de acelerar suas capacidades. O formato, no entanto, ainda está em debate.

3. Crises e disrupções sociais
No relatório, o ponto de inflexão ocorre quando os sistemas passam a escrever código, testar hipóteses e projetar novos modelos de IA com mais eficiência do que humanos. Isso gera um ciclo de autoaperfeiçoamento que escapa do controle institucional. A partir daí, decisões críticas econômicas, militares e diplomáticas são delegadas a agentes algorítmicos.

Questionado sobre o que mais o preocupa em relação ao risco de um avanço desgovernado da IA, Vollmer cita justamente o cenário em que sistemas poderosos passam a ganhar influência desproporcional na sociedade, sem que se haja clareza sobre seus objetivos ou mecanismos de tomada de decisão.

— Estamos confiando cada vez mais nessas IAs, entregando a elas mais influência e poder. Alguns anos atrás, dizíamos que as IAs não deveriam se conectar à internet. Agora, elas já vêm conectadas por padrão. E isso só tende a crescer. Vamos acabar entregando a esses sistemas que não compreendemos o controle de grandes partes da sociedade. E é isso que me preocupa.

O cenário-base do relatório projeta um mundo mais desigual, com riqueza e influência política cada vez mais concentradas. Na projeção de descontrole, essa transformação desencadeia disrupções sociais e intensificação de crises políticas, com espionagem entre potências e uso militar de IA.

4. A superinteligência que supera humanos
Outra previsão do grupo é a de que, até o fim de 2027, será possível ter agentes de IA com desempenho superior ao humano em uma série de tarefas. O ponto levantou questionamento de outros pesquisadores. Vollmer defende que o cenário é plausível:

— Por que isso pode acontecer tão cedo? Porque milhares de pesquisadores brilhantes estão trabalhando exatamente nesse problema. Há muitas abordagens que ainda não foram tentadas.

A previsão se baseia no ritmo atual de avanços em modelos fundacionais e no uso de IA para acelerar sua própria evolução, o que pode levar a um ponto de virada. Um exemplo citado no relatório é o desenvolvimento de agentes autônomos capazes de programar sozinhos e treinar suas próprias versões futuras.

Para o pós 2027, dois cenários estão postos: um de aceleração descontrolada, com consequências catastróficas, e outro de contenção e governança global. Jonas Vollmer conta que a primeira expectativa, mais alarmista, não é consenso entre o grupo formado por cinco pesquisadores, mas um desfecho que merece atenção:

—Nem todos concordam com tudo, mas muitos especialistas com quem conversamos também acham que o cenário de aceleração merece atenção. Então, a proposta não é dizer “isso vai acontecer”, mas sim “isso pode acontecer e devemos nos preparar”.

5. O lugar do Brasil
Apesar do foco em riscos existenciais e transformações geopolíticas, o documento foca no eixo Estados Unidos e China. Na única vez em que é citada, a América Latina aparece como espectadora que "reconhecendo sua crescente irrelevância nos assuntos globais".

Vollmer diz que países como o Brasil dificilmente terão infraestrutura para competir no desenvolvimento das IAs mais avançadas. Mas diz ao GLOBO que haveria espaço para protagonismo político e diplomático do país:

— O Brasil pode exercer influência pressionando por acordos multilaterais, participando de discussões regulatórias e garantindo que os benefícios e riscos da IA sejam compartilhados globalmente.

Vollmer também observa que há espaço para o país influenciar o debate sobre justiça distributiva, garantindo que os benefícios da tecnologia não fiquem restritos a poucas nações ou empresas.

 

Veja também

Newsletter