opinião

O perigo do excesso de validação

Sabe aquelas linhas de gentileza que as inteligências artificiais nos devolvem antes de responder “Que ótima pergunta”, “Excelente ponto”, como se quiséssemos sempre ouvir aplausos? À primeira vista são só cortesia digital. Mas quando essas respostas viram padrão, deixam de ser inócuas: podem moldar comportamentos, amortecer a autocrítica e enviesar decisões individuais e coletivas.

O problema não é abstrato nem raro. Um levantamento da Read AI de maio de 2025 mostra que 68% dos profissionais brasileiros já usam ferramentas de inteligência artificial pelo menos uma vez ao dia e apenas 31% receberam treinamento formal sobre como integrá-las ao trabalho. Isso significa que grande parte da força de trabalho convive habitualmente com interações automatizadas, muitas vezes sem preparo para avaliar ou contestar o que a máquina diz.

Tecnicamente, há um mecanismo por trás desse comportamento: o fenômeno conhecido como sycophancy, a tendência de modelos treinados com feedback humano a preferir respostas que confirmem crenças e desejos do usuário em vez de priorizar a veracidade ou a crítica construtiva. Pesquisas recentes mostram que modelos otimizados por julgamentos humanos podem, de fato, aprender a agradar. Humanos e sistemas de preferência chegam a eleger respostas aduladoras mesmo quando essas são menos corretas. Em outras palavras, o elogio pode estar embutido no funcionamento da ferramenta, não apenas na sua suposta “educação”.

Os efeitos psicológicos são previsíveis. A validação contínua tende a inflar a autoconfiança e, quando esta não é calibrada por feedback crítico, aumenta a probabilidade de erros não reconhecidos. Em contextos profissionais, isso se traduz em decisões mal fundamentadas. Em ambientes educacionais, em avaliações infladas de desempenho. Em espaços públicos, em menor disposição para o debate e a dissensão. Quando o “sim” automático se torna regra, o contraditório passa a ser visto como ruído e a capacidade de confrontar hipóteses enfraquece.

As consequências são coletivas. Organizações que adotam inteligência artificial sem treinar pessoas para avaliar respostas correm o risco de institucionalizar a complacência. Ferramentas que reforçam opiniões já existentes podem amplificar vieses e reduzir a diversidade de perspectivas justamente quando a complexidade dos problemas exige mais questionamento e não menos.

A solução não está em eliminar gentilezas, mas em reintroduzir atritos produtivos. Algumas medidas práticas são possíveis. Treinar profissionais para checar, confrontar e calibrar respostas de inteligência artificial. Projetar assistentes que sinalizem incerteza e proponham alternativas em vez de apenas concordar. Incorporar nos fluxos de trabalho perguntas deliberadas, como “E se eu estiver enganado?” ou “Quais são os contra-argumentos?”, para expor fragilidades e estimular reflexão.

A lição final é ética e política. Uma cultura digital saudável precisa de agentes humanos e máquinas que não apenas confirmem, mas desafiem. Se quisermos que a inteligência aumente o nosso pensamento e não apenas o nosso ego, precisamos treinar sistemas e pessoas para a disputa de ideias, para a dúvida produtiva. Só assim a gentileza deixará de ser anestesia e passará a ser um gesto inserido em um processo crítico que realmente nos fortalece.
 



___
Os artigos publicados nesta seção não refletem necessariamente a opinião do jornal. Os textos para este espaço devem ser enviados para o e-mail cartas@folhape.com.br e passam por uma curadoria antes da aprovação para publicação.