Sex, 05 de Dezembro

Logo Folha de Pernambuco
Folha Finanças

Falta de regras pra o uso de IA pode representar risco financeiro para as empresas

Segundo pesquisa, 27% das organizações possuem políticas formais para uso de IA

Número de empresas industriais que usam IA cresce 163% em dois anosNúmero de empresas industriais que usam IA cresce 163% em dois anos - Rawpick/Freepick

A Inteligência Artificial já entrou de vez na rotina corporativa brasileira, do atendimento ao consumidor às decisões estratégicas. Apesar da popularização, a maior parte das empresas ainda opera no escuro quando o assunto é coloca regras no uso da tecnologia. Segundo a terceira edição da Pesquisa Setorial sobre Maturidade de Riscos Digitais das Empresas Brasileiras, realizada pelo Miti (Markets Innovation & Technology Institute), 27% das organizações possuem políticas formais para uso de IA

O estudo, que ouviu 234 empresas entre março e outubro de 2025, avaliou três pilares da sustentabilidade digital: cibersegurança, governança de dados e inteligência artificial. E o diagnóstico preocupa: enquanto a adoção da IA avança rapidamente, a responsabilidade sobre seu uso fica para trás.

Esse déficit de governança não aparece apenas na IA. Mais de um terço das empresas ainda não conta com políticas robustas de cibersegurança. O impacto financeiro dessa lacuna é alto: quando um ataque ou falha digital ocorre, o prejuízo médio projetado chega a US$ 31,99 milhões (cerca de R$ 170 milhões) por incidente, considerando paralisação de operações, correção de sistemas e custos reputacionais. Apesar de ligeiramente inferior ao registrado em 2024, o número segue alarmante.

“Há uma falsa sensação de que a tecnologia, por si só, resolve os problemas. Mas sem governança, a IA se transforma em agente de risco”, afirma Flávia Brito, CEO da Bidweb, patrocinadora da pesquisa. “A tecnologia pode errar, discriminar pessoas ou expor dados sensíveis — e tudo isso tem impacto direto no caixa e na reputação da empresa.”

Enquanto isso, a governança de dados avança em ritmo mais acelerado: quase 70% das empresas já tratam o tema como prioridade, impulsionadas pela LGPD e pela pressão de investidores por transparência. Ainda assim, esse avanço não acompanha a complexidade crescente da IA, especialmente da IA generativa.

Algoritmos

Hoje, algoritmos já participam de processos críticos como análise de riscos, concessão de crédito, triagem de currículos e decisões automatizadas. Sem supervisão adequada, aumentam as brechas para vieses discriminatórios, falhas éticas e dependência tecnológica sem clareza sobre responsabilidades.

“O Brasil está adotando IA em escala, mas sem maturidade proporcional no controle do que os algoritmos fazem, por que fazem e quem responde quando erram”, alerta Brito. “Esse cenário abre espaço tanto para danos silenciosos quanto para eventos catastróficos.”

No cenário internacional, a pressão cresce. A União Europeia aprovou recentemente o AI Act, estabelecendo parâmetros rígidos de segurança e transparência. Para empresas brasileiras que atuam em mercados globais, seguir padrões similares deixou de ser diferencial e passou a ser requisito competitivo.

“Governança não atrasa inovação. É o que garante que as empresas possam inovar sem perder consumidores, enfrentar ações judiciais ou transformar tecnologia em passivo”, afirma a especialista. “Quem cuidar de ética e segurança agora terá vantagem competitiva amanhã.”

A conclusão da pesquisa é clara: o Brasil alcançou alto grau de digitalização, mas ainda apresenta baixa maturidade de risco — um descompasso que tende a aumentar com a aceleração tecnológica. Para Flávia Brito, o desafio atual não é mais decidir se a empresa deve adotar inteligência artificial, mas como fazê-lo com supervisão, responsabilidade e sustentabilidade corporativa.

Veja também

Newsletter