Viver Melhor
O perigo invisível: quando a IA fabrica “verdades” falsas
A inteligência artificial (IA) vem sendo aplicada em diversas áreas, desde chatbots de atendimento até a criação de áudios, vídeos e imagens altamente realistas. Essa versatilidade, no entanto, abre espaço para usos nocivos, como a produção de conteúdos falsos. Com ferramentas acessíveis, é possível gerar gravações de voz que imitam políticos ou celebridades, criar imagens convincentes e até aplicar golpes virtuais. Casos de chantagem envolvendo áudios clonados de supostos sequestros já foram registrados, evidenciando como a tecnologia pode ser explorada para enganar e manipular.
O impacto desse fenômeno é crescente. Entre 2024 e 2025, a divulgação de conteúdos falsos criados com IA no Brasil aumentou 308%, segundo o Panorama da Desinformação do Observatório Lupa. Deepfakes, que permitem alterar rostos e vozes em vídeos, passaram de 39 casos em 2024 para 159 em 2025, representando um salto significativo. Se antes a tecnologia era usada principalmente em golpes digitais, em 2025 ganhou força como ferramenta política: quase metade dos conteúdos falsos com IA apresentava viés ideológico. Redes sociais como Facebook, Instagram, WhatsApp, TikTok e Kwai tornaram-se canais centrais para a disseminação dessas peças.
Paralelamente, estudos mostram que até mesmo o uso da IA para verificar fatos pode gerar efeitos inesperados. Pesquisadores da Universidade de Indiana identificaram que, em alguns casos, sistemas de checagem automatizada aumentaram a crença em manchetes falsas, especialmente quando classificaram incorretamente conteúdos verdadeiros. Embora a IA tenha conseguido identificar 90% das notícias falsas, isso não se traduziu em maior discernimento dos usuários. Já verificações feitas por humanos mostraram resultados mais eficazes. Esses achados reforçam a necessidade de cautela na adoção de ferramentas automatizadas para combater a desinformação.
As fake news representam riscos sérios e multifacetados. Elas podem comprometer vidas, desestabilizar instituições democráticas, prejudicar a economia e facilitar crimes cibernéticos. No Brasil, dependendo do contexto, o compartilhamento de desinformação pode configurar crimes de honra, como calúnia, difamação e injúria. Em um cenário em que conteúdos criados por IA se tornam cada vez mais realistas, é essencial mudar a postura: não basta “ver para crer”, é preciso “desconfiar e verificar”. O crescimento acelerado da desinformação exige consciência crítica e responsabilidade digital para reduzir seus impactos e proteger a sociedade.
Um exemplo aqui mesmo: a fake news sobre o Plano PAI
Não precisa ir longe para detectar os danos que uma fake news pode causar. Um exemplo é a circulação de uma informação falsa de que colaboradores que participam do Plano PAI, administrado pela Fundação Itaúsa Industrial, perderiam a parte de aporte da empresa empregadora caso pedissem demissão. Essa informação é enganosa. O benefício da empresa não é perdido com o desligamento, pois o plano PAI oferece alternativas para o participante manter sua reserva. Porém, essa fake news tem levado muitos colaboradores a não aderirem ao plano, perdendo a chance de cuidarem do futuro. Por isso, se esta informação chegar até você, não compartilhe e alerte a quem enviou de que se trata de fake news.
Quer ter acesso à informações confiáveis sobre o plano, acesse o site da Fundação Itaúsa (www.fundacaoitausa.com.br ) ou fale com a área de atendimento da entidade pelos canais: Tel. (11) 3336-6682 ou e-mail: atendimento@fundacaoitausa.com.br
CHECKLIST DE VERIFICAÇÃO DE CONTEÚDOS
Imagens e Vídeos
- As mãos, olhos, dentes e orelhas parecem naturais?
- As sombras e reflexos fazem sentido com a iluminação?
- O fundo está estável ou parece distorcido/“derretendo”?
- Boca sincronizada com o áudio?
- Pele com textura realista (não plástica demais)?
Áudios
- A voz tem pausas naturais e emoção?
- Há ruídos de fundo estranhos ou artificiais?
Textos e Notícias
- O texto apela para choque, medo ou raiva?
- Existem erros sutis de gramática ou lógica?
- O conteúdo é repetitivo ou cheio de clichês?
Verificação
- Conferi em portais de notícias confiáveis?
- Há marca d’água ou aviso de IA?
- Usei ferramentas de detecção (ex.: AI or Not)?
Comportamento Seguro
- O conteúdo é “chocante” demais para ser verdade?
- Evitei compartilhar sem checar?
- Verifiquei se a conta que publicou é confiável?
Se pelo menos uma dessas verificações falhar, trate o conteúdo como suspeito e não compartilhe.


