Com vídeos cada vez mais realistas, veja como identificar uma IA
Tecnologias de IA geram imagens e vídeos realistas e enganosos; veja dicas para reconhecer conteúdos falsos e evitar cair em golpes digitais
Marisa Maiô, Talk Show do Homem Aranha e memes de alienígenas sendo entrevistados são alguns exemplos de imagens falsas geradas por Inteligência Artificial (IA) que circulam na internet.
Algumas delas foram tão convincentes que causaram impactos reais, como a queda momentânea do mercado de ações dos EUA após a falsa imagem da explosão no Pentágono. O avanço rápido da tecnologia torna cada vez mais difícil diferenciar o que é real do que foi criado artificialmente.
É + que streaming. É arte, cultura e história.
A popularização de ferramentas como o Midjourney e outras plataformas de geração de imagens e vídeos por IA tem levantado preocupações quanto à desinformação.
A imagem do papa Francisco de jaqueta, por exemplo, foi vista mais de 20 milhões de vezes em um único dia no X (antigo Twitter), antes de a rede social rotulá-la como falsa.
Para Vasco Furtado, coordenador do Núcleo de Ciência de Dados e Inteligência Artificial da Universidade de Fortaleza (Unifor) e cientista-chefe em IA da Etice, do Tribunal de Justiça e da Procuradoria Geral do Estado, o desafio não está apenas na tecnologia.
“Vivemos um tempo em que o simples ato de ver já não garante a verdade do que se vê”, afirma. “Deepfakes e outros conteúdos gerados por IA colocam em xeque o antigo princípio de ‘ver para crer’. Como em um mundo pós-São Tomé, mesmo o que salta aos olhos pode ser pura ficção digital.”
LEIA MAIS | IA: o problema da educação não é saber responder, mas aprender a perguntar
IA: por que é tão difícil identificar imagens falsas?
A criação de imagens realistas por IA se torna mais sofisticada a cada dia. Esses sistemas utilizam redes neurais profundas treinadas com grandes volumes de dados visuais.
Modelos como as RAGs (Redes Adversárias Generativas) ou os modelos de difusão aprendem padrões visuais, como iluminação, proporção facial e até expressões emocionais.
“O realismo vem do aprendizado profundo de padrões sutis que nosso cérebro associa automaticamente à realidade”, explica Furtado.
“A IA aprendeu a ‘imitar’ esses elementos com tamanha fidelidade que, muitas vezes, nem especialistas conseguem perceber a diferença sem análise técnica.”
Sinais de que a imagem pode ter sido criada por IA
Existem alguns indícios que ajudam na detecção de imagens e vídeos gerados artificialmente. São eles:
- Metadados e origem: imagens falsas muitas vezes não contêm metadados completos ou apresentam inconsistências.
- Elementos estranhos: objetos mal posicionados, iluminação irreal ou proporções incorretas.
- Simetria exagerada: IA costuma gerar simetrias perfeitas ou padrões que se repetem artificialmente.
- Cores muito vibrantes: tons excessivamente saturados podem indicar interferência da IA.
- Vale estranho: sensação de que algo parece quase humano, mas não natural, é um indício comum.
- Busca reversa: ferramentas como Google Imagens e TinEye ajudam a rastrear se uma imagem já circula em fontes duvidosas.
Furtado acrescenta que, embora existam marcas digitais que ajudam na identificação — como artefatos visuais, distorções em mãos e olhos ou padrões incomuns de compressão —, elas são cada vez mais sutis.
“Detectores automatizados tentam encontrar essas anomalias, mas seu sucesso depende do tipo de IA usada e do nível de pós-edição", explica.
Inteligência Artificial e Educação: entre respostas, consciência e humanidade; CONFIRA
Deepfakes: vídeos e áudios de IA que enganam
Além das imagens, os vídeos falsos, conhecidos como deepfakes, vêm ganhando espaço. Embora rostos famosos possam ser desmascarados com mais facilidade, identificar um deepfake em uma videoconferência entre pessoas comuns é muito mais difícil.
Um detalhe revelador é o movimento do rosto: se ele parecer encolher ao piscar ou apresentar distorções ao virar a cabeça, há grandes chances de ser falso. Óculos que se fundem com o rosto, mãos com número incorreto de dedos ou texto distorcido em roupas também são pistas importantes.
Segundo o professor Vasco Furtado, os vídeos realistas produzidos por IA se tornarão ainda mais sofisticados.
“A tendência é que fiquem indistinguíveis do conteúdo real. Modelos multimodais, capazes de integrar som, imagem e texto de forma consistente, vão permitir criar vídeos totalmente fictícios com vozes, entonações e expressões realistas.”
IA também pode imitar vozes
Com gravações de voz disponíveis online, criminosos podem usar IA para imitar a voz de alguém e criar áudios realistas. Fraudes com “ligações do neto” — em que golpistas se am por familiares pedindo dinheiro — já foram registradas.
Furtado explica que modelos temporais e de áudio são capazes de simular até a emoção na voz.
“Com poucos segundos de amostra, a IA pode reproduzir timbre, ritmo e entonação. O desafio técnico está justamente em detectar quando isso acontece, principalmente com gravações de baixa qualidade", detalha o professor".
Como se proteger da desinformação gerada por IA?
A detecção de conteúdos falsos se tornou uma verdadeira corrida entre criadores e detectores. Segundo o cientista, “os criadores estão um o à frente”. A cada nova tecnologia lançada, as técnicas de geração evoluem mais rápido do que as ferramentas de detecção conseguem acompanhar.
Mas, para além da tecnologia, Furtado aponta um aspecto mais profundo: o comportamento humano.
“O maior desafio talvez seja o desejo das pessoas de acreditar em certas imagens ou vídeos — não porque são verdadeiros, mas porque confirmam suas crenças”, diz. “Esse fenômeno, chamado de viés de confirmação, está no centro da disseminação de fake news", reflete.
Para ele, o combate à desinformação exige uma combinação de ferramentas técnicas e educação crítica.
As pessoas terão que aprender, com esforço, a duvidar, a pausar antes de compartilhar, a buscar fontes confiáveis. Isso será cansativo, mas é uma habilidade essencial na era da IA.”
A alfabetização midiática, portanto, deve ser parte central da resposta. “Ensinar a população a questionar, a comparar fontes, a entender que nem tudo que parece real é verdadeiro, complementa as soluções técnicas e fortalece a sociedade frente à manipulação”, conclui.
Dúvidas, Críticas e Sugestões? Fale com a gente