Descubra os perigos dos deepfakes e como essa tecnologia pode representar uma ameaça à segurança, reputação e até mesmo à democracia.

Alerta máximo! Deepfakes ameaçam a segurança e a democracia 

Os deepfakes são uma forma avançada de manipulação de mídia que utiliza inteligência artificial para criar conteúdo falsos que parecem autênticos. Esta tecnologia representa uma ameaça significativa à segurança cibernética, à reputação de indivíduos e empresas, e até mesmo à integridade dos processos democráticos. 

O que são deepfakes? 

Manipulações digitais sofisticadas que utilizam inteligência artificial (IA), os deepfakes substituem rostos ou vozes em vídeos, criando conteúdos que parecem autênticos à primeira vista. Eles conseguem enganar até os olhos mais atentos. Exemplos incluem a criação de perfis falsos em redes sociais para phishing e a geração de áudios falsos para burlar a biometria vocal. 

Tipos de deepfakes 

Existem diversas variantes, cada uma com suas próprias aplicações e riscos: 

  • Deepfake de texto: utiliza processamento de linguagem natural para simular textos escritos por pessoas reais, induzindo à crença de que são genuínos. 
  • Deepfake de redes sociais: cria perfis falsos para aplicar golpes como phishing, destacando a necessidade de defesas cibernéticas robustas. 
  • Deepfake de voz: produz áudios falsos para enganar sistemas de biometria vocal ou espalhar informações falsas. 
  • Deepfake de vídeo: utiliza IA avançada para criar vídeos realistas substituindo rostos ou corpos em cenas. 
  • Deepfake em tempo real: altera faces em transmissões ao vivo, como em noticiários, implicando em crimes como falsidade ideológica. 

Crescimento dos deepfakes no Brasil 

Deepfakes cresceram 830% em um ano no Brasil, aponta relatório. Em sua terceira edição, o relatório anual Sumsub Identity Fraud Report trouxe uma análise detalhada das fraudes digitais em 224 países e territórios, revelando um cenário preocupante para o Brasil. Enquanto o país ocupa o último lugar na taxa geral de fraude de identidade na América Latina, registrou o maior aumento regional, com um alarmante crescimento de 830% entre 2022 e 2023​​. 

A tecnologia por trás dos deepfakes 

Criados através de redes neurais que analisam e replicam padrões faciais e vocais. Quanto mais dados forem fornecidos, mais realista será o resultado. Segundo a professora da USP, Giselle Beiguelman, “Quando as imagens estão nesse sistema de programação de redes neurais, um núcleo tenta enganar o outro. […] A imagem é então reformulada até chegar a um ponto em que o sistema aceita aquela imagem como real”. 

Desafios e impactos 

Essa técnica de manipulação de conteúdo, que utiliza inteligência artificial para criar vídeos e imagens falsas, representa um dos principais desafios na segurança digital. Giselle admite que há falhas, mas quanto mais o sistema erra, mais aprende a reformular essas falhas. Em todo o continente, quase metade de todos os casos de deepfake detectados na América Latina ocorreram no Brasil. Os setores mais afetados incluem fintechs, criptomoedas e iGaming, evidenciando a vulnerabilidade dessas áreas à manipulação digital. 

Fraudes e manipulações digitais 

Dentre as principais fraudes detectadas, os deepfakes lideram, seguidos pela lavagem de dinheiro e a falsificação de carteiras de identidade, que constituem a maioria das atividades fraudulentas documentadas. Esses métodos são cada vez mais sofisticados, utilizando avanços em inteligência artificial para driblar medidas de segurança tradicionais. Vídeos deepfake entretêm e divertem, mas se usados com má intenção em contextos como guerra ou na política, representam um perigo. As imitações estão cada vez mais fiéis à realidade, e qualquer coisa dita por figuras públicas – os alvos mais comuns – pode ter consequências graves. 

Legislação 

Em fevereiro de 2024, o Tribunal Superior Eleitoral (TSE) aprovou 12 propostas de resolução que serão aplicadas nas eleições municipais deste ano, incluindo regras para o uso da Inteligência Artificial (IA) e a proibição do uso de deepfakes nas campanhas. Embora o Brasil tenha leis contra difamação e danos morais, e o Marco Civil da Internet traga determinações para a exclusão de conteúdo das redes sociais, não há uma legislação específica para deepfakes. Crimes cometidos utilizando essa tecnologia podem ser enquadrados em legislações existentes, que criminaliza a publicação não autorizada de imagens íntimas. 

A Lei de Direitos Autorais (Lei 9.610/98) e a Lei de Proteção de Dados Pessoais (Lei 13.709/18) também podem ser aplicadas em casos de deepfakes prejudiciais. No entanto, a ausência de um tipo penal específico, demonstra a necessidade urgente de regulamentações claras que protejam os direitos individuais e a integridade da informação. Especialistas enfatizam a importância de aprimorar as regulamentações para combater fraudes digitais, especialmente nos setores mais vulneráveis, como a mídia online e serviços digitais. 

Guilherme Terrengui, da Sumsub, destaca a necessidade urgente de regulamentações aprimoradas para combater esse tipo de fraude, especialmente nos setores mais visados como mídia online e serviços digitais. Com o aumento exponencial dos deepfakes, a segurança digital deve ser uma prioridade, incluindo medidas preventivas robustas e colaboração internacional para mitigar os riscos crescentes associados à manipulação de conteúdo digital. 

Detecção e soluções tecnológicas 

Novas tecnologias estão sendo desenvolvidas para detectar e mitigar os efeitos prejudiciais das manipulações digitais avançadas. Isso inclui o uso de algoritmos sofisticados de reconhecimento de padrões e técnicas baseadas em blockchain para garantir a autenticidade de conteúdos digitais. Exemplos dessas tecnologias incluem: 

  • Algoritmos de detecção baseados em IA: ferramentas avançadas de inteligência artificial são utilizadas para analisar vídeos e identificar sinais de manipulação, como inconsistências em movimentos faciais ou desajustes na iluminação. 
  • Blockchain para verificação de autenticidade: plataformas que utilizam blockchain registram a origem e as alterações de uma imagem ou vídeo, garantindo sua autenticidade e integridade. 
  • Análise forense de mídia: softwares de análise forense realizam exames detalhados de imagens e vídeos para detectar manipulações, examinando metadados, padrões de compressão e outras características. 
  • Verificação de identidade em tempo real: tecnologias de verificação de identidade ao vivo, integradas com ferramentas como o Amazon Rekognition, comparam imagens de vídeo em tempo real com dados biométricos armazenados para garantir que a pessoa apresentada seja real e não uma falsificação. 

Riscos e desafios éticos 

A criação e disseminação de deepfakes levantam questões éticas complexas, como violação da privacidade, difamação e desinformação. Vídeos falsos podem causar danos irreparáveis à reputação e resultar em fraudes financeiras. Empresas e indivíduos são frequentemente vítimas dessas manipulações, que podem criar conteúdo difamatórios ou comprometedores, prejudicando suas imagens e credibilidade. 

Estratégias para combater conteúdos manipulados 

Enfrentar os perigos dos deepfakes exige um esforço abrangente e colaborativo. Governos, empresas de tecnologia, sociedade civil e indivíduos devem unir forças para combater essa ameaça à segurança, à reputação e à democracia. Medidas essenciais incluem: 

Fortalecimento da detecção: investir em pesquisas e tecnologias para identificar e remover conteúdos enganosos com mais precisão e eficiência. 

Promoção da educação: educar o público sobre os perigos da desinformação, ensinando-o a discernir o real do falso e a ser crítico com as informações online. 

Fortalecimento da segurança cibernética: implementar medidas de segurança robustas em plataformas online e dispositivos para prevenir a criação e disseminação de conteúdos falsos. 

Estabelecimento de regulamentações: criar leis e políticas que regulem a criação e o uso desses conteúdos, protegendo os direitos individuais e a integridade da informação. 

Colaboração global: incentivar a cooperação internacional para compartilhar conhecimentos, desenvolver estratégias conjuntas e combater a desinformação em escala global. 

Lembre-se, a responsabilidade é de todos. Seja crítico com o que vê e ouve online, verifique os fatos e denuncie conteúdos falsos para as plataformas e autoridades competentes. Na dataRain, estamos comprometidos em promover a conscientização e desenvolver soluções tecnológicas para gerenciar esses riscos emergentes na era digital. 

This site uses cookies to offer you a better browsing experience. By browsing this website, you agree to our use of cookies.