Desinformação, fraudes e crimes contra a hora são alguns perigos do deepfake, uma técnica de inteligência artificial usada para forjar mídias
Deepfake é uma técnica de inteligência artificial que permite criar conteúdos falsos, manipulando fotos, vídeos e áudios usando a tecnologia de redes neurais generativas.
Como suas criações são voltadas para distorcer a realidade, os deepfakes podem causar grandes impactos negativos à sociedade, incluindo a disseminação de informações falsas, violação de dados pessoais e crimes contra a honra alheia.
A melhor forma de se proteger contra deepfakes é reforçar a proteção dos dados sensíveis na internet, especialmente nas redes sociais. Reduzir a exposição de informações privadas dificulta o trabalho de cibercriminosos.
A seguir, saiba o que é e como funciona um deepfake, entenda os riscos envolvidos de seu uso, e veja como se prevenir de falsificações profundas.
Deepfake é o termo que vem da junção das palavras “deep learning” (“aprendizado profundo”) e “fake” (“falsificação”). Ele se refere a uma técnica que usa inteligência artificial para manipular informações ao criar fotos, vídeos e áudios falsos.
Para criar um deepfake, um aplicativo coleta dados (imagens, vídeos e áudios) de uma determinada pessoa ou objeto e, por meio de algoritmos de deep learning, inspirados no cérebro humano, treina redes neurais artificiais, fazendo com que elas mapeiem movimentos, expressões e até timbres de voz do indivíduo.
Após os treinamentos, as redes neurais tornam-se capazes de sobrepor o rosto de uma pessoa em outras imagens ou vídeos, por exemplo. Ou mesmo replicar a voz do indivíduo-modelo para criar uma fala totalmente nova a partir de um texto escrito.
Os resultados podem até parecer reais, mas foram forjados e manipulados por aplicações de inteligência artificial.
Criar deepfakes já foi uma tarefa complexa e mais restrita. Mas com o avanço da IA generativa e a popularização desse tipo de aplicação, qualquer pessoa pode fazer deepfake online por meio de softwares ou serviços como DeepFaceLab ou Faceswap.
Treinamentos com dados, técnicas avançadas de deep learning (aprendizado profundo) e redes neurais são os principais responsáveis pelos resultados realistas de deepfakes.
Por meio da tecnologia de aprendizado profundo, as redes neurais são treinadas com grandes bases de dados para identificar padrões de expressões faciais, movimentos e tons de voz humanos. O resultado tende a melhorar quando há mais dados sobre um indivíduo.
Outro fator importante para as criações realistas envolve o uso de Redes Neurais Generativas Adversárias (GANs). Esse tipo de rede neural artificial usa processos de geração e discriminação, otimizando os resultados continuamente até que o agente discriminador não consiga detectar se o produto criado é falso ou real.
O deepfake é uma técnica que usa inteligência artificial generativa para manipular informações existentes ao criar fotos, vídeos e áudios falsos. Embora deepfakes usem redes neurais em seu mecanismo, eles geralmente se baseiam nas Redes Generativas Adversariais (GANs).
Já o conceito de IA generativa é mais amplo: trata-se de um segmento da inteligência artificial, baseado em algoritmos de deep learning e redes neurais, com capacidade para gerar novos conteúdos (textos, áudios, vídeos, poemas, imagens e até linhas de códigos) a partir de dados de treinamento.
Em resumo: o deepfake é uma das aplicações de IA generativa, mas não representa o seu todo.
Deepfakes podem ser vistos em aplicações positivas e negativas, em áreas como educação, política e entretenimento. Alguns dos principais exemplos de deepfakes englobam:
Identificar deepfakes pode ser complicado devido aos avanços nos algoritmos, que geram criações cada vez mais realistas. No entanto, algumas características podem indicar que um conteúdo é um deepfake:
O uso ilegal de deepfakes pode infringir diversos pontos previstos na legislação brasileira, além de prejudicar a reputação e imagem alheia. Alguns dos principais riscos que envolvem o uso indevido de deepfakes abrangem:
Reforçar a proteção de dados pessoais é uma das principais ações para evitar ser uma vítima de deepfake. Revise as configurações de privacidade de suas redes sociais para evitar que suas fotos e vídeos de alta qualidade sejam acessadas por qualquer pessoa.
Você também deve priorizar veículos de comunicação e canais oficiais de empresas e governos para buscar informações. Essa prática pode confirmar a veracidade de determinado vídeo, áudio ou foto e, por consequência, tende a diminuir a propagação de fake news pelas redes sociais.
Não, uma vez que a prática de deepfake ainda não é tipificada no Código Penal brasileiro. Contudo, o uso ilegal de falsificações profundas pode infringir alguns pontos da legislação, incluindo a Lei Geral de Proteção de Dados Pessoais (LGPD), o que pode render punições no âmbito jurídico.
O uso de deepfakes sem consentimento viola a privacidade e proteção de dados pessoais, como previsto na LGPD. Além disso, artigos jurídicos apontam que deepfakes podem se enquadrar em casos de crimes contra imagem (como difamação e calúnia) ou fraudes de identidade.
Vale destacar que há Projetos de Lei em andamento para regulamentar os deepfakes no Brasil. O PL nº 1272/23 busca criminalizar os deepfakes, enquanto o PL nº 5.695/23 prevê a inclusão de deepfakes na Lei Maria da Penha.
Já os Projetos de Lei nº 145/24 e nº 146/24 visam regulamentar o uso de ferramentas de inteligência artificial para fins publicitários, e aumentar a pena de crimes contra honra e de falsa identidade envolvendo deepfakes, respectivamente.
Não. Em fevereiro de 2024, o Tribunal Superior Eleitoral (TSE) proibiu deepfakes durante as campanhas ao atualizar a Resolução nº 23.610/2019. As novas determinações também exigem avisos sobre o uso de inteligência artificial em propagandas eleitorais.
Candidatos(as) que usarem deepfake poderão ter o registro ou mandato cassados. Já autores de publicações com vídeos, fotos ou áudios forjados por IA durante campanhas políticas podem ser multados.
Primeiro, deve-se salvar o deepfake e reunir o máximo de informações possíveis (como autor do post, data e horário) para usá-las como prova. Feito isso, reporte o incidente à rede social responsável pela disseminação do material para a retirada imediata do conteúdo.
Vale também procurar uma delegacia especializada em crimes cibernéticos no seu estado para relatar o caso, além de buscar ajuda de um(a) advogado(a) para mover uma ação judicial referente a infrações previstas na legislação brasileira.
Receba mais posts do TB
essa deepfake da Renata Vasconcelos é muito engraçado, mostra que as pessoas que se dizem de direita, bolsonarista… que eles não têm moral nenhuma no que falam e nem acredita nos “jornais” da direita ou alternativos.
Passaram anos atacando a globo, o jornal nacional e a Renata Vasconcelos e atacaram ela por ser jornalista, jornalista da globo lixo, por ser mulher, por ser inteligente e por ser bonita, no twitter então, nem se fala. Ai quando vão passar noticias, usa a globo que tanto ama e usa Renata Vasconcelos como a fonte e porta voz confiável da deepfake, é muito hilário.
Até os que odeiam, parece que ama ela kkkkkkkkk
Questão de tempo para o outro lado copiar, já que merd… na política não é suficiente ser somente de um “lado”
Muito boa a matéria
O melhor e o pior da tecnologia em 2024
Compartilhe
© Mobilon Mídia 2005 – 2025.
{{ excerpt | truncatewords: 35 }}
Veja também
você não vai sair de nosso site