Durante décadas, o sistema de justiça e a sociedade civil operaram sob um mantra tácito: “ver para crer”. Uma gravação de áudio, um vídeo capturado por equipamentos de vigilância ou uma declaração registrada pelo celular eram considerados pilares da prova material, evidências quase irrefutáveis de um fato. No entanto, essa premissa desmoronou com o avanço das inteligências artificiais de deepfake, que mimetizam rostos e trejeitos humanos com precisão cada vez maior. Em 2026, mais acessível e com a capacidade de forjar vídeos em tempo real, a tecnologia deve se tornar ainda mais perigosa.
O nível de sofisticação da IA está em um patamar inédito. Agora, é possível criar deepfakes ao vivo, emulando os trejeitos e a voz de autoridades e cidadãos comuns. A atualização, aliás, é facilmente acessível. Para os operadores do Direito, isso é um desafio não apenas tecnológico, mas à própria essência da democracia. Se a prova digital pode ser fabricada com perfeição, como será possível garantir a Justiça? A mentira se tornou quase indistinguível.
O termo “deepfake” resulta da união de deep learning (aprendizado profundo de máquina) e fake (falso). No estágio atual, não falamos mais de vídeos toscos, nos quais a boca não sincroniza com a fala ou a imagem apresenta imperfeições evidentes. Nesta era da interatividade sintética, criminosos podem realizar videochamadas passando-se por promotores, juízes ou delegados, com vozes processadas e rostos renderizados instantaneamente, para aplicar golpes ou até mesmo plantar informações falsas em processos.
O grande perigo para o ecossistema jurídico reside na “dúvida razoável”. Se um advogado de defesa ou um promotor de Justiça não puder provar, de forma cabal, que um vídeo é autêntico, a semente da incerteza pode anular provas legítimas. É o que chamamos de “dividendo do mentiroso”: o simples fato de existirem deepfakes permite que criminosos reais aleguem que provas verdadeiras contra eles são, na verdade, manipulações digitais.
A solução técnica reside na “identidade genética” do arquivo. Para combater a manipulação, o Direito precisa se aliar à matemática. A solução não está apenas em olhar atentamente para o vídeo, mas em verificar seu DNA digital por meio de três pilares:
Hashing e cadeia de custódia digital: cada arquivo digital possui uma assinatura única, chamada hash. Se um único pixel for alterado, o hash muda completamente. Os operadores do Direito devem reforçar protocolos que garantam o registro dessa “impressão digital” no exato momento da apreensão da prova.
Padrões de autenticidade (C2PA): observa-se a adoção global de selos de procedência digital. Assim como uma nota de dinheiro possui marcas d’água, arquivos modernos carregam metadados criptografados que registram onde, quando e por qual dispositivo foram criados, além de indicar se passaram por algum software de edição.
Blockchain para fé pública: trata-se do uso de redes descentralizadas para registrar a existência de uma prova em determinado momento (timestamping). Uma vez inserido no sistema, o registro torna-se imutável, impedindo que qualquer agente, interno ou externo, altere a evidência sem deixar rastros.
É necessário considerar também o fator humano: cibersegurança com afeto e consciência. Embora a tecnologia forneça as ferramentas, a batalha é vencida pela cultura. A segurança cibernética dentro do sistema de Justiça não pode ser vista como um conjunto de restrições enfadonhas de tecnologia da informação, mas como um ato de zelo institucional.
Proteger o acesso a um sistema de processos não é apenas cumprir uma norma; é garantir que a história de uma vítima ou a liberdade de um inocente não sejam violadas por uma invasão de credenciais. A “cultura do cuidado” requer compreender que por trás de cada tela ou senha existe uma responsabilidade social. O treinamento de membros e servidores deve evoluir do tecnicismo para a conscientização: saber identificar um deepfake em uma chamada de vídeo ou desconfiar de um áudio urgente se tornou uma habilidade jurídica essencial.
O desafio dos deepfakes nos obriga a retornar às bases do Direito: confiança e verificação. O Ministério Público, como guardião da lei, deve liderar a vanguarda tecnológica, adotando ferramentas de IA defensivas. Alguns exemplos são mecanismos que detectam anomalias invisíveis ao olho humano, como a ausência de micropulsações sanguíneas na pele de um rosto gerado por computador ou padrões artificiais de frequência em áudios sintéticos.
A tecnologia muda, mas o compromisso com a verdade permanece. Nesses novos tempos, a integridade da prova digital é a trincheira em que se defende a própria Justiça. Ao unirmos ferramentas de ponta a uma visão humanizada da segurança, garantimos que a “vontade da máquina” jamais se sobreponha à verdade dos fatos.
Nota ao leitor: a segurança da informação é uma construção coletiva. Conhecer e não minimizar a gravidade dos riscos são os dois primeiros passos para neutralizá-los.
Allan Julianelli é gerente de TI da Associação do Ministério Público do Estado do Rio de Janeiro desde 1998 e policial civil do Estado do Rio de Janeiro desde 2002. Contato: allan.julianelli@amperj.org