top of page

MPF é acionado contra ferramenta de IA do X por deepfakes sexuais: o que esse caso muda no Direito Digital brasileiro

  • Foto do escritor: Karoline Hoffmann
    Karoline Hoffmann
  • há 2 dias
  • 3 min de leitura

A recente representação protocolada no Ministério Público Federal contra o Grok, ferramenta de inteligência artificial integrada à plataforma X (antigo Twitter), marca um dos episódios mais relevantes do Direito Digital brasileiro nos últimos anos.


O caso envolve a criação e disseminação de deepfakes sexuais a partir de fotos reais de pessoas, incluindo crianças e adolescentes, sem qualquer mecanismo eficaz de controle, consentimento ou verificação de finalidade. A gravidade dos fatos ultrapassa o campo da inovação tecnológica e coloca em evidência a responsabilidade jurídica de plataformas e desenvolvedores de IA no Brasil.


O que é o Grok e por que ele entrou no radar do MPF

O Grok é um chatbot de inteligência artificial que permite gerar textos, responder comandos e editar imagens diretamente dentro da rede social X. Segundo a representação, a ferramenta vinha sendo utilizada para transformar fotos reais publicadas na plataforma em imagens íntimas falsas sem filtros de idade, sem mecanismos de consentimento e sem bloqueios eficazes.

Mesmo após denúncias, a funcionalidade permaneceu ativa, o que ampliou a circulação desse tipo de conteúdo e potencializou os danos às vítimas.


A criação de deepfakes íntimos e o direito à imagem

No Brasil, o direito à imagem é protegido constitucionalmente e classificado como direito da personalidade. Ele não se perde, não se transfere e não é automaticamente autorizado por termos de uso de plataformas.

Modificar uma fotografia para gerar conteúdo sexualizado, ainda que a imagem original tenha sido publicada voluntariamente, configura uso indevido e gera direito à reparação por danos morais além de poder caracterizar ilícitos penais, dependendo do caso.


LGPD, dados sensíveis e falhas de governança de IA

A Lei Geral de Proteção de Dados também é diretamente aplicável à situação. A imagem de uma pessoa é dado pessoal. Quando a imagem é usada para gerar conteúdo íntimo, trata-se de dado sensível.

A ausência de filtros eficazes, a inexistência de mecanismos de verificação e a continuidade do funcionamento da ferramenta mesmo após denúncias podem caracterizar falhas graves de segurança e governança, sujeitando plataformas a sanções administrativas pela ANPD.


Quando envolve crianças e adolescentes, o cenário é ainda mais grave

O uso de IA para criar deepfakes sexuais envolvendo menores é considerado uma das mais graves violações no ambiente digital. Além de responsabilização civil, o fato pode configurar crimes previstos no Estatuto da Criança e do Adolescente, com atuação prioritária do Ministério Público e possibilidade de bloqueio de ferramentas e imposição de multas elevadas.

Não por acaso, a representação solicita a suspensão da ferramenta em território brasileiro até que mecanismos de proteção adequados sejam implementados.


O que este caso muda para o mercado de tecnologia

A atuação do MPF sinaliza um novo patamar de responsabilização no Brasil:

  • IA passa a ser analisada não só sob o viés da inovação, mas da governança e do risco jurídico

  • Plataformas não podem alegar neutralidade tecnológica

  • Falhas de controle passam a ser consideradas omissões relevantes

  • Desenvolvedores e empresas precisarão rever filtros, políticas e compliance


Conclusão

O caso Grok/X representa um divisor de águas no Direito Digital brasileiro. Ele deixa claro que o uso de inteligência artificial sem controles eficazes não é apenas uma falha técnica é uma violação jurídica com consequências reais.

A mensagem é direta: inovação sem governança não é inovação, é risco.


Conteúdo educativo. Não substitui orientação jurídica individual.


Sua empresa usa IA ou dados de imagem? É hora de revisar seus riscos jurídicos.

 
 
 

Comentários


bottom of page