MPF é acionado contra ferramenta de IA do X por deepfakes sexuais: o que esse caso muda no Direito Digital brasileiro
- Karoline Hoffmann

- há 2 dias
- 3 min de leitura

A recente representação protocolada no Ministério Público Federal contra o Grok, ferramenta de inteligência artificial integrada à plataforma X (antigo Twitter), marca um dos episódios mais relevantes do Direito Digital brasileiro nos últimos anos.
O caso envolve a criação e disseminação de deepfakes sexuais a partir de fotos reais de pessoas, incluindo crianças e adolescentes, sem qualquer mecanismo eficaz de controle, consentimento ou verificação de finalidade. A gravidade dos fatos ultrapassa o campo da inovação tecnológica e coloca em evidência a responsabilidade jurídica de plataformas e desenvolvedores de IA no Brasil.
O que é o Grok e por que ele entrou no radar do MPF
O Grok é um chatbot de inteligência artificial que permite gerar textos, responder comandos e editar imagens diretamente dentro da rede social X. Segundo a representação, a ferramenta vinha sendo utilizada para transformar fotos reais publicadas na plataforma em imagens íntimas falsas sem filtros de idade, sem mecanismos de consentimento e sem bloqueios eficazes.
Mesmo após denúncias, a funcionalidade permaneceu ativa, o que ampliou a circulação desse tipo de conteúdo e potencializou os danos às vítimas.
A criação de deepfakes íntimos e o direito à imagem
No Brasil, o direito à imagem é protegido constitucionalmente e classificado como direito da personalidade. Ele não se perde, não se transfere e não é automaticamente autorizado por termos de uso de plataformas.
Modificar uma fotografia para gerar conteúdo sexualizado, ainda que a imagem original tenha sido publicada voluntariamente, configura uso indevido e gera direito à reparação por danos morais além de poder caracterizar ilícitos penais, dependendo do caso.
LGPD, dados sensíveis e falhas de governança de IA
A Lei Geral de Proteção de Dados também é diretamente aplicável à situação. A imagem de uma pessoa é dado pessoal. Quando a imagem é usada para gerar conteúdo íntimo, trata-se de dado sensível.
A ausência de filtros eficazes, a inexistência de mecanismos de verificação e a continuidade do funcionamento da ferramenta mesmo após denúncias podem caracterizar falhas graves de segurança e governança, sujeitando plataformas a sanções administrativas pela ANPD.
Quando envolve crianças e adolescentes, o cenário é ainda mais grave
O uso de IA para criar deepfakes sexuais envolvendo menores é considerado uma das mais graves violações no ambiente digital. Além de responsabilização civil, o fato pode configurar crimes previstos no Estatuto da Criança e do Adolescente, com atuação prioritária do Ministério Público e possibilidade de bloqueio de ferramentas e imposição de multas elevadas.
Não por acaso, a representação solicita a suspensão da ferramenta em território brasileiro até que mecanismos de proteção adequados sejam implementados.
O que este caso muda para o mercado de tecnologia
A atuação do MPF sinaliza um novo patamar de responsabilização no Brasil:
IA passa a ser analisada não só sob o viés da inovação, mas da governança e do risco jurídico
Plataformas não podem alegar neutralidade tecnológica
Falhas de controle passam a ser consideradas omissões relevantes
Desenvolvedores e empresas precisarão rever filtros, políticas e compliance
Conclusão
O caso Grok/X representa um divisor de águas no Direito Digital brasileiro. Ele deixa claro que o uso de inteligência artificial sem controles eficazes não é apenas uma falha técnica é uma violação jurídica com consequências reais.
A mensagem é direta: inovação sem governança não é inovação, é risco.
Conteúdo educativo. Não substitui orientação jurídica individual.
Sua empresa usa IA ou dados de imagem? É hora de revisar seus riscos jurídicos.



Comentários