O governo brasileiro determinou que a plataforma X adote medidas imediatas para impedir que o Grok, sua ferramenta de inteligência artificial, produza imagens sexualizadas de crianças, adolescentes e adultos sem consentimento. A ordem partiu de órgãos como ANPD, MPF e Senacon, que consideraram insuficientes e pouco transparentes as ações informadas pela empresa até agora. As autoridades cobram relatórios técnicos, mecanismos de monitoramento e filtros robustos capazes de bloquear, de forma preventiva, esse tipo de conteúdo. O não cumprimento pode gerar multas diárias, processos administrativos e responsabilização judicial.
Esse movimento se insere em um cenário internacional de crescente preocupação com o uso de IA para produzir conteúdos abusivos e deepfakes. Em poucos anos, a capacidade de criar imagens e vídeos hiper-realistas explodiu, ampliando casos de pornografia de vingança, extorsão e violência política de gênero. A mesma tecnologia que permite gerar fotos sexualizadas também está por trás de montagens sofisticadas com vozes e rostos de figuras públicas, o que torna o problema ainda mais grave em ano eleitoral.
Ano eleitoral sob ameaça dos deepfakes
No Brasil, as deepfakes já são vistas como uma ameaça direta à integridade do processo democrático. Em contexto eleitoral, elas podem simular pronunciamentos de candidatos, criar vídeos falsos de escândalos e distorcer fatos em segundos, com grande potencial de viralização antes que qualquer checagem ocorra. Além da mentira em si, especialistas alertam para o “efeito corrosivo” da dúvida: mesmo conteúdos autênticos passam a ser questionados como possíveis montagens, enfraquecendo a confiança em instituições, na imprensa e na Justiça Eleitoral.
Diante desse risco, o Tribunal Superior Eleitoral aprovou regras específicas para o uso de inteligência artificial nas eleições. As normas proíbem o uso de deepfakes em propaganda eleitoral, exigem rotulagem quando um conteúdo é gerado ou alterado por IA e ampliam a responsabilidade das plataformas na remoção rápida de materiais ilícitos. Há também previsão de sanções severas a candidatos e partidos que recorrerem a esses artifícios, inclusive com possibilidade de cassação.
O caso Grok, portanto, simboliza um ponto de inflexão: o Estado brasileiro sinaliza que empresas de tecnologia não podem mais alegar neutralidade diante de violações tão graves de direitos fundamentais e riscos à democracia. Ao relacionar a proteção contra imagens sexualizadas à segurança do ambiente informacional em ano eleitoral, o país tenta estabelecer um marco de responsabilização da IA, que combine defesa da dignidade individual com preservação da confiança nas urnas e no debate público.