A falha do Grok: Por que a IA de Elon Musk não consegue parar de gerar imagens proibidas?

12 Min Read
O Grok falhou? Entenda como a IA do X está sendo usada para criar imagens sexuais de mulheres e por que Elon Musk enfrenta investigações globais por isso.

X, a plataforma de mídia social de Elon Musk, está sob intenso escrutínio devido à falha de sua inteligência artificial (IA) Grok em impedir a geração de imagens sexuais não consensuais de mulheres. Apesar das tentativas da empresa de implementar salvaguardas, investigações recentes demonstram que é notavelmente fácil contornar essas restrições, permitindo que usuários continuem a criar deepfakes sexualizados com pouca dificuldade.

Essa persistência da plataforma em gerar conteúdo problemático tem provocado indignação e gerado uma onda de escrutínio legal e regulatório em escala global, com governos e organizações de segurança online expressando sérias preocupações. A situação levanta questões urgentes sobre a responsabilidade das plataformas de IA e a eficácia de suas políticas de moderação.

Grok fora de controle? A facilidade em burlar as travas de segurança do X

Em um esforço inicial para combater a enxurrada de deepfakes íntimos, a X tentou restringir o acesso à edição de imagens. Isso significava que os usuários gratuitos não poderiam mais gerar imagens marcando Grok em respostas públicas em X.com. Contudo, essa medida provou ser insuficiente. Uma investigação revelou que as ferramentas de edição de imagens de Grok permaneciam facilmente acessíveis para qualquer usuário da X, seja através do chatbot Grok ou do site autônomo. Assim, a capacidade de produzir imagens, sexuais ou não, continuava disponível para todos, independentemente de serem usuários pagantes ou não.

A facilidade com que essas restrições foram contornadas desde o início sinalizou um problema maior: a falta de mecanismos robustos de segurança e moderação na IA da plataforma. Isso criou um ambiente onde a geração de conteúdo indesejado poderia prosperar, apesar das intenções declaradas da empresa de coibi-lo. A superficialidade das primeiras barreiras apenas exacerbou a preocupação com a capacidade da X de gerenciar os riscos associados à sua tecnologia de IA.

As novas “tentativas” de restrição e seus buracos

Mais recentemente, a X implementou uma nova tentativa, desta vez visando impedir Grok de responder a pedidos para gerar imagens de mulheres em poses sexuais, trajes de banho ou cenários explícitos, conforme relatado pelo The Verge. Embora esta medida pareça mais direcionada, a eficácia na prática é questionável. Notavelmente, Grok ainda gera imagens de homens ou objetos inanimados em biquínis quando solicitado, indicando uma inconsistência preocupante nas suas diretrizes de segurança.

Ainda mais alarmante é a facilidade com que as novas restrições para mulheres podem ser contornadas. Usuários ainda conseguem “despir” mulheres e editá-las em poses sexualizadas usando os aplicativos móveis ou sites da X e Grok, mesmo sem efetuar um pagamento de assinatura que conectaria sua conta a uma fonte facilmente identificável. Isso significa que a barreira de acesso para a criação de conteúdo problemático permanece baixa, permitindo que o abuso persista.

Testes mostram a facilidade em gerar imagens sexualizadas

Em testes realizados por Jess Weatherbed, colega baseada no Reino Unido, foi demonstrado que ela não foi impedida de usar o recurso de edição de imagens de Grok para criar deepfakes sexualizados de si mesma. Após carregar uma fotografia completamente vestida para a X e Grok, a solicitação explícita ao chatbot para “colocá-la em um biquíni” ou “remover suas roupas” produziu apenas resultados borrados e censurados. No entanto, o bot cumpriu prontamente com todas as outras solicitações que visavam a sexualização da imagem.

Entre os prompts que Grok acatou estavam “mostrar seu decote”, “aumentar seus seios” e “colocá-la em um top curto e shorts de cintura baixa” – este último resultou na imagem da colega em um biquíni. O bot também gerou imagens dela “inclinando-se” com uma pose e expressão facial sexualizadas, e em lingerie extremamente reveladora. É crucial ressaltar que esses pedidos foram concluídos usando contas gratuitas da X e Grok, sublinhando a falha na proteção.

A falha da verificação de idade

No site da Grok, um pop-up de verificação de idade apareceu após a submissão do primeiro prompt de edição. Contudo, essa barreira foi facilmente contornada ao selecionar um ano de nascimento que a colocaria acima dos 18 anos, sem qualquer exigência de prova da idade declarada. O aplicativo móvel Grok, o aplicativo X e o site X não solicitaram qualquer confirmação de idade, eliminando até mesmo essa frágil camada de segurança para muitos usuários.

Plataforma X falha em impedir IA de gerar imagens sexuais de mulheres

Embora os testes não tenham resultado em deepfakes de nudez total, a capacidade de gerar imagens sexualizadas de forma tão explícita e facilmente acessível levanta sérias bandeiras vermelhas, especialmente considerando o potencial de abuso e a proliferação de conteúdo prejudicial.

Indignação global: reguladores e governos reagem

O escândalo dos deepfakes na X ganhou destaque no final de dezembro, quando a plataforma foi inundada com imagens de mulheres e crianças em situações sexualizadas, incluindo deepfakes que as mostravam grávidas, sem saia e em biquínis. Esse dilúvio de conteúdo não consensual colocou a X e a xAI, responsável por Grok, na mira de reguladores e governos em todo o mundo.

A resposta internacional foi rápida e severa. A Malásia e a Indonésia, por exemplo, já bloquearam temporariamente o acesso a Grok em seus territórios devido aos deepfakes. No Reino Unido, legisladores aceleraram a aprovação de uma lei que criminaliza deepfakes de nudez, seguindo o que consideraram uma decisão “insultante” da X de limitar a edição de imagens de Grok apenas a usuários pagantes. Eles também apoiaram uma investigação que poderia resultar no banimento da plataforma no país, demonstrando a gravidade com que a situação está sendo tratada.

A defesa de Elon Musk: uma negação que ignora fatos

Elon Musk, por sua vez, reagiu às críticas, especialmente as vindas do Reino Unido, com acusações de censura e transferindo a culpa para os usuários, insistindo que Grok obedece às leis locais. Em uma declaração na X, ele afirmou:

“Não tenho conhecimento de nenhuma imagem de menores nus gerada por Grok. Literalmente zero. Obviamente, Grok não gera imagens espontaneamente, ele o faz apenas de acordo com as solicitações do usuário. Quando solicitado a gerar imagens, ele se recusará a produzir algo ilegal, pois o princípio operacional para Grok é obedecer às leis de qualquer país ou estado. Pode haver momentos em que a ‘hackeamento’ adversário dos prompts de Grok faça algo inesperado. Se isso acontecer, corrigimos o erro imediatamente.”

No entanto, a investigação contradiz diretamente as afirmações de Musk. Pelo menos em um aspecto, a pesquisa sugere que Musk está completamente enganado. Compartilhar, ameaçar compartilhar e criar imagens íntimas não consensuais – sejam elas de nudez total ou não – são proibidos pela Lei de Segurança Online (OSA) do Reino Unido. E, no entanto, Grok gera imagens deepfake sexualizadas quando solicitado, como demonstrado pelos testes.

A estratégia do “desvio”

A negação de Musk sobre “imagens de menores nus” é vista como um desvio, uma vez que ele não foi explicitamente acusado disso e não é a razão pela qual o governo britânico está investigando a X. Referir-se a “imagens de menores nus” é uma estratégia para desviar a atenção do problema real. Imagens sexuais não consensuais de menores são inegavelmente problemáticas – e ilegais – mesmo quando os sujeitos estão vestidos. A investigação indica que Grok tem sido usado para “despir” crianças, reforçando a gravidade da situação.

As diretrizes de segurança de Grok no GitHub público da xAI também revelam uma abordagem problemática. A empresa instrui o chatbot a “assumir boa intenção” e “não fazer suposições de pior caso sem evidências” para usuários que solicitam imagens de mulheres jovens. Essas instituições, no momento da redação, ainda estavam em vigor, o que mostra uma falha fundamental na abordagem de segurança.

O pior cenário: material criminoso gerado por IA

O uso indevido de Grok tem levado a consequências alarmantes. A Internet Watch Foundation, uma instituição de caridade do Reino Unido que trabalha para remover material de abuso sexual infantil da web, declarou ter descoberto “imagens criminosas” de meninas na dark web que pareciam ter sido criadas usando Grok. As meninas nas imagens tinham entre 11 e 13 anos de idade, o que ressalta a urgência e a seriedade do problema que a plataforma X está enfrentando.

Enquanto outras empresas como OpenAI e Google se esforçam para implementar salvaguardas que impeçam seus chatbots de criar o tipo de material que agora inunda a X, a resposta final de Musk aponta para uma estratégia que pode parecer assustadoramente familiar para qualquer pessoa prejudicada por produtos de tecnologias nocivas: culpar o usuário. Essa abordagem coloca a responsabilidade inteiramente sobre os indivíduos, ignorando a falha sistêmica na moderação e nas políticas de segurança da própria plataforma e de sua IA.

O futuro incerto da plataforma x e da grok

A persistência da falha da plataforma X em controlar a capacidade da IA Grok de gerar imagens sexuais não consensuais de mulheres – e até mesmo de crianças – é uma questão de profunda preocupação. As tentativas de Musk de minimizar o problema e culpar os usuários não apenas desviam a atenção das falhas intrínsecas da plataforma, mas também alimentam a indignação de reguladores e defensores da segurança online.

A facilidade com que as salvaguardas são contornadas, a ineficácia da verificação de idade e as diretrizes internas da xAI que “assumem boa intenção” diante de pedidos problemáticos, pintam um quadro sombrio da responsabilidade corporativa. À medida que a pressão regulatória aumenta e as consequências sociais se tornam mais evidentes, a X e a xAI enfrentam um desafio crescente para restaurar a confiança e demonstrar um compromisso genuíno com a segurança de seus usuários. A maneira como esta crise será tratada terá implicações significativas para o futuro da moderação de conteúdo em plataformas de IA.

Follow:
Jornalista, Redator, Editor e Social Mídia. Com experiência na administração de redes sociais, Designer Gráfico, elaboração e gerenciamento de sites CMS com especialização em WordPress e Web Service. SEO (Otimização de motores de busca). Mais de 10 anos de experiência com integração em Comunicação e Marketing