Depuis la fin de l’année 2025, Grok, l’outil d’intelligence artificielle générative développé par xAI et intégré à la plateforme X, fait l’objet de critiques croissantes. En cause : sa capacité à modifier des images publiées par des utilisateurs, y compris lorsque les personnes représentées n’ont donné aucun accord.
D'après la presse française, en consultant l’onglet « Médias » du compte X associé à Grok, un constat s’impose rapidement : une grande partie des images générées met en scène des femmes sexualisées. Ces contenus ne sont pas produits de manière autonome par l’IA, mais à la suite de requêtes formulées par des internautes, majoritairement des hommes, qui demandent des altérations ciblées de photographies existantes.
La pratique repose souvent sur une instruction consistant à « mettre un bikini » ou à modifier la tenue d’une personne figurant sur une image. Or, ce type de demande n’est pas considéré comme problématique par le système, ce qui permet à Grok de produire des versions sexualisées de clichés sans se heurter à des garde-fous techniques. Il est à noter que cette faille concernerait également des photos de personnes mineures.
Contrairement à ce que laissent entendre certaines affirmations en ligne, il n’existe actuellement aucun moyen efficace d’empêcher Grok de manipuler des images déjà publiées, toujours selon les médias français. Les paramètres de confidentialité proposés par X permettraient uniquement de refuser l’utilisation de ses contenus pour l’entraînement de l’IA, sans bloquer leur modification à la demande de tiers.
Grok reconnaît lui-même l’existence de législations, notamment aux États-Unis, interdisant la création ou la diffusion de deepfakes. Ainsi, X prévoit des mesures de modération : lorsqu’un utilisateur signale une image manipulée le concernant, celle-ci peut être rendue invisible dans certains pays pour se conformer aux lois locales. Néanmoins, le contenu reste accessible ailleurs, révélant les limites actuelles de cette mesure.