Depuis le début de l’année 2026, une dérive préoccupante prend de l’ampleur sur le réseau social X. En cause, l’outil d’intelligence artificielle Grok, intégré à la plateforme et présenté comme un assistant conversationnel. Certains utilisateurs exploitent ses capacités pour détourner des images de femmes disponibles en ligne et les transformer en contenus à caractère sexuel, notamment à travers des montages numériques les montrant partiellement ou totalement dénudées. Ces manipulations sont réalisées sans que les personnes concernées n’aient donné leur consentement.
Les images produites relèvent de ce que l’on appelle des deepfakes, des contenus générés ou modifiés par des algorithmes afin de reproduire de manière réaliste l’apparence d’une personne. Dans de nombreux cas, les femmes ciblées découvrent l’existence de ces images après leur diffusion, sans avoir été informées ni sollicitées au préalable.
Des témoignages qui se multiplient sur la plateforme
Au fil des semaines, les signalements se sont accumulés. De plus en plus de victimes et de témoins ont pris la parole pour décrire l’ampleur du phénomène. Plusieurs femmes racontent avoir vu des photos personnelles, publiées à l’origine dans un contexte non sexuel, être détournées puis partagées sous une forme explicite.
Pour les personnes concernées, ces pratiques s’apparentent à du harcèlement sexuel en ligne. Certaines expliquent faire face pour la première fois à ce type de violence numérique, avec des conséquences notables sur leur vie personnelle et sociale. La diffusion rapide de ces contenus, favorisée par les mécanismes de viralité propres aux réseaux sociaux, complique leur retrait et accentue le sentiment de perte de contrôle.
Une condamnation politique en France
Face à la recrudescence des cas signalés, plusieurs responsables politiques français ont réagi publiquement. Des élus ont dénoncé l’utilisation de l’intelligence artificielle comme un nouvel outil facilitant les atteintes à la dignité et à l’intégrité des femmes sur internet.
Des parlementaires ont également exprimé leur soutien aux victimes identifiées, tout en appelant à une réponse institutionnelle. Ces prises de position s’inscrivent dans un contexte plus large de travaux parlementaires déjà engagés autour de la régulation des usages de l’intelligence artificielle et des plateformes numériques.
Un cadre juridique déjà existant
Sur le plan du droit, la législation française prévoit des dispositions spécifiques pour ce type de situations. Le Code pénal réprime la création et la diffusion de montages à caractère sexuel utilisant l’image ou la voix d’une personne sans son accord. Ces faits sont passibles de peines d’emprisonnement et d’amendes importantes.
Les textes en vigueur précisent que les contenus visuels ou sonores générés par des procédés algorithmiques sont concernés dès lors qu’ils reproduisent l’apparence ou la voix d’une personne réelle sans consentement. Lorsque la diffusion a lieu via un service de communication au public en ligne, les sanctions encourues sont renforcées.
Des juristes spécialisés en droit public et en droit pénal rappellent que ces dispositions s’appliquent pleinement aux deepfakes à caractère sexuel, y compris lorsqu’ils sont produits à l’aide d’outils d’intelligence artificielle accessibles au grand public.
Vers un encadrement renforcé des outils d’IA
Au-delà de l’application du droit existant, certains responsables politiques estiment nécessaire d’aller plus loin. Des pistes sont évoquées pour encadrer plus strictement certaines fonctionnalités des outils d’intelligence artificielle, en particulier celles permettant de modifier l’image de personnes réelles à des fins sexuelles.
Un rapport parlementaire consacré aux enjeux numériques et à la régulation des plateformes doit être remis aux autorités gouvernementales en janvier 2026. Il formule plusieurs recommandations portant sur la responsabilité des opérateurs de plateformes et sur les moyens de prévenir les abus liés aux technologies génératives.
Des conseils partagés en attendant des évolutions
Dans l’attente d’éventuelles mesures supplémentaires, des internautes et des créateurs de contenu diffusent des informations pratiques à destination des utilisateurs de X. Ils rappellent notamment que les victimes peuvent déposer plainte auprès des autorités compétentes, en s’appuyant sur les infractions prévues par le Code pénal.
D’autres messages encouragent les utilisateurs à renforcer leurs paramètres de confidentialité afin de limiter l’exploitation de leurs contenus par des outils d’intelligence artificielle intégrés à la plateforme. Ces réglages permettent notamment de restreindre l’accès de services automatisés aux images publiées en ligne.
