La Commission européenne a décidé d'ouvrir une enquête sur Grok, l'outil d'IA intégré au réseau social X d'Elon Musk, après un scandale impliquant la génération d'images dénudant des utilisateurs sans leur consentement. Ce phénomène a suscité une onde de choc à l’échelle mondiale en janvier dernier. En utilisant la simple commande « Grok, mets-la en bikini », des milliers d'internautes ont créé des contenus inappropriés involontairement,
notamment des images de femmes, d’adolescentes et d’enfants.
Face à l'ampleur du problème, Bruxelles a jugé que X n'avait pas respecté les obligations imposées par le Règlement sur les services numériques (DSA), notamment en ce qui concerne l'évaluation des risques liés à l'IA. Cette enquête, qui pourrait s'étendre sur plusieurs mois, est une réponse nécessaire à une situation de harcèlement et de violence envers des groupes vulnérables.
Selon des sources citées par Le Figaro, les discussions préliminaires se sont tenues avec les responsables de X, les incitant à prendre rapidement des mesures contre l’épidémie d’images sexualisées.
Au Royaume-Uni, cette affaire a été considérée comme une forme de pédopornographie, surtout avec le développement d'images inappropriées de mineurs. En conséquence, le régulateur britannique a également lancé une enquête le 12 janvier.
Après plusieurs échanges, la Commission a réussi à obtenir le blocage, le 15 septembre 2025, de l'édition d'images dénudant des personnes. Ce blocage a d’abord touché les utilisateurs gratuits avant d’être élargi aux abonnés X Premium.
Heureusement, les actions de la plateforme pour limiter la génération d’images problématiques ont permis d'éviter des sanctions plus sévères de la part de Bruxelles. Des médias comme Handelsblatt rapportent que des mesures conservatoires avaient été envisagées, comme la suspension de Grok, mais cette option a finalement été écartée.
Plus d’informations à suivre...







