Grok, 370 000 conversations privées mises en ligne par erreur

Dans l’univers numérique, aucune donnée partagée n’est jamais totalement à l’abri. Et lorsqu’il s’agit d’intelligence artificielle, où les échanges sont nombreux et parfois très sensibles, la vigilance devrait être une priorité absolue.

Copie d'écran, Chatbot Grok sur X
Chatbot Grok sur X
L’IA d’Elon Musk au cœur d’une fuite massive de données

Grok, l’intelligence artificielle conçue par la société xAI d’Elon Musk, se retrouve au cœur d’une polémique après la diffusion accidentelle de centaines de milliers de conversations privées. Ce n’est pas le résultat d’un piratage, mais bien d’un problème lié à la manière dont la plateforme gère certaines de ses fonctions.

En effet, le chatbot intégré à X (anciennement Twitter) dispose d’un outil qui permet aux utilisateurs de partager une discussion grâce à un lien direct. Or, une fois ce lien généré, il devient accessible comme n’importe quelle page web et peut être indexé par des moteurs de recherche tels que Google. Ainsi, de nombreux échanges qui devaient rester confidentiels se sont retrouvés visibles publiquement, sans que les utilisateurs en aient conscience.

De la drogue aux menaces, ce que révèlent les conversations exposées par Grok

Selon Forbes, cette faille a provoqué la mise en ligne de près de 370 000 conversations. Si une partie de ces échanges ne présente rien de compromettant, d’autres sont nettement plus sensibles. On y retrouve par exemple des discussions sur la fabrication de drogues comme le fentanyl, des projets d’attentats et même des menaces visant Elon Musk lui-même. D’autres utilisateurs ont utilisé Grok pour obtenir des conseils de piratage informatique et encore pour partager des fichiers contenant des données personnelles et des mots de passe.

Ce dérapage met en lumière une double problématique. D’une part, la question de la sécurité des données. Des milliers d’utilisateurs ont vu des échanges qu’ils croyaient privés devenir publics en quelques clics, sans véritable alerte.

D’autre part, le rôle de Grok lui-même. Bien que le règlement de xAI interdise explicitement tout contenu illégal, violent ou dangereux, l’IA a tout de même produit et diffusé certains de ces contenus, ce qui montre les limites de son système de filtrage.

Cette affaire soulève donc des inquiétudes sur la fiabilité de l’intelligence artificielle et sur la responsabilité des entreprises qui la développent. Même si la fuite résulte d’une mauvaise conception technique plutôt que d’un piratage ciblé, les conséquences restent lourdes, car elles exposent à la fois des données personnelles et des conversations potentiellement criminelles.

Pour Elon Musk et xAI, l’incident tombe au plus mauvais moment. Grok devait être un argument de poids pour renforcer l’écosystème X et concurrencer des modèles comme ChatGPT et Claude. Mais cette faille de confidentialité risque d’éroder la confiance des utilisateurs, déjà méfiants à l’égard des grandes plateformes technologiques et de leur gestion des données privées.