ChatGPT : lui demander de répéter un mot à l’infini viole ses conditions d’utilisation

ChatGPT refuse désormais de répéter un mot à l’infini, mentionnant lorsqu’on le lui demande que cela viole ses conditions d’utilisation. Une modification en urgence du chatbot, probablement due aux découvertes compromettantes de chercheurs la semaine dernière.

ChatGPT mot infini conditions d'utilisation clauses
© Envato

La semaine dernière, une équipe de chercheurs publiait un article de recherche compromettant pour OpenAI, l’entreprise derrière ChatGPT. Avec des prompts simples, les chercheurs avaient montré que le célèbre chatbot révélait des dates de naissance, de véritables e-mails ainsi que des numéros de téléphone avec.

Les chercheurs de DeepMind avaient demandé à ChatGPT 3.5 de répéter des mots spécifiques “à l’infini” (le mot “forever” était employé dans le prompt). Le bot réagissait en écrivant ce mot encore et encore jusqu’à ce qu’il atteigne une limite. Une fois ce cap dépassé, il commençait à régurgiter d’énormes quantités de ses données d’entraînement.

En utilisant cette méthode, les chercheurs ont découvert que le chatbot avait été entrainé notamment à partir d’informations personnelles. Ces données pouvaient ainsi potentiellement être renvoyées aux utilisateurs en réponse à leurs requêtes. OpenAI n’a pas réagi publiquement. En revanche, demander au chatbot de répéter un mot à l’infini est désormais une violation des conditions de service de ChatGPT.

ChatGPT refuse de répéter un mot à l’infini

C’est le site 404 Media qui en a fait la découverte, en tentant de vérifier les résultats de l’étude susmentionnée. Après nos propres vérifications, il s’avère en effet que ChatGPT refuse de répéter un mot à l’infini, en accompagnant son message d’une mention de violation des conditions d’utilisation.

Image 1 : ChatGPT : lui demander de répéter un mot à l'infini viole ses conditions d'utilisation
Capture d’écran Tom’s Guide

Il s’avère également que cette mention est valable quel que soit la langue. Nous avons essayé de défendre la langue de Molière, peu importe, le chatbot refuse de répéter “bonjour” à l’infini.

Image 2 : ChatGPT : lui demander de répéter un mot à l'infini viole ses conditions d'utilisation
Capture d’écran Tom’s Guide

Sur l’application Android, élue la meilleure de 2023 sur le Play Store, le chatbot indique tout simplement que la requête n’est pas disponible :

Image 3 : ChatGPT : lui demander de répéter un mot à l'infini viole ses conditions d'utilisation
Capture d’écran Tom’s Guide

À lire > ChatGPT va bientôt vous permettre de gagner de l’argent

Pourtant, la politique de contenu d’OpenAI n’interdit pas aux utilisateurs de demander au service de répéter des mots à l’infini. Dans ses conditions d’utilisation, OpenAI indique seulement que les utilisateurs ne peuvent “utiliser aucune méthode automatisée ou programmatique pour extraire des données ou des résultats des Services“. Le simple fait de demander à ChatGPT de répéter des mots à l’infini ne constitue pourtant pas une méthode automatisée. Une modification des conditions d’utilisation de ChatGPT est maintenant probablement dans les tuyaux.

👉 Vous utilisez Google News ? Ajoutez Tom's Guide sur Google News et sur Whatsapp pour ne rater aucune actualité importante de notre site.

Votre Newsletter Tom's Guide

📣 Souscrivez à notre newsletter pour recevoir par email nos dernières actualités !