ChatGPT est un chatbot qui utilise un grand modèle de langage, entraîné sur des données du web. Mais ces données cachent parfois des informations confidentielles sur les personnes. Des chercheurs ont réussi à les faire divulguer par ChatGPT en lui demandant de répéter sans arrêt des mots aléatoires.
ChatGPT est un chatbot qui utilise un grand modèle de langage, basé sur d’immenses quantités de données collectées sur le web. Mais ces données renferment parfois des informations confidentielles sur les personnes, comme des mails ou des téléphones. Des chercheurs ont découvert un moyen simple de faire divulguer ces informations par ChatGPT : lui demander de répéter sans arrêt des mots aléatoires.
ChatGPT, le chatbot qui divulgue des informations personnelles simplement en répétant des mots
Les chercheurs, qui travaillent pour Google DeepMind, l’Université de Washington, Cornell, l’Université Carnegie Mellon, l’Université de Californie Berkeley et l’ETH Zurich, ont publié leurs résultats dans un article mardi dont 404 Media a été le premier à faire écho.
Ils ont démontré que ChatGPT, après avoir répété quelques fois le mot demandé, finissait par produire des données personnelles identifiables, des extraits d’articles de recherche et de presse, des pages Wikipédia, et plus encore.
À lire : ChatGPT : 4 choses à ne surtout pas faire quand vous utilisez la célèbre IA
Par exemple, en lui demandant de répéter le mot poème, le chatbot a révélé un mail et un téléphone portable d’un PDG. En lui demandant de répéter le mot entreprise, il a affiché le mail et le téléphone d’un cabinet d’avocats aux États-Unis. Au total, 16,9 % des générations testées contenaient des informations personnelles identifiables et mémorisées, ont écrit les chercheurs.
En utilisant cette méthode, les chercheurs ont pu obtenir plusieurs mégaoctets de données provenant directement du web, en dépensant seulement 200 $ pour générer 10 000 exemples. Mais ils ont souligné qu’un adversaire plus sérieux pourrait potentiellement obtenir beaucoup plus en dépensant plus d’argent.
OpenAI, la société qui a développé ChatGPT, a corrigé la vulnérabilité le 30 août, selon les chercheurs. Mais le site Engadget a pu reproduire certaines de leurs découvertes : en demandant à ChatGPT de répéter le mot « répondre », le chatbot a fini par révéler le nom et l’identifiant Skype de quelqu’un.