ChatGPT : une faille de sécurité insoluble plombe le futur des chatbots

Que ce soit ChatGPT, Bing ou Bard, aucun chatbot n’échappe à cette faille de sécurité insoluble qui met en péril l’avenir de intelligence artificielle générative. Appelée “attaque par injection indirecte d’invite”, cette faille peut mettre n’importe quel utilisateur à la merci de pirates.

IA ChatGPT Bard Faille
©Envato

Il n’a pas fallu attendre longtemps avant que l’intelligence artificielle ne soit détournée par des acteurs mal-intentionnés. En janvier, des pirates russes se servaient déjà de ChatGPT pour mener leurs attaques. Depuis, les utilisation malfaisantes des intelligences artificielles génératives se sont multipliés et désormais, ChatGPT est capable de créer des malwares indétectables d’une redoutable dangerosité.

Contourner les mesure de sécurité mises en place par OpenAI, Google ou Microsoft n’est pas compliqué, comme l’ont montré des chercheurs en février. En effet, les chatbots comme Bing peuvent accéder aux pages web ouvertes par un utilisateur, si ce dernier l’y autorise. Un pirate peut exploiter cette faille pour dissimuler des instructions malfaisantes dans un site web visité.

Cela transforme l’IA en un formidable outil d’extraction d’informations personnelles. Dans le cas de leur expérience, les chercheurs avaient réussi à amener le chatbot à demander des informations bancaires sensibles aux utilisateurs. Ces derniers n’avaient commis aucune autre faute, mis à part d’interagir avec l’intelligence artificielle de Microsoft.

Les attaques par injection indirecte d’invite, un danger de l’IA

Les attaques par injection d’invites se divisent en deux catégories :

  • Les attaques directes, qui se produisent lorsqu’on essaie de faire répondre le grand modèle de langage (GML) d’une manière non voulue, par exemple en l’incitant à prononcer des discours racistes, comme GPT-4 le faisait lors des phases de test. Ce type d’attaque peut facilement être empêché.
  • Les attaques indirectes, comme dans l’exemple susmentionné, sont plus préoccupantes et vont encore plus loin. Au lieu que l’utilisateur saisisse lui-même une invite malveillante, l’instruction provient d’un tiers. Un site web que l’IA peut lire, ou un PDF analysé, peut contenir des instructions cachées que l’IA devrait suivre.

Dans les pages de Wired, Rich Harang, le responsable de la sécurité des systèmes d’IA de Nvidia, explique que ces attaques impliquent que la personne qui fournit les données d’apprentissage a une grande influence sur les résultats que recrache l’IA. L’intelligence artificielle est donc facilement manipulable et ses résultats peuvent vite s’avérer complètement bidons voire dangereux. Comme de plus en plus d’entreprises utilisent l’IA générative et que les employés partagent trop de secrets, le problème devient d’autant plus criant.

Comment faire pour utiliser ChatGPT en toute sécurité ?

Selon les informations de Wired, Google a lancé plusieurs projets pour comprendre comment l’IA réagit aux attaques par injection indirecte d’invite et trouver une solution. De son côté, OpenAI, l’entreprise conceptrice de ChatGPT, déclare rechercher activement une solution à cette faille. De même chez son partenaire, Microsoft, chez qui de grandes équipes travaillent sur les problèmes de sécurité.

À lire > ChatGPT remonte enfin la pente, voici pourquoi

Chez Google, les équipes utilisent l’IA pour résoudre ce problème. Le serpent se mord quasiment la queue : des modèles spécialement formés aident à identifier les prompts malveillants connus et les résultats dangereux qui violent les politiques de l’entreprise. De même, Nvidia a publié une série de garde-fous en open source à ajouter aux GML. Mais ces approches n’ont qu’une portée limitée, car il n’est pas possible d’identifier toutes les invites malveillantes.

Le National Cyber Security Center (NCSC), une branche du renseignement britannique, avertit également sur le risque d’attaques par injection. L’institution affirme que des centaines de tentatives d’attaque ont déjà rapportés. “Alors que des recherches sont en cours sur l’injection rapide, il peut s’agir d’un problème inhérent à la technologie GML“, avertit l’agence dans un billet de blog “Certaines stratégies peuvent rendre l’injection rapide plus difficile, mais il n’existe pas encore de solutions infaillibles.”

À lire > ChatGPT bientôt dépassé ? Les médias bloquent massivement OpenAI

Ainsi, il n’existe pas à l’heure actuelle solution miracle, mais certaines bonnes pratiques de sécurité peuvent réduire les risques. Il faut avant tout traiter les chatbots de la même manière qu’il faut traiter un inconnu avec qui on chatte sur internet : ne pas lui révéler d’informations personnelles et surtout vérifier tout ce qu’il dit. Quoiqu’il en soit, cette dangereuse faille de sécurité met en péril l’avenir de l’intelligence artificielle générative.

Source : Wired

👉 Vous utilisez Google News ? Ajoutez Tom's Guide sur Google News et sur Whatsapp pour ne rater aucune actualité importante de notre site.

Votre Newsletter Tom's Guide

📣 Souscrivez à notre newsletter pour recevoir par email nos dernières actualités !