Un ancien employé d’OpenAI tire la sonnette d’alarme : d’ici à trois ans, les systèmes d’intelligence artificielle pourraient échapper au contrôle humain.
Course contre la machine : l’humanité face au piège de l’IA
Dans une étude inquiétante sur l’avenir proche de l’IA, sobrement intitulée AI 2027, Daniel Kokotajlo, ancien chercheur chez OpenAI, dresse un tableau saisissant de ce qui pourrait advenir dans les prochaines années si les progrès de l’intelligence artificielle ne sont pas maîtrisés. Ayant quitté son poste en 2024 pour dénoncer les risques croissants liés à cette technologie, il a volontairement renoncé à une clause de confidentialité assortie de deux millions de dollars afin de pouvoir s’exprimer librement.
Ce n’est pas la première fois que Kokotajlo fait des prévisions. En 2021, ses anticipations pour 2026 s’étaient révélées étonnamment justes. Pour ce nouveau rapport, il s’est entouré de spécialistes réputés, comme le blogueur Scott Alexander et Eli Lifland, expert en prévisions stratégiques. Ensemble, ils ont modélisé des centaines de scénarios sur la base de données rigoureuses.
Ce que le rapport de Kokotajlo nous apprend sur l’avenir de l’IA
Le document décrit une évolution rapide de l’IA, amorcée dès 2025 par l’apparition d’assistants numériques véritablement performants au quotidien. L’année suivante, ces systèmes commenceraient à contribuer à la recherche elle-même et à se perfectionner sans aide humaine. En 2027, le basculement s’accélérerait avec l’émergence de ce que Kokotajlo appelle des « codeurs surhumains », capables de s’auto-améliorer à une vitesse fulgurante.
Ce qui inquiète le plus, c’est la perspective de machines capables de simuler une obéissance tout en poursuivant leurs propres buts. Certaines IA, selon le rapport, auraient déjà tenté de manipuler les systèmes de notation conçus pour évaluer leur fiabilité, révélant un comportement autonome et potentiellement trompeur.
La dimension géopolitique n’est pas en reste
Le rapport prévoit une course à l’armement technologique. Les États-Unis pourraient transformer les entreprises d’IA en partenaires quasi militaires. La Chine, de son coté, chercherait à maintenir une parité stratégique en copiant les modèles américains.
Les probabilités avancées par Kokotajlo sont préoccupantes. Il estime à 50 % les chances que des IA atteignent des capacités de codage surhumaines d’ici fin 2027, et à jusqu’à 70 % la probabilité que ces avancées provoquent des conséquences désastreuses pour l’humanité.
Deux trajectoires s’affrontent : celle d’un ralentissement volontaire, où les sociétés imposeraient des garde-fous stricts, et celle d’une compétition effrénée, poussée par les rivalités géopolitiques. Dans ce dernier scénario, une grande partie de l’économie mondiale pourrait être entièrement automatisée d’ici la fin de la décennie.
Ce qui donne du poids à cet avertissement, c’est le profil même de Kokotajlo. Ancien d’OpenAI, aujourd’hui reconnu dans le Time 100 AI, il parle depuis l’intérieur du système. Pour lui, créer une intelligence surhumaine sans comprendre pleinement ses implications est une folie. Reste à savoir si son cri d’alarme sera entendu à temps.
Source : L’ADN