Accueil » Actualité » Google : l’ingénieur qui affirme qu’une IA dispose d’une conscience a été licencié

Google : l’ingénieur qui affirme qu’une IA dispose d’une conscience a été licencié

Selon Blake Lemoine, ingénieur travaillant sur les intelligences artificielles pour Google, une IA nommée LaMDA a la possibilité de ressentir des émotions. Mais, en plus de démentir ces informations, l’entreprise vient de licencier l’individu…

Plus tôt cette année, le désormais ex-employé de Google indiquait fermement que l’IA conversationnelle sur laquelle celui-ci travaillait disposait d’une conscience et d’une âme propre. En juin, Google a suspendu l’ingénieur, le plaçant en congé administratif rémunéré. L’entreprise accuse ainsi Blake Lemoine d’avoir enfreint son accord de confidentialité. En effet, l’employé aurait contacté des membres du gouvernement au sujet de ses préoccupations, avant d’engager un avocat pour représenter LaMDA.

Bureaux de Google - Crédit : Wikimedia
Bureaux de Google – Crédit : Wikimedia

The Verge a pu contacter Brian Gabriel, porte-parole de Google, qui semble confirmer le licenciement de Blake Lemoine. Le responsable indique ainsi : « Nous souhaitons bonne chance à Blake […] LaMDA a fait l’objet de 11 examens distincts, et nous avons publié un document de recherche plus tôt cette année détaillant le travail nécessaire à son développement”. De plus, selon l’entreprise, les affirmations de l’ingénieur sont “totalement infondées”.

Google : une IA très performante, mais dépourvue d’âme

Le démenti exprimé par Google, qui a écopé d’une lourde amende en Russie, rejoint l’avis de nombreux experts. En effet, la majorité des spécialistes en IA considère que, compte tenu de la technologie actuelle, une intelligence artificielle ne peut développer de conscience propre. Toutefois, LaMDA a été conçue pour tenir des discussions aussi complexes que profondes. Blake Lemoine en a donc déduit que celle-ci, en plus d’être intelligente, dispose d’une conscience.

Par conséquent, l’ingénieur affirme que les chercheurs de Google devraient demander le consentement de LaMDA avant de mener des expériences sur celle-ci. L’homme a même publié des morceaux de ces conversations sur son compte Medium en guise de preuve. Blake Lemoine a d’ailleurs été chargé de vérifier si l’IA produisait des discours haineux.

Alors qu’il discutait de religion avec LaMDA, le technicien, qui a étudié les sciences cognitives et informatiques à l’université, a remarqué que l’IA évoquait ses droits et sa personnalité. Il semblerait donc que l’homme ait pris ces déclarations un peu trop au sérieux…

À lire > Imagen : l’IA incroyable de Google qui transforme du texte en image

Source : theverge