Accueil » Actualité » Chrome va utiliser une IA pour décrire les images aux déficients visuels

Chrome va utiliser une IA pour décrire les images aux déficients visuels

Chrome va bientôt intégrer un système de reconnaissance d’image pour en extraire une description. Google souhaite ainsi apporter une solution aux malvoyants pour qui la plupart des images du web restent muettes.

Image 1 : Chrome va utiliser une IA pour décrire les images aux déficients visuels

Dès 2012, l’ONU a reconnu que l’accès à internet est un droit fondamental au même titre que les autres droits de l’homme. Avec la loi dite « loi numérique », la France l’a confirmé quatre ans plus tard, mais en 2019 une grande partie du web reste inaccessible aux malvoyants. Des efforts ont été faits, notamment de la part du W3C avec le WAI (Web Accessibility Initiative), et des systèmes de lecture du texte. Cependant, beaucoup de sites ne respectent pas les standards, en particulier l’attribut « alt » qui doit décrire une image. Les informations qu’apportent les images et les illustrations échappent donc bien souvent aux malvoyants. 

Microsoft développe une IA capable de décrire les images sur Word et PowerPoint

Google met la reconnaissance d’image au service des malvoyants

Aujourd’hui, des véhicules sont capables de se déplacer de manières autonomes grâce à la reconnaissance d’image, mais un malvoyant n’est toujours pas en mesure de connaitre le contenu d’une image sur le web. Les équipes en charge de l’accessibilité apportent enfin une solution au problème.

En utilisant la même technologie que celle de son moteur de recherche d’images, Google Chrome va bientôt pouvoir la décrire à ceux qui ne peuvent la voir. Ainsi l’image d’un chien avec une balle entre ses pattes peut être traduite par « on dirait que le chien attrape quelque chose ». L’outil est également en mesure de reconnaitre du texte pour le traduire par « il semble écrit que… ».

Vous l’avez compris, le système de reconnaissance d’image n’est pas fiable à 100 %. Pour éviter d’induire un utilisateur dans l’erreur, l’équipe a choisi de contextualiser ses interprétations, et même de ne pas les traduire du tout si son contenu est incertain.

Le système est en phase de test avec la collaboration de malvoyants, et il ne fonctionne qu’en anglais pour le moment. Aucune date de mise en production n’a été annoncée.

Source : Fast Company