L’affaire de Trevis Williams rappelle que l’intelligence artificielle, aussi utile soit-elle, ne peut pas remplacer l’enquête humaine. Lorsqu’elle se trompe, les conséquences sont lourdes pour les innocents.

Être accusé à tort d’un crime est une expérience terrifiante. Pour éviter ce genre de situation, la police utilise parfois des outils d’intelligence artificielle. Mais ces technologies ne sont pas infaillibles. Une seule erreur peut suffire à plonger un innocent dans un cauchemar, comme l’histoire récente de Trevis Williams l’a montré.
L’histoire a eu lieu le 10 février 2024, à Manhattan. Une femme appelle la police et dit avoir été choquée par un livreur qui s’est exhibé devant elle dans un immeuble d’Union Square. Elle décrit l’homme : environ 1,70 mètre, 70 kilos, cheveux tressés, barbe épaisse, et d’origine afro-américaine. Avant que les agents n’arrivent, le suspect prend la fuite.
Pendant ce temps, à plusieurs kilomètres de là, Trevis Williams, un homme de 36 ans vivant à Brooklyn, rentre chez lui après une longue journée de travail dans le Connecticut. Rien ne laisse penser qu’il pourrait être lié à cette affaire. Pourtant, deux mois plus tard, il est arrêté par la police. Il proteste, affirme qu’il est innocent, mais les agents l’emmènent tout de même.
Reconnaissance faciale, une promesse de sécurité qui peut détruire des vies
Au commissariat, Trevis Williams apprend la raison de cette arrestation. Un logiciel de reconnaissance faciale a indiqué qu’il correspondait au suspect recherché. Pendant ses deux jours de détention, on lui montre les images de vidéosurveillance. Williams répète sans cesse : « Ce n’est pas moi », mais ses paroles n’ont aucun poids face à la machine.
Finalement, en juillet, toutes les charges contre lui sont abandonnées. Mais si Trevis Williams a pu prouver son innocence, son histoire met en lumière un problème bien plus grand. Aux États-Unis, il n’est pas le seul à avoir été arrêté à tort après une erreur de reconnaissance faciale. Dans certains cas, ces erreurs ont même conduit des innocents à être accusés de crimes graves.
Le département de police de New York (NYPD) utilise cette technologie depuis 2011. Pourtant, il ne respecte pas toujours les limites de l’outil. Dans d’autres villes américaines, comme Detroit et dans l’État de l’Indiana, les policiers doivent apporter des preuves supplémentaires avant de considérer une personne identifiée par reconnaissance faciale comme suspect. À New York, cette règle n’existe pas. Ainsi, des erreurs peuvent facilement se produire et détruire des vies.
Source : New York Times
A lire aussi > L’IA, nouvelle ennemie du premier emploi ? Premiers chiffres révélés