Comment tromper une IA ?

Pas de doute que l’IA a accompli de grands progrès ces dernières années. Cependant, il reste facile de lui faire commettre des erreurs que n’importe quel humain éviterait. Selon Motherboard, un simple mot mal orthographié suffirait à les faire déraper. Le magazine nous informe en effet d’un papier publié dans Arxiv (.pdf) par une équipe chinoise, montrant la facilité avec laquelle il a été possible de tromper un programme conçu pour comprendre le langage naturel.

Les chercheurs ont ainsi fait analyser par la machine un texte décrivant un film de 1939, Maisie. Et l’IA a dans un premier temps reconnu, avec une probabilité de 99,6 %, qu’il s’agissait bien d’un paragraphe sur le cinéma. Tout fonctionnait donc bien jusque là.

Dans un second temps, ils lui ont fourni le même passage, en laissant volontairement une « coquille », remplaçant une des occurrences du mot « film » par « flim » (ailleurs dans le texte, le mot « film » revenait plusieurs fois, bien orthographié). Et le programme a décidé que le texte concernait des entreprises, avec une certitude de 99 %. Comme le note l’article : « comment les entreprises ont pu apparaître demeure un mystère ». Autrement dit, la machine ne s’est pas seulement trompée, elle a donné une conclusion totalement incompréhensible ! Et Motherboard de souligner : « On peut imaginer le risque si, par exemple, les machines doivent un jour examiner des documents juridiques de manière autonome ».

Ce genre de problème n’est pas unique au texte, rappelle le magazine. Il a déjà été démontré que des images de mauvaise qualité, avec des défauts sans importance pour un être humain, et même imperceptibles à l’œil, pouvaient perturber les capacités d’une IA spécialisée dans la reconnaissance des formes. Et, nous dit encore l’article, certains systèmes ont confondu un panneau « stop » avec un « cédez le passage », ce qui évidemment peut poser des problèmes pour les futurs véhicules autonomes.

Toutefois, précise Motherboard, il faut des spécialistes de haut niveau pour trouver les « trucs » susceptibles de déstabiliser une IA de cette manière. Mais de telles méthodes pourraient être utilisées par les hackers de demain pour attaquer des systèmes basés sur l’intelligence artificielle.

À lire aussi sur internetactu.net