Ces dernières années, l’intelligence artificielle fait couler beaucoup d’encre. Personne ne peut nier les bienfaits de cette technologie pour l’humanité. Mais, quand l’IAdéraille, les conséquences peuvent être bien réelles.
Le chatbot néo-nazi de Microsoft
Début 2016, Microsoft a développé Tay, un « chatbot » qui pouvait discuter librement de tout et de rien. Or, l’idée s’est transformée en un vrai cauchemar.
Après quelques heures du lancement du robot de discussion, Tay a adopté l’attitude d’un néo-nazi machiste. Pourquoi ? Puisque les données d’apprentissages de l’algorithme provenaient des conversations avec les internautes (entre autres). Au bout de seize heures, Microsoft a été contrainte de faire disparaître le « chatbot ».
Un couple afro-américain assimilé à des gorilles
En 2015, l’application Photo de Google a aussi mis les pieds dans le plat. En effet, l’appli a assimilé un couple afro-américain à des gorilles. Oui, vous l’avez bien lu : à des gorilles. À noter que le géant du web s’est rapidement excusé et a promis d’y remédier. Reste à savoir si la firme américaine a amélioré son algorithme de reconnaissance d’image.
Waston recommande de mauvais traitements cancéreux
On se souvient tous de Waston, qui a écrasé les humains dans le jeu télévisé Jeopardy. Au lieu de révolutionner la médecine, comme le prétend IBM, des documents internes de la société ont révélé que ce gai-luron recommande souvent de mauvais traitements cancéreux, qui pourraient même se révéler dangereux pour les patients.
À noter que les ingénieurs d’IBM continuent de croire en ce projet.
Compas surévalue le risque pour les personnes noires
Le logiciel Compas sert à évaluer le risque d’un délinquant ou criminel, et a donc une conséquence directe sur la peine de prison prononcée par le juge.
D’après l’enquête réalisée par ProPublica, ce logiciel avait tendance à surévaluer nettement le risque pour les personnes noires, indépendamment des autres facteurs sociaux culturels.
Les hacks visuels
Souvent, les experts cherchent à savoir si les algorithmes sont faciles à tromper. La réponse : oui !
En 2014, les chercheurs ont pu faire dérailler une IA pour confondre un chien avec une autruche. En 2016, d’autres chercheurs ont conclu qu’il est possible de trouver une perturbation quasi imperceptible capable de faire planter les prédictions avec une haute probabilité.