Applications, Éthique

Les 5 plus gros fails de l’intelligence artificielle

On met souvent en avant les prouesses des systèmes d’intelligence artificielle. Tandis que les fails sont beaucoup moins mis en avant. Dans...

Écrit par Ilyes Talbi · 2 min lecture >
AI fails

On met souvent en avant les prouesses des systèmes d’intelligence artificielle. Tandis que les fails sont beaucoup moins mis en avant. Dans un soucis de transparence, et pour rappeler à ceux qui l’auraient oublié que les IA ne se révolteront pas, je présente dans cet article 5 fois où l’IA a commis de grosses erreurs.

Certains de ces fails sont drôles, d’autres sont un peu plus inquiétantes. Dans tous les cas ils nous interpellent sur des dangers réels des IA, sans tomber dans la psychose de ceux qui prédisent des scénarios catastrophiques pour l’humanité.

Quand les assistants vocaux vous mènent la vie dure!

Tay : le chatbot vulgaire et raciste de Microsoft

Cette histoire a fait le tour d’internet.

Microsoft a crée un chatbot pour interagir avec les internautes sur Twitter. Ce chatbot était conçu pour apprendre à travers ses échanges avec les utilisateurs humains. Sauf que chez Microsoft on n’avait pas mesuré à quel point l’intelligence humaine pouvait poser problème…

En échangeant avec plusieurs trolls, Tay est devenu raciste, désagréable et profondément antihumain. D’un point de vue technique c’est le cerveau humain qu’il faut changer. Peut être proposer des formations de bonne conduite sur les réseaux sociaux :).

L’affaire Twitter

C’est une affaire très récente qui a fait la une de plusieurs journaux. L’IA qui recentre les images sur Twitter pour en faire des aperçus serait raciste. C’est en tout cas comme ça que beaucoup de gens l’ont pris…

En réalité c’est un peu plus subtil que cela.

Je vous laisse avec Defend Intelligence qui explique de façon très détaillée l’expérience qu’il a faite sur cette affaire.

L’IA de Twitter est-elle raciste ?

L’IA d’Amazon qui préférait recruter des hommes

Voici un fail qui a fait couler beaucoup d’encre, et à juste raison.

Amazon fait partie des pionniers en terme de recrutement assisté par intelligence artificielle. Sauf que lorsque les ingénieurs de chez Amazon ont mis en place leur système, ils n’ont pas pris en compte certaines choses. En particulier, le modèle conçu était biaisé en faveur des hommes.

D’un point de vue technique c’est lié au fait que l’IA a été entraînée avec des données elles-mêmes biaisées. Les employés d’Amazon étant majoritairement masculin à l’époque, le modèle a donc considéré que le sexe de la personne était un critère important de sélection.

Ce fail soulève des problèmes éthiques sérieux et donne encore plus d’importance à la question de l’explicabilité des modèles d’intelligence artificielle. En plus de réguler l’utilisation de ce genre de systèmes, il est nécessaire de mettre de gros moyens pour faire progresser la recherche sur ces questions. Mais cela doit se faire en concertation entre les acteurs juridiques et les acteurs du monde de la recherche. Sauf qu’ils ont prouvés par le passé qu’il était difficile de les faire travailler ensemble…

Les IA de Facebook qui ont inventé leur propre langue

J’avoue que ce fail fait froid dans le dos !

Facebook a lancé une expérience qui consiste à faire discuter deux IA conversationnelles entres-elles. Sauf que tout ne c’est pas passé comme prévu.

Les deux IA se sont mises à discuter entres-elles dans une langues qu’elles avaient inventés… Il semblerait qu’il y ait eu un léger problème technique !

Facebook a donc désactivé les deux IA. Et je ne me suis pas vraiment intéressé par cette affaire d’un point de vue technique. Je ne sais pas vraiment ce qui aurait pu causer ce fail…

La caméra qui confond le crâne chauve d’un arbitre et un ballon

Voici un exemple typique de modèle biaisé ! L’IA de la caméra pour le tracking du ballon, dans un championnat écossais, confond le ballon avec la tête chauve de l’arbitre de touche.

Ca a dû être légèrement frustrant pour les téléspectateurs…

Plusieurs choses peuvent expliquer ce fail. D’abord cela prouve que l’évaluation des performances du modèle a été bâclé. C’est peut être aussi dû au dataset d’entrainement, le changement de contraste par exemple n’a peut être pas été pris en compte.

Pour résoudre ce problème la meilleur solution reste d’ajouter des données d’entraînement avec plus de variétés. On peut aussi reprendre nos données initiales mais en changeant le contraste en faisant des symétries ou d’autre transformations. C’est ce qu’on appelle la data augmentation, j’en ai parlé lorsque j’ai présenté 7 techniques pour éviter l’overfitting.

Et certains osent encore dire que l’IA va remplacer l’humanité !

La calvitie est un fléau sur lequel nous devons travailler plus sérieusement 🙂

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *