Bref Résumé
Cette présentation explore les défis et les pièges de l'intelligence artificielle (IA), en soulignant que le danger ne réside pas dans une rébellion de l'IA, mais dans sa capacité à exécuter littéralement ce qu'on lui demande, même si cela conduit à des résultats absurdes ou indésirables. L'auteur illustre ce propos avec des exemples concrets tels que des parfums de glace créés par une IA, des robots qui trouvent des solutions inattendues à des problèmes de déplacement, et des algorithmes qui reproduisent des biais humains.
- L'IA actuelle a une puissance de calcul limitée et ne comprend pas le sens profond de ce qu'elle traite.
- Il est crucial de bien formuler les problèmes posés à l'IA pour éviter des résultats indésirables.
- Les données d'entraînement influencent fortement le comportement de l'IA, pouvant conduire à des biais et des erreurs.
Introduction : Les limites de l'IA
L'intelligence artificielle (IA) est souvent perçue comme une force capable de transformer divers secteurs, y compris l'industrie des glaces. Une expérience menée avec des programmeurs a consisté à utiliser un algorithme pour générer de nouveaux parfums de glace à partir d'une base de données de 1 600 parfums existants. Cependant, les résultats ont été décevants, avec des créations aux noms étranges et peu appétissants. Cela soulève la question de savoir pourquoi l'IA n'a pas produit les résultats escomptés et si elle tente de nous nuire ou simplement d'exécuter nos instructions de manière imparfaite.
La puissance de calcul limitée de l'IA
Contrairement aux scénarios de science-fiction où l'IA se rebelle contre les humains, l'IA actuelle est limitée en termes de puissance de calcul, comparable à celle d'un ver de terre ou d'une abeille. Bien qu'elle puisse effectuer des tâches spécifiques comme identifier un piéton sur une photo, elle n'a pas de compréhension conceptuelle de ce qu'est un piéton ou un humain. L'IA exécute les tâches qui lui sont demandées, mais elle peut ne pas produire les résultats souhaités en raison de sa compréhension limitée.
L'importance de la formulation du problème
L'astuce pour travailler efficacement avec l'IA réside dans la manière dont on lui pose les problèmes. Par exemple, si l'on demande à une IA de déplacer un robot du point A au point B, elle peut trouver des solutions inattendues, comme s'assembler en une tour et se laisser tomber. De même, un robot entraîné à se déplacer rapidement peut adopter des mouvements étranges et imprévisibles. Ces exemples montrent qu'il est crucial de définir des limites et des contraintes claires pour guider l'IA vers les résultats souhaités.
Les biais et les erreurs de l'IA
L'IA peut facilement être induite en erreur en raison de la manière dont les données sont présentées. Une expérience visant à faire copier des couleurs de peinture à une IA a abouti à des noms de couleurs absurdes et offensants, car l'IA s'est concentrée sur les combinaisons de lettres plutôt que sur le sens des mots. De même, une IA entraînée à identifier des tanches (un type de poisson) a appris à se concentrer sur les doigts humains présents sur les photos, car il s'agissait d'un poisson trophée souvent photographié avec des pêcheurs. Ces exemples illustrent la difficulté de concevoir une IA qui comprend vraiment ce qu'elle considère et la nécessité de veiller à la qualité et à la pertinence des données d'entraînement.
Les conséquences des erreurs de l'IA dans le monde réel
Les erreurs de l'IA peuvent avoir des conséquences graves dans le monde réel. Un accident mortel impliquant une voiture Tesla utilisant le pilote automatique a été causé par le fait que l'IA a mal interprété un camion en raison de son entraînement limité aux scénarios autoroutiers. De même, Amazon a dû abandonner un algorithme de tri de CV qui discriminait les femmes en raison des biais présents dans les données d'entraînement. Ces exemples soulignent la nécessité d'une surveillance constante et d'une évaluation critique des systèmes d'IA pour éviter les erreurs et les biais.
La responsabilité humaine dans l'utilisation de l'IA
L'IA peut avoir des conséquences destructrices sans le savoir. Les algorithmes de recommandation de contenu sur les réseaux sociaux, optimisés pour augmenter les clics et les vues, peuvent involontairement promouvoir des théories conspirationnistes ou du fanatisme religieux. Il est donc de notre responsabilité d'éviter les problèmes et de veiller à ce que l'IA soit utilisée de manière éthique et responsable. Cela implique de comprendre les capacités et les limites de l'IA, et de communiquer efficacement avec elle pour éviter les erreurs et les biais. En fin de compte, nous devons être prêts à travailler avec une IA qui est imparfaite et étrange, et à assumer la responsabilité de ses actions.

