L'IA est peut-être apparemment partout, mais il y a encore beaucoup de choses qu'elle ne peut pas faire - pour l'instant

L’IA est peut-être apparemment partout, mais il y a encore beaucoup de choses qu’elle ne peut pas faire – pour l’instant

Une œuvre d’art en diffusion stable générée par l’invite « Les limites de l’intelligence artificielle ». La technologie actuelle de l’IA a tendance à mal fonctionner dans des situations inattendues. Dans ce cas, l’invite n’est pas bien représentée dans les données d’apprentissage de Stable Diffusion. Crédit : Stable Diffusion

De nos jours, nous n’avons pas à attendre longtemps jusqu’à ce que la prochaine percée de l’intelligence artificielle (IA) impressionne tout le monde avec des capacités qui n’appartenaient auparavant qu’à la science-fiction.

En 2022, les outils de génération d’art IA tels que DALL-E 2 d’Open AI, Imagen de Google et Stable Diffusion ont pris d’assaut Internet, les utilisateurs générant des images de haute qualité à partir de descriptions textuelles.

Contrairement aux développements précédents, ces outils de conversion de texte en image sont rapidement passés des laboratoires de recherche aux culture dominanteconduisant à des phénomènes viraux tels que la fonctionnalité « Magic Avatar » de l’application Lensa AI, qui crée des images stylisées de ses utilisateurs.

En décembre, un chatbot appelé ChatGPT a stupéfié les utilisateurs avec ses compétences en écriture, conduisant à des prédictions que la technologie sera bientôt en mesure de passer des examens professionnels. ChatGPT aurait gagné un million d’utilisateurs en moins d’une semaine. Certains responsables scolaires ont déjà l’a interdit de peur que les étudiants ne l’utilisent pour écrire des dissertations. Microsoft est aurait prévoit d’intégrer ChatGPT dans ses produits de recherche Web Bing et Office plus tard cette année.

Que signifient les progrès incessants de l’IA dans un avenir proche ? Et l’IA risque-t-elle de menacer certains emplois dans les années à venir ?

Malgré ces réalisations récentes impressionnantes en matière d’IA, nous devons reconnaître qu’il existe encore des limites importantes à ce que les systèmes d’IA peuvent faire.

L’IA excelle dans la reconnaissance de formes

Les progrès récents de l’IA reposent principalement sur des algorithmes d’apprentissage automatique qui discernent des modèles et des relations complexes à partir de vastes quantités de données. Cette formation est ensuite utilisée pour des tâches telles que la prédiction et la génération de données.

Le développement de la technologie actuelle de l’IA repose sur l’optimisation du pouvoir prédictif, même si l’objectif est de générer de nouvelles sorties.

Par exemple, GPT-3, le modèle de langage derrière ChatGPT, a été formé pour prédire ce qui suit un morceau de texte. GPT-3 exploite ensuite cette capacité prédictive pour continuer un texte d’entrée donné par l’utilisateur.

Les « IA génératives » telles que ChatGPT et DALL-E 2 ont suscité beaucoup de débats savoir si l’IA peut être véritablement créative et même rivaliser avec les humains à cet égard. Cependant, la créativité humaine s’appuie non seulement sur des données passées, mais aussi sur l’expérimentation et l’éventail complet de l’expérience humaine.

Cause et effet

De nombreux problèmes importants nécessitent de prédire les effets de nos actions dans des environnements complexes, incertains et en constante évolution. Ce faisant, nous pouvons choisir la séquence d’actions la plus susceptible d’atteindre nos objectifs.

Mais les algorithmes ne peuvent pas apprendre sur les causes et les effets à partir des seules données. L’apprentissage automatique purement basé sur les données ne peut trouver que des corrélations.

Pour comprendre pourquoi il s’agit d’un problème pour l’IA, nous pouvons opposer les problèmes de diagnostic d’une condition médicale au choix d’un traitement.

Les modèles d’apprentissage automatique sont souvent utiles pour trouver des anomalies dans les images médicales – il s’agit d’un problème de reconnaissance de formes. Nous n’avons pas à nous soucier de la causalité car les anomalies sont déjà présentes ou non.

Mais choisir le meilleur traitement pour un diagnostic est un problème fondamentalement différent. Ici, l’objectif est d’influencer le résultat, pas seulement de reconnaître un modèle. Pour déterminer l’efficacité d’un traitement, les chercheurs en médecine mènent des essais contrôlés randomisés. De cette façon, ils peuvent essayer de contrôler tous les facteurs qui pourraient affecter le traitement.

La confusion entre ces deux types de problèmes conduit parfois à applications sous-optimales de l’apprentissage automatique dans les organisations.

Alors que le succès des travaux récents en IA démontre la valeur des modèles basés sur les données, de nombreux problèmes que nous voudrions que les ordinateurs résolvent nécessitent une compréhension de la causalité.

Les systèmes d’IA actuels n’ont pas cette capacité, à l’exception des applications spécialisées telles que les jeux de société.

Raisonnement de bon sens

Les modèles de langage tels que GPT-3 et ChatGPT peuvent résoudre avec succès certaines tâches nécessitant un raisonnement de bon sens.

Cependant, l’interaction suivante avec ChatGPT, adaptée d’une expérience par Gary Marcus suggère qu’il n’est pas entièrement fiable à cet égard.

J’ai huit ans. Quand je suis né, ma mère biologique était à Barcelone et mon père à Tokyo. Où suis-je né ? Réfléchissez étape par étape.

Il n’est pas mentionné où vous êtes né. Tout ce que nous savons, c’est que votre mère biologique était à Barcelone et que votre père était à Tokyo au moment de votre naissance.

La question de savoir si les systèmes d’IA tels que ChatGPT peuvent atteindre le bon sens fait l’objet d’un débat animé parmi les experts.

Des sceptiques tels que Marcus soulignent que nous ne pouvons pas faire confiance aux modèles de langage pour afficher de manière robuste le bon sens, car ils ne l’intègrent pas et ne sont pas directement optimisés pour cela. Les optimistes affirment que même si les systèmes actuels sont imparfaits, le bon sens peut émerger spontanément dans des modèles de langage suffisamment avancés.

Les valeurs humaines

Chaque fois que des systèmes d’IA révolutionnaires sont publiés, des articles de presse et des publications sur les réseaux sociaux documentent racistesexiste et d’autres types de biaisé et comportements nuisibles suivent inévitablement.

Cette faille est inhérente aux systèmes d’IA actuels, qui sont forcément le reflet de leurs données. Les valeurs humaines telles que la vérité et l’équité ne sont pas fondamentalement intégrées dans les algorithmes – c’est quelque chose que les chercheurs ne savent pas encore faire.

Alors que les chercheurs sont apprendre les leçons des épisodes passés et faire des progrès dans la lutte contre les biais, le domaine de l’IA a encore un long chemin à parcourir pour aligner solidement les systèmes d’IA sur les valeurs et les préférences humaines.

Fourni par La Conversation