Qu'est-ce que l'intelligence générale artificielle et en quoi diffère-t-elle des autres types d'IA?

Qu’est-ce que l’intelligence générale artificielle et en quoi diffère-t-elle des autres types d’IA?

Il s’avère que la formation de systèmes d’intelligence artificielle n’est pas sans rappeler l’éducation d’un enfant. C’est pourquoi certains chercheurs de l’IA ont commencé à imiter la façon dont les enfants acquièrent naturellement des connaissances et apprennent le monde qui les entoure – à travers l’exploration, la curiosité, l’apprentissage progressif et le renforcement positif.

« De nombreux problèmes avec les algorithmes d’IA pourraient être résolus en prenant des idées de neurosciences et de développement de l’enfant », explique Christopher Kanan, professeur agrégé du Département d’informatique de l’Université de Rochester, et un expert en intelligence artificielle, apprentissage continu, vision et algorithmes inspirés du cerveau.

Bien sûr, apprendre et pouvoir raisonner comme un humain – juste plus rapidement et peut-être mieux – aborde des questions sur la meilleure façon de protéger les humains des systèmes d’IA en constante avance. C’est pourquoi Kanan dit que tous les systèmes d’IA doivent faire intégrer les garde-corps, mais cela à la toute fin du développement est trop tard. « Ce ne devrait pas être la dernière étape, sinon nous pouvons libérer un monstre. »

Qu’est-ce que l’intelligence générale artificielle et en quoi diffère-t-elle des autres types d’IA?

L’IA implique la création de systèmes informatiques qui peuvent effectuer des tâches qui nécessitent généralement une intelligence humaine, comme la perception, le raisonnement, la prise de décision et la résolution de problèmes. Traditionnellement, une grande partie de la recherche sur l’IA s’est concentrée sur les systèmes de construction conçus pour des tâches spécifiques, ce qui appelle l’intelligence étroite artificielle (ANI). Les exemples incluent des systèmes de reconnaissance d’image, d’assistants vocaux ou de jouer à des jeux stratégiques, qui peuvent tous effectuer leurs tâches exceptionnellement bien, dépassant souvent les humains.

Ensuite, il existe une intelligence générale artificielle (AGI), qui vise à construire des systèmes capables de comprendre, de raisonnement et d’apprentissage sur un large éventail de tâches, tout comme les humains. La réalisation de l’AGI reste un objectif majeur dans la recherche sur l’IA mais n’a pas encore été atteint. Au-delà de l’AGI se trouve la superintelligence artificielle (ASI) – une forme d’IA dépassant largement l’intelligence humaine dans pratiquement tous les domaines, qui reste spéculative et se limite actuellement à la science-fiction.

Dans mon laboratoire, nous sommes particulièrement intéressés à nous rapprocher de l’intelligence générale artificielle en nous inspirant des neurosciences et du développement de l’enfant, permettant aux systèmes d’IA d’apprendre et de s’adapter continuellement, tout comme les enfants humains.

Quelles sont les façons dont l’IA peut «apprendre»?

ANI réussit grâce à Deep Learning, qui depuis environ 2014 a été utilisé pour former ces systèmes à apprendre des grandes quantités de données annotées par les humains. L’apprentissage en profondeur implique la formation de grands réseaux de neurones artificiels composés de nombreuses couches interconnectées. Aujourd’hui, l’apprentissage en profondeur sous-tend la plupart des applications d’IA modernes, de la vision informatique et du traitement du langage naturel à la robotique et à la recherche biomédicale. Ces systèmes excellent dans des tâches comme la reconnaissance d’image, la traduction du langage, la lecture de jeux complexes tels que Go and Chess, et la génération de texte, d’images et même de code.

Un modèle grand langage (LLM) comme le GPT-4 d’OpenAI est formé sur d’énormes quantités de texte en utilisant l’apprentissage auto-supervisé. Cela signifie que le modèle apprend en prédisant le mot ou la phrase suivant à partir du texte existant, sans guidage humain ou étiquettes explicites. Ces modèles sont généralement formés sur des milliards de mots – essentiellement l’intégralité de l’écriture humaine disponible en ligne, y compris des livres, des articles et des sites Web. Pour mettre cela en perspective, si un humain tentait de lire tout ce texte, il faudrait des dizaines de milliers de vies.

Après cette formation initiale approfondie, le modèle subit un réglage fin supervisé, où les humains fournissent des exemples de résultats préférés, guidant le modèle vers la génération de réponses qui s’alignent étroitement avec les préférences humaines. Enfin, des techniques telles que l’apprentissage du renforcement avec la rétroaction humaine (RLHF) sont appliquées pour façonner le comportement du modèle en définissant des limites acceptables pour ce qu’elle peut ou ne peut pas générer.

À quoi sert vraiment AIS?

Ils sont excellents dans les tâches impliquant des langues humaines, notamment la traduction, la rédaction d’essais, l’édition de texte, la fourniture de commentaires et l’action en tant que tuteurs d’écriture personnalisés.

Ils peuvent passer des tests standardisés. Par exemple, le GPT-4 d’OpenAI obtient des scores de haut niveau sur des tests vraiment difficiles tels que l’examen BAR (90e centile), le LSAT (88e centile), le GRE quantitatif (80e centile), GRE verbal (99e centile), USMLE et plusieurs tests de placement avancé. Ils excellent même sur les examens de mathématiques au niveau du doctorat. Étonnamment, des études ont montré qu’elles ont une intelligence émotionnelle plus importante que les humains.

Au-delà des tests, les LLM peuvent servir de co-scientifiques, aidant les chercheurs à générer de nouvelles hypothèses, à rédiger des propositions de recherche et à synthétiser la littérature scientifique complexe. Ils sont de plus en plus incorporés dans des systèmes multimodaux conçus pour les tâches de la vision, la robotique et la planification d’action du monde réel.

Quelles sont certaines des limites actuelles des outils d’IA génératifs?

Les LLM peuvent toujours «halluciner», ce qui signifie qu’ils produisent en toute confiance des informations à consonance plausible mais incorrectes. Leurs capacités de raisonnement et de planification, tout en améliorant rapidement, sont encore limitées par rapport à la flexibilité et à la profondeur au niveau de l’homme. Et ils n’apprennent pas continuellement de l’expérience; Leurs connaissances sont effectivement gelées après la formation, ce qui signifie qu’ils manquent de conscience des développements récents ou des changements continus dans le monde.

Les systèmes d’IA génératifs actuels manquent également de métacognition, ce qui signifie qu’ils ne savent généralement pas ce qu’ils ne savent pas, et ils posent rarement des questions de clarification face à l’incertitude ou aux invites ambiguës. Cette absence de conscience de soi limite leur efficacité dans les interactions du monde réel.

Les humains excellent dans l’apprentissage continu, où les compétences acquises précoces servent de base à des capacités de plus en plus complexes. Par exemple, les nourrissons doivent d’abord maîtriser le contrôle du moteur de base avant de progresser vers la marche, la course ou même la gymnastique. Les LLM d’aujourd’hui ne démontrent ni ne sont efficacement évaluées sur ce type d’apprentissage cumulatif et transfert vers l’avant. S’attaquer à cette limitation est un objectif principal des recherches de mon laboratoire.

Quels principaux défis et risques pose-t-il?

L’IA générative transforme déjà considérablement le lieu de travail. Cela est particulièrement perturbateur pour les rôles en col blanc – des positions qui nécessitent traditionnellement une éducation ou une expertise spécialisée – parce que les copilotes d’IA permettent aux travailleurs individuels d’augmenter considérablement leur productivité; Ils peuvent transformer les novices en opération à un niveau plus proche de celui des experts. Cette productivité accrue signifie que les entreprises pourraient fonctionner efficacement avec beaucoup moins d’employés, ce qui augmente la possibilité de réductions à grande échelle des rôles en col blanc dans de nombreuses industries.

En revanche, les emplois nécessitant une dextérité humaine, la créativité, le leadership et l’interaction physique directe, tels que les métiers qualifiés, les postes de soins de santé impliquant des soins directs aux patients ou l’artisanat, ne seront probablement pas remplacés par l’IA de si tôt.

Alors que des scénarios comme le célèbre «maximiseur de trombone» de Nick Bostrom, dans lequel AGI détruit par inadvertance l’humanité, sont couramment discutés, je pense que le risque immédiat est le plus grand sont les humains qui peuvent délibérément utiliser l’IA avancée à des fins catastrophiques. Les efforts devraient se concentrer sur la coopération internationale, le développement responsable et l’investissement dans la recherche sur la sécurité académique.

Pour garantir que l’IA est développée et utilisée en toute sécurité, nous avons besoin d’une réglementation autour d’applications spécifiques. Fait intéressant, les personnes qui demandent le règlement gouvernemental sont maintenant celles qui dirigent les sociétés de l’IA. Mais personnellement, je m’inquiète également de la réglementation qui pourrait éliminer les efforts d’IA open source, étouffer l’innovation et concentrer les avantages de l’IA parmi les rares.

Quelles sont les chances d’atteindre l’intelligence générale artificielle (AGI)?

Les trois «parrains» des lauréats modernes de l’IA et des Turances – Yoshua Bengio, Geoffrey Hinton et Yann LeCun – conviennent tous que la réalisation d’AGI est possible. Récemment, Bengio et Hinton ont exprimé une préoccupation importante, mettant en garde que AGI pourrait potentiellement présenter un risque existentiel pour l’humanité. Néanmoins, je ne pense pas qu’aucun d’entre eux – ou moi – croit que les architectures LLM d’aujourd’hui seront suffisantes pour atteindre le vrai AGI.

Les LLMS raisonnent intrinsèquement en utilisant le langage, tandis que pour les humains, le langage sert principalement de moyen de communication plutôt que d’un support principal pour la pensée elle-même. Cette dépendance à l’égard du langage limite intrinsèquement la capacité des LLM à s’engager dans un raisonnement ou une visualisation abstrait, limitant leur potentiel d’une intelligence plus large et humaine.