Lorsque vous parlez d'IA, les définitions comptent
L'intelligence artificielle est partout ces derniers temps – sur les nouvelles, dans les podcasts et autour de chaque refroidisseur d'eau. Un nouveau terme bourdonnant, l'intelligence générale artificielle (AGI), domine les conversations et soulève plus de questions qu'il ne répond.
Alors, qu'est-ce que AGI? Va-t-il remplacer les emplois ou débloquer des solutions aux plus grands défis du monde? Est-ce que cela s'alignera avec les priorités sociétales ou les redéfinira-t-elle? Notre avenir est-il plus « les Jetsons » ou « The Terminator? » Les réponses ne sont pas simples. Ils dépendent de la façon dont nous définissons l'IA et de ce que nous nous attendons à ce qu'il fasse.
En tant que directeur inaugural du Center for IA Learning, Emory's Community Hub for IA Literacy et une composante centrale de l'initiative AI.Humanity, Joe Sutherland n'est pas étranger aux questions difficiles sur l'IA. L'été dernier, il s'est lancé dans une tournée à l'échelle de l'État cherchant à démystifier l'IA et à autonomiser les Géorgiens avec des compétences pour prospérer dans un avenir axé sur la technologie. Le public diversifié composé de professionnels, de propriétaires d'entreprise, de législateurs et d'étudiants partageait bon nombre des mêmes questions fondamentales.
Dans ce Q&A, Sutherland répond à nos préoccupations les plus urgentes concernant AGI, nous aidant à couper le battage médiatique pour trouver l'espoir.
Quelle est la différence entre l'intelligence artificielle, l'intelligence générale artificielle et la super intelligence artificielle?
Les définitions ont changé au fil du temps, ce qui a causé une certaine confusion. L'intelligence artificielle n'est pas une technologie monolithique. C'est un ensemble de technologies qui automatisent les tâches ou imitent les décisions que les humains prennent normalement. Nous déléguons le pouvoir de prendre ces décisions à une machine.
Traditionnellement, lorsque les gens parlaient de l'intelligence générale artificielle (AGI), ils signifiaient Skynet de « The Terminator » ou Hal de « 2001: A Space Odyssey », des machines qui auraient eu le libre arbitre et les capacités humaines approximatives.
Aujourd'hui, certains grands laboratoires de recherche ont redéfini AGI pour signifier un programme informatique qui peut effectuer ainsi que, ou mieux que les humains experts à des tâches spécifiques.
La super intelligence artificielle (ASI) est le terme moderne pour ce que nous avons utilisé pour appeler la superintelligence ou la singularité. C'est ce que nous considérions simultanément comme des robots AGI – humanoïdes qui dépassent l'intelligence humaine.
Avons-nous déjà AGI?
Cela dépend de la définition que vous utilisez. Si vous utilisez la définition axée sur les tâches des laboratoires, oui. L'IA est excellente pour récupérer des informations et les résumer d'une manière que toute évaluation humaine dirait: « Oh, c'est plutôt bien. »
Les modèles de grandes langues (LLM) comme Chatgpt peuvent surpasser les humains en essayant de pénétrer à l'école de médecine sur le MCAT. Mais ce n'est pas une véritable intelligence. C'est comme donner à un étudiant Google lors d'un examen. Le vrai AGI devrait montrer le raisonnement, pas seulement la récupération des informations et la correspondance des modèles.
Quelle est la différence entre le raisonnement et que fait aujourd'hui l'IA?
Les modèles d'aujourd'hui donnent l'impression qu'ils raisonnent, mais ils recherchent simplement séquentiellement les informations, puis les résument. Ils ne comprennent pas le monde – ils prédisent simplement quel mot vient ensuite en fonction des modèles. Lorsqu'il est testé sur de véritables tâches de raisonnement, comme la tour de Hanoi ou les puzzles logiques, les LLM échouent souvent à moins qu'ils n'aient mémorisé les réponses.
L'humour est un autre exemple où l'IA est absente. Du point de vue des sciences humaines, l'humour réside à l'intersection du confort et de l'inconfort. Cette limite se déplace tout le temps. Les chatbots ne régurgitent que les choses qu'ils ont vues dans le passé; Ils ne comprennent pas cette frontière. La véritable humour est quelque chose qu'ils ne peuvent pas faire.
De même, les entreprises n'ont souvent pas de données indiquant des tendances plus larges qui se déroulent « à l'extérieur » de l'entreprise. Leurs modèles d'IA, qui sont formés sur les données internes, ne peuvent pas synthétiser où nous avons été avec où nous allons. Cela nécessiterait le raisonnement, l'intuition et l'alignement des valeurs – des choses que nous avons du mal à articuler même pour nous-mêmes.
Alors, à quel point sommes-nous à Agi, vraiment?
Si nous utilisons l'ancienne définition de l'AGI – comme « le terminateur » – je pense que nous sommes loin. Les LLM ne nous rapprocheront pas car ils n'ont pas de raisonnement ou de capacités intuitivement créatives. Nous ne leur avons pas donné de cadre pour découvrir efficacement de nouvelles informations. Nous allons devoir développer des architectures totalement nouvelles si nous voulons nous rapprocher.
Un pas dans la bonne direction est l'architecture prédictive de l'intégration conjointe, ou JEPA. Au lieu de filer des mots comme un LLM, il infère des relations plus profondes entre les concepts et active ces inférences pour atteindre un objectif de niveau supérieur.
Il est rafraîchissant d'apprendre que jeter toutes les entrées de l'encyclopédie de la société dans un LLM ne produit pas d'intelligence au niveau de l'homme. Je le fais bouillir, bien sûr. Il y a plus à l'humanité qui ne rencontre l'œil.
Quelles sont les plus grandes promesses et périls de l'AGI?
Les technologies actuelles sont fantastiques. Ils permettent aux gens de faire des tâches en heures sur lesquelles ils devaient auparavant passer des jours. La promesse est l'efficacité – les outils qui peuvent résumer la recherche, aider au diagnostic médical, vous aider à planifier votre liste de courses pour la semaine. Cela aidera les gens à gagner plus d'argent, à passer plus de temps avec leurs familles ou à des passe-temps et à les aider à vivre une vie plus saine et plus saine.
Le péril n'est pas la technologie; C'est le manque de compréhension du public. Nous avons besoin d'alphabétisation de l'IA, donc les gens comprennent quand l'IA est utilisé de la bonne façon et quand ce n'est pas le cas.
Quel type de surveillance ou de garde-corps est nécessaire?
La clé consiste à fournir un cadre qui équilibre la valeur de ce qui est construit avec la propriété intellectuelle alimentant ces modèles, c'est-à-dire les ensembles de données.
Certaines entreprises ont fait valoir devant le tribunal que le grattage des données des gens sans consentement ni compensation est justifié car il fait progresser la société. C'est un argument manipulateur et troublant.
Si les besoins des personnes qui contribuent à ces technologies sont représentés et qu'ils sont adéquatement récompensés, cela inciterait une plus grande innovation et utilisation. Nous avons également besoin de tests approfondis pour identifier où ces modèles se cassent ou produisent des résultats biaisés.
Pouvons-nous aligner l'IA avec les valeurs humaines?
C'est plus une question sociale qu'une question technique. L'été dernier, j'ai donné des discussions sur la Géorgie pour la tournée de développement des effectifs de l'IA d'Emory avec la Fondation Rowen et la Chambre de commerce de Georgia, que nous avons appelée «AI + You». Un membre du public a demandé: « Comment pouvons-nous nous assurer que les modèles d'IA que nous construisons ont des valeurs américaines? »
Ce qui rend l'Amérique spéciale, c'est que nous apprécions l'opportunité de dissidence. Nous n'allons jamais d'accord sur tout, donc la plus grande question est: comment créer un système avec des garde-corps réactifs qui s'adaptent à nos valeurs sociétales en évolution? Quel est le cadre qui nous permet encore d'avoir un débat robuste et finalement de prendre de bonnes décisions?
Ces questions ne sont pas nouvelles pour l'avènement de l'IA. Nous leur demandons depuis des siècles. Mais la montée rapide de la technologie et son pouvoir de plus en plus centralisé nous obligent à réexaminer la façon dont nous abordons l'action collective.
Si nous obtenons AGI, à quoi ressemble la meilleure version du futur?
Je pense que la meilleure version du futur avec toutes ces technologies est celle où ils nous libèrent de faire un travail plus significatif et de passer moins de temps sur des choses que nous n'aimons pas. Cela signifie plus de temps pour l'innovation et la résolution créative de problèmes.
La recherche sur l'IA d'Emory transforme déjà les soins de santé, conduisant à un diagnostic et à un traitement améliorés de maladies comme le cancer, les maladies cardiaques et le diabète. Nous utilisons une analyse de texte pour découvrir des modèles dans les politiques publiques qui rendront la gouvernance plus efficace et plus équitable. Nos universitaires examinent également comment l'IA peut protéger les droits des gens et développer les entreprises.
L'IA offre plus d'avantages que des inconvénients, si nous responsabilisons les gens par l'éducation et les incluons dans la conversation afin qu'ils puissent plaider pour eux-mêmes et ceux qui leur tiennent à cœur.
S'ils sont déployés de manière réfléchie, ces technologies peuvent amplifier le potentiel humain, et non le remplacer.