«Parrain d'Ai» craint maintenant que ce soit dangereux. Il a un plan pour le freiner

«Parrain d'Ai» craint maintenant que ce soit dangereux. Il a un plan pour le freiner

Cette semaine, le Federal Bureau of Investigation américain a révélé que deux hommes soupçonnés de bombarder une clinique de fertilité en Californie auraient utilisé le mois dernier de l'intelligence artificielle (IA) pour obtenir des instructions de fabrication de bombes. Le FBI n'a pas divulgué le nom du programme d'IA en question.

Cela met en évidence le besoin urgent de rendre l'IA plus sûr. Actuellement, nous vivons à l'ère « Wild West » de l'IA, où les entreprises sont farouchement concurrentes pour développer les systèmes d'IA les plus rapides et les plus divertissants. Chaque entreprise veut surpasser les concurrents et réclamer la première place. Cette compétition intense conduit souvent à des raccourcis intentionnels ou involontaires, en particulier en ce qui concerne la sécurité.

Par coïncidence, à peu près au même moment de la révélation du FBI, l'un des parrants de l'IA moderne, le professeur canadien de l'informatique Yoshua Bengio, a lancé une nouvelle organisation à but non lucratif dédiée au développement d'un nouveau modèle d'IA spécifiquement conçu pour être plus sûr que les autres modèles d'IA – et cibler ceux qui causent des dommages sociaux.

Alors, quel est le nouveau modèle d'IA de Bengio? Et protégera-t-il réellement le monde des dommages facilitées par l'IA?

Une AI «honnête»

En 2018, Bengio, aux côtés de ses collègues Yann LeCun et Geoffrey Hinton, a remporté le prix Turing pour des recherches révolutionnaires qu'ils avaient publiées trois ans plus tôt sur Deep Learning. Une branche de l'apprentissage automatique, Deep Learning tente d'imiter les processus du cerveau humain en utilisant des réseaux de neurones artificiels pour apprendre des données informatiques et faire des prédictions.

La nouvelle organisation à but non lucratif de Bengio, Lawzero, développe « Scientist AI ». Bengio a déclaré que ce modèle serait « honnête et non trompeur » et incorporer des principes de sécurité par conception.

Selon un article de préparation publié en ligne plus tôt cette année, l'IA scientifique diffère des systèmes d'IA actuels de deux manières clés.

Premièrement, il peut évaluer et communiquer son niveau de confiance dans ses réponses, contribuant à réduire le problème de l'IA donnant des réponses trop confiantes et incorrectes.

Deuxièmement, il peut expliquer son raisonnement aux humains, permettant d'évaluer et de tester ses conclusions pour la précision.

Fait intéressant, les systèmes d'IA plus anciens avaient cette fonctionnalité. Mais dans la ruée vers la vitesse et les nouvelles approches, de nombreux modèles d'IA modernes ne peuvent pas expliquer leurs décisions. Leurs développeurs ont sacrifié l'explication de la vitesse.

Bengio a également l'intention de « Scientist IA » à agir comme garde-corps contre l'IA dangereuse. Il pourrait surveiller d'autres systèmes d'IA moins fiables et moins nocifs – combattant essentiellement le feu avec le feu.

Il peut s'agir de la seule solution viable pour améliorer la sécurité de l'IA. Les humains ne peuvent pas surveiller correctement les systèmes tels que Chatgpt, qui gèrent plus d'un milliard de requêtes par jour. Seul une autre IA peut gérer cette échelle.

L'utilisation d'un système d'IA contre d'autres systèmes d'IA n'est pas seulement un concept de science-fiction – c'est une pratique courante dans la recherche pour comparer et tester différents niveaux d'intelligence dans les systèmes d'IA.

Ajout d'un «modèle mondial»

Les grands modèles de langue et l'apprentissage automatique ne sont que de petites parties du paysage d'IA d'aujourd'hui.

Un autre ajout clé de l'équipe de Bengio ajoute à Scientist IA est le « modèle mondial » qui apporte une certitude et une explication. Tout comme les humains prennent des décisions en fonction de leur compréhension du monde, l'IA a besoin d'un modèle similaire pour fonctionner efficacement.

L'absence d'un modèle mondial dans les modèles d'IA actuels est claire.

Un exemple bien connu est le «problème des mains»: la plupart des modèles d'IA d'aujourd'hui peuvent imiter l'apparence des mains mais ne peuvent pas reproduire les mouvements naturels de la main, car ils manquent de compréhension de la physique – un modèle mondial – pour eux.

Un autre exemple est la façon dont des modèles tels que Chatgpt luttent avec les échecs, ne gagnant pas et même en faisant des mouvements illégaux.

Ceci malgré les systèmes d'IA plus simples, qui contiennent un modèle du « monde » des échecs, battant même les meilleurs joueurs humains.

Ces problèmes découlent de l'absence d'un modèle mondial fondamental dans ces systèmes, qui ne sont pas conçus intrinsèquement pour modéliser la dynamique du monde réel.

Sur la bonne voie – mais ce sera cahoteux

Bengio est sur la bonne voie, visant à construire une IA plus sûre et plus fiable en combinant de grands modèles de langue avec d'autres technologies d'IA.

Cependant, son voyage ne sera pas facile. Le financement de 30 millions de dollars américains de Lawzero est faible par rapport à des efforts tels que le projet de 500 milliards de dollars américains annoncé par le président américain Donald Trump plus tôt cette année pour accélérer le développement de l'IA.

Rendre la tâche de Lawzero plus difficile est le fait que les scientifiques AI – comme tout autre projet d'IA – ne doivent pas être d'énormes quantités de données pour être puissantes, et la plupart des données sont contrôlées par les grandes entreprises technologiques.

Il y a aussi une question exceptionnelle. Même si Bengio peut construire un système d'IA qui fait tout ce qu'il dit, comment va-t-il pouvoir contrôler d'autres systèmes qui pourraient causer des dommages?

Pourtant, ce projet, avec des chercheurs talentueux derrière, pourrait déclencher un mouvement vers un avenir où l'IA aide vraiment les humains à prospérer. En cas de succès, cela pourrait définir de nouvelles attentes en matière d'IA en toute sécurité, motivant les chercheurs, les développeurs et les décideurs politiques à hiérarchiser la sécurité.

Peut-être que si nous avions pris des mesures similaires lorsque les médias sociaux ont émergé pour la première fois, nous aurions un environnement en ligne plus sûr pour la santé mentale des jeunes. Et peut-être que si les scientifiques IA avaient déjà été en place, cela aurait pu empêcher les personnes ayant des intentions nocives d'accéder à des informations dangereuses à l'aide de systèmes d'IA.