Certains considèrent l’IA comme une menace potentielle. L'ancien PDG de Google a une idée pour l'éviter : pouvoir le « débrancher »
Dans « 2001 : L'Odyssée de l'espace », le protagoniste, Dave Bowman, a fini par « débrancher » HAL 9000, l'ordinateur intelligent qui contrôlait son vaisseau et qui avait tué presque tout son équipage. Le film semble refléter précisément un scénario aujourd'hui ramené au présent par Eric Schmidt, ancien PDG de Google.
Merveilleux et dangereux à parts égales. Schmidt a une vision partagée de l’IA. D’une part, il semble clair qu’il ne faut pas arrêter son développement car, en bref, « de toute façon, nous n’atteindrons jamais les objectifs climatiques ». Cela ne l'empêche pas de croire également que cette évolution pourrait finir par présenter des risques pour l'avenir, même s'il a une idée pour les résoudre.
Débranchez l'IA. Comme indiqué dans Axios, Schmidt a été interviewé sur le réseau nord-américain ABC. Il y a indiqué que « je n'ai jamais vu d'innovation à cette échelle », et a noté que si un système informatique atteint un point où il peut s'auto-améliorer, « nous devons sérieusement réfléchir à le débrancher ».
Attention aux machines qui ne veulent pas être débranchées. Selon l'ancien PDG de Google, « nous aurons bientôt des ordinateurs fonctionnant tout seuls, décidant de ce qu'ils veulent faire ». L'intervieweur d'ABC, George Stephanopoulos, a demandé à Schmidt si un système d'IA vraiment puissant pouvait l'empêcher d'être déconnecté. « En théorie, il vaudrait mieux avoir quelqu'un avec la main sur la prise. »
Des mathématiciens à votre service. Pour Schmidt, le développement de l’IA générative est énorme, et il estime que « tout le monde va avoir l’équivalent d’un mathématicien dans sa poche ». Cela signifie que sur notre mobile, nous disposerons d'un système d'IA capable d'offrir toutes sortes de connaissances avancées dans des domaines tels que la science, l'art, l'histoire ou la technologie. Léonard de Vinci ou Benjamin Franklin sont par exemple considérés comme des mathématiciens.
Les entreprises d'IA n'ont pas assez de barrières. En novembre 2023, Schmidt a accordé une interview à Axios dans laquelle il expliquait qu'actuellement les entreprises qui développent ces systèmes ne sont pas prêtes à éviter ces risques. Il a parlé de systèmes qui, par exemple, peuvent découvrir comment accéder aux systèmes d'armes. Il y a deux ans, on pensait que cela arriverait dans une vingtaine d’années. Schmidt a prédit que de tels systèmes avancés arriveraient dans les deux à quatre prochaines années.
Si un système informatique atteint un point où il peut s'améliorer, a noté Schmidt, « nous devons sérieusement réfléchir à la possibilité de le débrancher ».
Peut-être qu'une IA peut superviser les IA. S’il pouvait contrôler le développement de l’IA, il ferait deux choses. La première consiste à stimuler le développement de l’IA dans le monde occidental pour « garantir que l’Occident gagne ». Deuxièmement, identifiez les pires cas de développement possibles et construisez un deuxième système d’IA qui surveille le premier. « Les humains ne seront pas capables de contrôler l'IA. Mais les systèmes d'IA devraient le pouvoir. »
L'IA pour les conflits de guerre. Pendant ce temps, Schmidt travaille à la création d'une startup appelée White Stork qui a fourni à l'Ukraine des drones utilisant l'IA de « manières compliquées et puissantes ».
Et la réglementation, quoi ? La réglementation de l’IA devrait précisément tenter d’éviter la plupart des risques. La loi européenne sur l’IA entrée en vigueur le 1er août 2024 est la première tentative de la réglementer et d’atténuer ces problèmes. Elle définit plusieurs groupes de systèmes, le plus dangereux étant celui classé « à haut risque ». C'est-à-dire des systèmes qui peuvent « avoir un effet préjudiciable important sur la santé, la sécurité et les droits fondamentaux des personnes ». La définition n’inclut pas les systèmes de vidéosurveillance de masse par exemple et reste quelque peu subjective, mais elle constitue certainement un pas dans la bonne direction. La question, bien sûr, est de savoir si cela sera suffisant ou si nous aurons besoin d’une méthode physique pour « débrancher » l’IA.
D'autres qualifient la menace d' »absurdement ridicule ».. Si certains experts et personnalités se sont montrés préoccupés par l’évolution de l’IA, d’autres excluent une telle possibilité. L'un des plus insistants sur une vision optimiste est Yann LeCun, responsable de l'IA chez Meta, qui a expliqué que la menace de l'IA pour l'humanité est « absurdement ridicule ».
Images | Charles Haynes | Warner Bros.
À Simseo | Comment garantir que l’intelligence artificielle ne devienne pas incontrôlable