Les intelligences artificielles créatives vont encore tuer l'art.  Cela n'a aucune importance

douze points d’optimisme sur ChatGPT et l’avenir qui nous attend

1. GPT-4 est un artefact fabuleux, très étonnant. Moi qui ai suivi les grands modèles de langage presque depuis le début, je ne pensais pas qu’il en viendrait à à une telle qualité dans les réponses. Je pense que tout le monde est perplexe en voyant comment un système sémantique distribué fonctionne si bien. Cependant, malgré ce que cela peut paraître, nous sommes encore loin d’une intelligence artificielle généralisée. Si nous ouvrons le capot et voyons son fonctionnement interne, il s’agit d’un système de génération de texte statistique dans lequel il n’y a pas de pensée, de raisonnement ou de compréhension purement parlés. GPT-4 est très stupide et ses bonnes performances ne sont que l’apparence extérieure. Bien que l’analogie ne soit pas tout à fait complète, GPT-4 n’est pas loin d’être ELIZA de Weizenbaumun programme qui, dans les années soixante du siècle dernier, a également provoqué une battage publicitaire génial.

2. Mais en dépit d’être loin de la réalisation de l’intelligence artificielle générale, GPT-4 et ses homologues vont donner naissance à une série d’outils magnifiques qui, d’une manière générale, vont rendre nos vies bien meilleures, ce que la technologie a fait, Je réitère que, lato sensu, depuis le début des temps. Les avancées technologiques sont l’un des facteurs les plus déterminants de bien-être dont jouit l’humanité occidentale au XXIe siècle. Toute personne de la classe moyenne d’un pays développé vit mieux aujourd’hui qu’un roi médiéval. Et cela, je pense, justifie l’optimisme. Je parie (même si je reconnais que la tâche d’un futurologue est très complexe de nos jours) que les grands modèles linguistiques vont rendre le monde meilleur plutôt qu’empirer. Ne soyons pas technophobes à ce stade.

3. Les technologies de rupture ont toujours apporté une certaine incertitude. Personne ne savait ce que l’imprimerie, la machine à vapeur, l’électricité ou Internet allaient apporter, et beaucoup devenaient déjà apocalyptiques à cette époque. Ne faisons pas la même chose maintenant. Cela, bien sûr, n’implique pas que nous baissions nos défenses. Il faut que garder un œil attentif tout ce que font les grandes entreprises de la technologie, très attentifs à tous les mouvements laids qu’ils vont sans aucun doute essayer. Et il faut légiférer. Et même si nous savons déjà que, malheureusement, la législation est toujours loin derrière la technologie, nous devons le faire du mieux possible. Nous vivons une époque passionnante pour les avocats. Espérons qu’ils soient à la hauteur.

4. le plus connu lettre de Institut du futur de la vie demander un moratoire de six mois sur le développement de systèmes supérieurs au GT-4 est un trinquer au soleil. Personne ne croit que la course à la suprématie de l’IA va s’arrêter ne serait-ce qu’une minute. Aussi, six mois ? Six mois suffiront-ils pour tout réparer ? Et pourquoi pas un an ou dix ? De plus, il existe de nombreuses autres technologies (sinon presque toutes) dont nous ignorons leur potentiel nocif futur. Nous avons nos enfants complètement accros aux réseaux sociaux, pourquoi pas un moratoire là-bas ? Un moratoire sur TikTok, Spotify, Roblox, HBO… ?

5. Je trouve drôle qu’il parle de la façon dont nous pouvons perdre le contrôle de la civilisation. C’est une idée qui revient beaucoup quand on parle de la singularité technologique, mais si on y réfléchit : est-ce que nous avons déjà la maîtrise de la civilisation ? Qui a ce contrôle ? Il est vrai qu’il y a des sphères qui ont beaucoup plus de pouvoir que d’autres, mais dire qu’il y a quelque chose ou quelqu’un qui contrôle le cours des événements est d’une naïveté étonnante. Le pouvoir dans le monde, heureusement, est assez décentralisé. Justement, les derniers événements mondiaux : Trump, Brexit, Covid, guerre ukrainienne… il y a eu des cygnes noirs clairs, des événements complètement imprévisibles, est-ce que quelqu’un avait le contrôle sur tous ces événements ? Alors qui perdra le contrôle lorsque l’IA prendra le relais ? Elon Musk? Fait intéressant (ou pas tellement), Musk signe la lettre en même temps que appuyer sur l’accélérateur dans l’IA de Twitter.

"Peut-être le projet le plus important de l'histoire de l'humanité": pourquoi OpenAI réfléchit déjà aux risques des AGI

6. Il commet également l’erreur de penser qu’une IA, une entité unique, sera celle qui prendra le contrôle. Qui? Celui d’OpenAI, celui de DeepMind, celui de Meta peut-être ? Ceux que la Chine développe ? Les intelligences artificielles y sont nombreuses et très diverses. En fait, n’importe quel logiciel sur votre ordinateur ou votre smartphone effectue des tâches qui, si nous les voyions comme des humains, nous dirions qu’ils sont intelligents. Par conséquent, chacun d’entre nous a des intelligences artificielles entre les mains. L’un d’eux sera-t-il celui qui mènera la rébellion ? Il est curieux de voir comment la science-fiction s’est installée dans le cerveau de personnes qui doivent prendre des décisions importantes qui nous concernent tous. Sérieusement, vraiment, répétons tous : les machines ils ne vont pas se rebelleril n’y aura pas de guerre finale contre eux ni d’apocalypse d’aucune sorte. Terminateur soit matrice ce sont des films de fiction, pas des prévisions fondées sur des preuves.

(Déséclabousser)

7. La lettre appelle à ce que ces systèmes soient « précis, sécurisés, interprétables, transparents, robustes, alignés, dignes de confiance et loyaux ». Je pense que la précision, la sécurité, l’interprétabilité, la transparence et la robustesse est quelque chose qui est déjà exigé de tout logiciel et qui n’est pas atteint : je n’ai pas accès au code source de Windows… Mais ce que je trouve le plus drôle, c’est qu’ils le sont  » aligné, fiable et loyal », des vertus que je demanderais plus à un animal de compagnie qu’à un logiciel. Nick Bostrom parle dans son insupportable, mais souvent cité, superintelligence (l’un des pires livres écrits que j’ai jamais eu le déplaisir de lire) qu’il est important que nous construisions des esprits dont les valeurs éthiques être aligné avec le nôtre. C’est encore une autre connerie de science-fiction. Est-ce que quelqu’un va commencer à programmer un logiciel psychopathe et le mettre en position de prendre des décisions importantes ? Sur un siège au Parlement ? Quand on a mis des systèmes de réseaux de neurones pour prendre des décisions et qu’il s’avère qu’ils ont eu des préjugés racistes, homophobes ou sexistes, on est vite passé à le corriger. Pensons-nous vraiment à des machines qui, ayant des valeurs éthiques différentes des nôtres, allez-vous choisir pour nous exterminer ? Sérieusement, si une superintelligence cosmique apparaît, la première chose à laquelle elle pensera sera notre extermination ? Étant si intelligent, ne va-t-il pas penser à autre chose ? Aussi, quel alignement ? L’éthique des experts du MIT AI ? Ou les moines bouddhistes du Tibet ? Ou les Touaregs du Maghreb ? Existe-t-il un alignement éthique universel ?

8. Il tombe tout le temps dans le familier sophisme de la pente glissante. Cela consiste à enchaîner des événements sans lien avéré qui, au final, nous mèneront à un terrible. La succession sera ainsi : l’IA avance remarquablement, l’IA égalera et surpassera l’homme, l’IA prendra le contrôle, l’IA nous exterminera. Il n’y a aucun lien avéré qui justifie qu’aucun de ces événements ne soit la cause du suivant. J’aimerais qu’ils expliquent clairement les étapes inévitables de la conception d’un chatbot au moment où il prend le contrôle de la civilisation et nous anéantit.

ChatGPT peut également être utilisé pour faire du napalm ou télécharger des films : il vous suffit de profiter de la "exploits"

9. Ce sur quoi je suis d’accord dans la lettre, c’est qu’il me semble que nous ne devrions pas laisser la prise de décision qui nous affectera tous uniquement entre les mains des deux ou trois PDG des géants technologiques. Aussi gentil que puisse paraître Sam Altman, personne ne l’a élu démocratiquement. Je veux que les élus politiques soient ceux qui décident de l’avenir. C’est pourquoi il est très bien qu’Open IA, bien qu’il n’ait pas rendu son fonctionnement public (les deux articles techniques que vous avez fournis ne nous donnent pas d’informations pertinentes sur son architecture, sa formation, son matériel, etc.), ait fait l’utilisation de ChatGPT publique. . Nous avons tous pu l’utiliser et maintenant nous discutons de ses utilisations futures. Le débat public atteint des quotas importants, et cela, chers amis, c’est la démocratie. Une grande partie de ce qui est dit imprègnera l’esprit des politiciens et des gourous de l’industrie, et ils agiront en conséquence. C’est une très bonne nouvelle.

(Déséclabousser)

dix. L’Italie a complètement tort. Il est vrai qu’il faut vérifier si ces modèles violent la loi sur la protection des données et vont dans ce sens, mais sans aller jusqu’à interdire, surtout en ce moment. Mais c’est le triste rôle que l’Europe semble jouer dans le domaine de l’IA. Il a complètement pris du retard dans la course et il semble qu’il ne puisse jouer qu’au flic grincheux. C’est pas mal qu’il y ait un policier grincheux, c’est bien nécessaire, le mal c’est que ce n’est que ça.

onze. Je ne comprends pas comment le journal Time a donné de l’espace aux folies d’Eliezer Yudkowsky. Cet homme, se prenant pour Sarah Connor, dit que puisque l’IA va causer la fin de l’humanité, nous devrions bombarder les centres de données dans n’importe quel pays, même si cela mène à une guerre nucléaire. Les médias ont la responsabilité d’établir un minimum de ce qui est publiable et de ce qui ne l’est pas, et je pensais qu’un journal comme Time les aurait. À partir de là, j’encourage les médias à ne pas publier d’ordures, voyons si le moratoire de six mois devra être dirigé vers le journalisme.

12. Ce dont tu dois t’inquiéter, c’est problèmes actuels: protection des données, droit d’auteur, biais discriminatoires, cybersécurité, fake news, usages militaires, etc. En d’autres termes, nous devons maintenir la vigilance démocratique classique qui doit être exercée sur toute évolution technologique, tout comme nous le faisons avec les médicaments ou le recyclage des déchets. Toute technologie a toujours eu une face B, elle a toujours eu un possible usage pervers. Ce que vous avez à faire, c’est l’habituel : l’éducation et la législation. Je veux que les ingénieurs d’OpenAI aient été éduqués avec de bonnes valeurs morales et je veux un bon cadre législatif qui empêche les abus. C’est là que nous devons être et ne pas combattre Skynet.

Image | Sanket Mishra/Unsplash

À Simseo | Les intelligences artificielles créatives vont encore tuer l’art. Cela n’a aucune importance