Qu’est-ce que la Silicon Valley va déchaîner sur le monde cette fois ?
Emplois. Nouvelles. Art. Démocratie. Égalité. Éducation. Confidentialité. Vérité. Votre compte bancaire. Tous seront impactés par la dernière création de la Silicon Valley : l’intelligence artificielle « générative ».
Avec de nouveaux chatbots et des logiciels d’intelligence artificielle qui génèrent du texte, des images et du son, les entreprises technologiques ont ouvert la boîte de Pandore, selon les experts, libérant un outil puissant capable de changer profondément pratiquement tous les aspects de la vie et de le mettre entre les mains de chacun. de nous, constructeurs et destructeurs.
L’industrie technologique de la Silicon Valley, célèbre pour sa philosophie de mouvement rapide et de rupture, s’est lancée dans une course aux armements pour monétiser la technologie transformatrice et potentiellement destructrice. Beaucoup de ceux qui sont au milieu de la vague s’inquiètent des dangers – attendus et inattendus – qui les attendent.
Un marché de l’IA générative n’existait pas il y a quelques mois à peine. Puis à la fin de l’année dernière, OpenAI de San Francisco a publié une superbe itération de son bot ChatGPT, qui a progressé si rapidement que les gens dans de nombreux cas ne peuvent pas faire la distinction entre ce qui est produit par un humain ou généré par un bot.
Aujourd’hui, même bon nombre des plus fervents partisans du progrès technologique craignent que cette fois-ci, la technologie ne vienne tout casser.
« Tout le monde devrait faire attention », a déclaré Chon Tang, capital-risqueur et associé général de SkyDeck, l’accélérateur de startups de l’UC Berkeley. « Ce n’est pas un nouveau jouet. Ce n’est pas une mode. Ce ne sont pas des VC qui cherchent à attirer l’attention et des fondateurs qui essaient de créer un battage médiatique. C’est un événement qui change la société et les espèces. Je suis enthousiasmé par cette technologie, mais les inconvénients sont tellement immenses. Nous avons libéré des forces que nous ne comprenons pas.
La Maison Blanche a récemment sonné l’alarme sur les « risques potentiels de l’IA pour les individus et la société qui ne se sont peut-être pas encore manifestés », et a exhorté à la responsabilité et à la protection de la sécurité des consommateurs.
La technologie utilise une informatique sophistiquée, mais ses concepts de base sont simples : le logiciel est « formé » à travers des flux d’informations – à partir de sources de données telles que Wikipedia, des articles scientifiques, des brevets, des livres, des reportages, des photos, des vidéos, de l’art, de la musique, des voix et même sorties d’IA précédentes et potentiellement problématiques, dont une grande partie est protégée par des droits d’auteur et extraite d’Internet sans autorisation. Le chatbot crache ensuite des résultats basés sur des « invites » de l’utilisateur.
Les chatbots peuvent rédiger un dissertation, une copie de marketing d’entreprise ou un reportage. Ils peuvent mener des recherches, examiner des contrats, assurer le service client, créer des sites Web, créer des graphismes, écrire du code, créer une « photographie » d’un candidat au Congrès fumant de la méthamphétamine ou une vidéo truquée de votre partenaire ayant des relations sexuelles avec votre voisin.
Un bot peut copier la voix de quelqu’un à partir d’un clip vidéo sur les réseaux sociaux afin qu’un escroc puisse appeler ses grands-parents avec une demande désespérée d’argent, créer une fausse association caritative présentant des images déchirantes à la suite d’une catastrophe majeure, ou inciter quelqu’un à investir dans des projets inexistants. actions.
Pour l’instant, l’IA générative produit souvent des résultats inexacts. Il ne peut pas comprendre l’émotion ou la nuance, et n’a pas le bon sens pour comprendre, par exemple avec ChatGPT, qu’un livre ne peut pas tomber d’une étagère parce qu’il « a perdu son équilibre ».
Microsoft, dans le cadre d’un accord de plusieurs milliards de dollars avec OpenAI, a transformé son moteur de recherche Bing en chatbot, et Google a du mal à rattraper son Bard en développement. De nouveaux robots arrivent chaque jour, avec presque toutes les fonctions imaginables, de la transformation de données en graphiques à l’obtention de conseils sur l’élevage de chiots, en passant par la recherche sur le Web du contenu nécessaire à la création d’une application.
Des chercheurs de l’Université Carnegie Mellon ont récemment averti dans un article que l’IA générative pourrait produire des recettes d’armes chimiques et de drogues addictives.
Les inquiétudes concernant l’IA générative viennent également de l’intérieur de la maison : « Des conséquences imprévues », a récemment déclaré le bot ChatGPT à cette agence de presse interrogée sur son avenir, « pourraient avoir des impacts négatifs sur les personnes, la société ou l’environnement ».
Impacts négatifs, bot ? Discrimination dans l’embauche ou le prêt, dit-il. Désinformation et propagande nuisibles, a-t-il déclaré. Perte d’emploi. Inégalité. Changement climatique accéléré.
Interrogez le gourou de la startup de la Silicon Valley, Steve Blank, sur l’IA générative et il commencera à parler d’armes nucléaires, de génie génétique et de virus mortels créés en laboratoire. Ensuite, il vous parlera de chercheurs d’il y a longtemps qui ont vu des catastrophes potentielles à cause de ces technologies et ont freiné jusqu’à ce que les barrières de sécurité puissent se lever. Et il vous dira ce qui est différent maintenant.
« Cette technologie n’est pas pilotée par des chercheurs scientifiques, elle est pilotée par des entreprises à but lucratif », a déclaré Blank, professeur auxiliaire de sciences de gestion et d’ingénierie à l’Université de Stanford. « Si les cheveux ne se dressent pas à l’arrière de votre cou après avoir regardé cette chose, vous ne comprenez pas ce qui vient de se passer. »
L’histoire de la Silicon Valley avec les médias sociaux – donnant la priorité aux revenus, à la croissance rapide et à la part de marché, avec trop peu de considération pour les retombées néfastes – n’augure rien de bon pour son approche de l’IA générative, a déclaré Blank. « La morale et l’éthique ne sont pas en tête de liste, et au diable les conséquences imprévues », a déclaré Blank. « C’est un peu le truc ultime de la vallée. Je serais énervé si j’étais dans le reste de la société. »
Des inquiétudes vides concernant les pertes d’emplois et la militarisation de l’IA par les gouvernements, et surtout, étant donné le rythme fulgurant de l’évolution de la technologie, que « nous ne savons pas ce que nous ne savons pas », a-t-il déclaré. « Où sera ce truc dans 10 ans ? »
Le PDG de Google, Sundar Pichai, a promis dans une interview au New York Times le mois dernier que dans la course aux armements de l’IA, « vous nous verrez être audacieux et expédier des choses », cependant, « nous allons être très responsables dans la façon dont nous le faisons ». Mais la Silicon Valley a l’habitude d’expédier des produits audacieux qui ont fini par être liés aux troubles de l’alimentation, à l’ingérence étrangère dans les élections américaines, à l’insurrection nationale et au génocide – et Pichai a refusé de s’engager à ralentir le développement de l’IA de Google.
« Les grandes entreprises craignent d’être laissées pour compte et dépassées par les petites entreprises ; les petites entreprises prennent de plus grands risques », a déclaré Irina Raicu, directrice du programme d’éthique Internet à l’université de Santa Clara.
Une lettre ouverte le mois dernier de sommités du monde de la technologie, dont le co-fondateur d’Apple Steve Wozniak et Tesla, SpaceX et le PDG de Twitter, Elon Musk, a fait part de ses inquiétudes quant au fait que l’IA générative pourrait « inonder nos canaux d’information de propagande et de contrevérité » et « automatiser tous les emplois, » mais il a reçu le plus d’attention pour avoir mis en évidence les futurs « esprits non humains » qui pourraient « nous déjouer, nous obsolètes et nous remplacer ».
Emily Bender, directrice du laboratoire de linguistique computationnelle de l’Université de Washington, a déclaré que les craintes de la lettre concernant une « intelligence générale artificielle » ressemblant à Skynet des films « Terminator » ne sont « pas ce dont nous parlons dans le monde réel ». Bender a plutôt noté que les données récupérées pour les robots IA contiennent souvent des informations biaisées ou incorrectes, et parfois des informations erronées. « S’il y a quelque chose de nocif dans ce que vous avez automatisé, alors ce mal peut être mis à l’échelle », a déclaré Bender. « Vous polluez l’écosystème de l’information. Il devient plus difficile de trouver des sources fiables. »
L’énorme pouvoir de l’IA générative a soudainement été confié à de mauvais acteurs qui peuvent l’utiliser pour créer des campagnes de phishing difficiles à arrêter ou pour créer des ransomwares, faisant planer le spectre d’attaques catastrophiques contre les entreprises et les gouvernements, a déclaré Raicu.
Pourtant, de nombreux critiques de l’IA générative reconnaissent également ses dons. « J’ai vraiment eu du mal à penser à une seule industrie qui ne serait pas en mesure d’obtenir une valeur énorme parce que si c’était le cas », a déclaré le capital-risqueur Tang.
Greg Kogan, responsable du marketing chez Pinecone, société de recherche de bases de données à San Francisco, a déclaré que des entreprises d’une grande variété d’industries développaient l’IA générative ou l’intégraient dans des produits et services, entraînant une croissance « explosive » chez Pinecone. « Tous les PDG et CTO dans le monde se demandent : ‘Comment attrapons-nous cet éclair dans une bouteille et l’utilisons-nous ?’ « , a déclaré Kogan. « Au début, les gens étaient excités. Puis c’est devenu une chose existentielle où c’est comme, ‘Si nous ne le faisons pas d’abord, nos concurrents vont lancer un produit.’ « La Silicon Valley, des startups aux géants comme Apple, a lancé une vague d’embauches de travailleurs dotés de compétences en IA générative.
Tang pense que l’ingénierie et la réglementation peuvent atténuer la plupart des dommages causés par la technologie, mais il reste profondément préoccupé par les logiciels malveillants imparables et auto-propagatifs qui sèment un chaos dévastateur dans le monde entier et par l’automatisation d’un grand nombre de tâches et d’emplois. « Qu’advient-il de ces 20 %, 50 % ou 70 % de la population qui ont économiquement moins de valeur qu’une machine ? » a demandé Tang. « Comment pouvons-nous, en tant que société, absorber, soutenir ce segment massif de la population? »