Le nouveau décret de Biden sur l'IA devrait dynamiser la Silicon Valley

Le nouveau décret de Biden sur l’IA devrait dynamiser la Silicon Valley

Un long décret sur l’intelligence artificielle signé lundi par le président Joe Biden devrait donner un élan important au développement de l’IA dans la Silicon Valley.

Les experts de la Bay Area affirment que les lignes directrices et la surveillance gouvernementale promises dans l’ordonnance, un énorme document de 20 000 mots, donneront confiance à un nombre important de clients professionnels potentiels qui n’ont pas encore adopté la technologie, que les entreprises de la Silicon Valley ont furieusement développée.

Des organisations de pratiquement tous types ont « donné un coup de pied » à la technologie, mais retardent son adoption en raison de problèmes de sûreté et de sécurité, et les revenus provenant de la vente de la technologie de l’IA ont été faibles, a déclaré Chon Tang, investisseur en capital-risque et associé général chez SkyDeck, l’accélérateur de startups de l’UC Berkeley. La confiance suscitée par l’ordre du président changera probablement cela, a déclaré Tang.

« Vous allez vraiment voir des hôpitaux, des banques, des compagnies d’assurance et des entreprises de toutes sortes dire : ‘OK, je comprends maintenant' », a déclaré Tang. « Cela va être un moteur important pour une véritable adoption et j’espère certainement une réelle création de valeur. »

Dans cet ordre, Biden a déclaré que le gouvernement fédéral devait « ouvrir la voie au progrès sociétal, économique et technologique mondial », comme il l’avait fait « au cours des époques précédentes d’innovation et de changement perturbateurs ».

« Un leadership efficace signifie également être pionnier dans les systèmes et les garanties nécessaires au déploiement de la technologie de manière responsable, et construire et promouvoir ces garanties auprès du reste du monde », indique l’ordre.

Google, dans un communiqué, a déclaré qu’il réexaminait l’ordonnance et qu’il était « confiant que nos pratiques de longue date en matière de responsabilité en matière d’IA s’aligneraient sur ses principes ». « Nous sommes impatients de collaborer de manière constructive avec les agences gouvernementales pour maximiser le potentiel de l’IA, notamment en rendant les services gouvernementaux meilleurs, plus rapides et plus sécurisés », a déclaré la société.

La croissance explosive de cette technologie de pointe – avec 74 sociétés d’IA, dont beaucoup dans la Silicon Valley, atteignant des valeurs de 100 millions de dollars ou plus depuis 2022 selon la société de données PitchBook – a suivi peu de temps après la sortie tardive d’un logiciel « génératif » révolutionnaire par OpenAI de San Francisco. l’année dernière. Cette technologie a suscité un battage médiatique et des craintes dans le monde entier quant à son potentiel à transformer radicalement les affaires et l’emploi, et à être exploitée par de mauvais acteurs pour dynamiser la fraude, la désinformation et même le terrorisme biologique.

Avec les progrès rapides de la technologie, des mesures ont été prises pour la superviser et la maîtriser, comme le décret du gouverneur de Californie, Gavin Newsom, le mois dernier, ordonnant aux agences d’État d’analyser les menaces et les avantages potentiels de l’IA.

L’ordonnance de Biden, avec ses instructions aux agences fédérales sur la manière de superviser et d’encourager le développement et l’utilisation responsables de l’IA, marque la reconnaissance du fait que l’IA « va fondamentalement changer notre économie et peut-être changer notre mode de vie », a déclaré Ahmad Thomas, PDG de le groupe de leadership de la Silicon Valley.

« Alors que nous voyons dans la vallée des investisseurs en capital-risque et des innovateurs qui ont plusieurs longueurs d’avance sur les entités gouvernementales, ce que nous constatons, c’est… la reconnaissance par la Maison Blanche que le gouvernement doit rattraper son retard », a-t-il déclaré.

La représentante américaine Zoe Lofgren, démocrate de Californie, a applaudi l’intention du décret, mais a noté qu’un décret ne peut pas garantir que tous les acteurs de l’IA suivent les directives. « Le Congrès doit envisager de nouvelles réglementations pour protéger les Américains contre les dommages démontrables causés par les systèmes d’IA », a déclaré Lofgren.

Cette ordonnance de grande envergure comprend des lignes directrices et des garde-fous destinés à protéger les données personnelles, les travailleurs contre le déplacement par l’IA et à protéger les citoyens contre la fraude, les préjugés et les atteintes à la vie privée. Il cherche également à promouvoir la sécurité dans les domaines de la biotechnologie, de la cybersécurité, des infrastructures critiques et de la sécurité nationale, tout en empêchant les violations des droits civiques dues à la « discrimination algorithmique ».

L’ordonnance oblige les entreprises qui développent des modèles d’IA qui posent « un risque sérieux pour la sécurité nationale, la sécurité économique nationale ou la santé et la sécurité publiques nationales » à partager les résultats des tests de sécurité avec le gouvernement fédéral. Cela oblige également les agences fédérales à étudier les questions de droits d’auteur qui ont donné lieu à une série de poursuites judiciaires concernant l’utilisation de l’art, de la musique, des livres, des médias d’information et d’autres sources pour former des modèles d’IA, et à recommander des garanties en matière de droits d’auteur.

Pour les entreprises et les startups de la Silicon Valley développant cette technologie, on peut s’attendre à ce que les mesures de protection « ralentissent un peu les choses » à mesure que les entreprises développent des processus pour s’adapter et suivre les directives, a déclaré Nat Natraj, PDG de la société de sécurité cloud de Cupertino, AccuKnox. Mais des protections similaires qui ont eu un impact sur les premiers systèmes de sécurité Internet ont également permis à l’adoption et à l’utilisation d’Internet de se développer considérablement.

Les effets les plus notables sur le développement de l’IA proviendront probablement des exigences que les agences fédérales doivent imposer aux sous-traitants gouvernementaux utilisant cette technologie, a déclaré Emily Bender, directrice du laboratoire de linguistique computationnelle de l’Université de Washington.

Le mandat de l’ordonnance, confié aux agences gouvernementales, d’explorer l’identification et le marquage du « contenu synthétique » généré par l’IA – une question qui a suscité l’inquiétude quant au potentiel de tout, des vidéos sexuelles sur des enfants à l’usurpation d’identité de personnes ordinaires et de personnalités politiques à des fins de fraude et de diffamation – pourrait produire des résultats importants, a déclaré Bender.

Le gouvernement fédéral devrait insister sur la transparence de la part des entreprises – et de ses propres agences – sur leur utilisation de l’IA, les données qu’elles utilisent pour la créer et les impacts environnementaux du développement de l’IA, depuis la production de carbone et la consommation d’eau jusqu’à l’extraction de matériaux pour puces, a déclaré Bender. dit.

En l’absence de règles liées aux contrats fédéraux, on ne peut pas faire confiance aux entreprises technologiques pour adhérer volontairement aux normes, a déclaré Bender. « Les grandes entreprises technologiques ont clairement indiqué qu’elles privilégieraient à chaque fois les profits plutôt que les impacts sociétaux », a déclaré Bender.

La réglementation pourrait donner un avantage significatif aux principaux acteurs de l’IA qui ont l’argent pour se conformer, et laisser derrière elles les petites entreprises et celles qui créent des produits open source, a déclaré Tang, partenaire de l’accélérateur de startups de l’UC Berkeley. Une solution serait d’imposer des réglementations à quiconque monétise un produit d’IA, a déclaré Tang.

« C’est un très bon début pour ce qui sera un long voyage », a déclaré Tang. « J’attends de voir ce qui se passera ensuite. »