Comment l’IA et le big data pourraient sauver les sociétés pétrolières et gazières des crises

Le gouverneur de Californie a bloqué des lois historiques sur la sécurité de l'IA. Voici pourquoi il s'agit d'une décision si importante pour l'avenir de l'IA dans le monde

Dans un monde où l’intelligence artificielle façonne rapidement l’avenir, la Californie se trouve à un tournant critique. Le gouverneur de l'État américain, Gavin Newsom, a récemment bloqué un projet de loi clé sur la sécurité de l'IA visant à renforcer la réglementation sur le développement de l'IA générative.

La loi sur l'innovation sûre et sécurisée pour les modèles d'intelligence artificielle frontalière (SB 1047) a été considérée par beaucoup comme une garantie nécessaire au développement de la technologie. L'IA générative couvre les systèmes qui produisent du nouveau contenu sous forme de texte, de vidéo, d'images et de musique, souvent en réponse à des questions, ou « invites », d'un utilisateur.

Mais Newsom a déclaré que le projet de loi risquait de « restreindre l’innovation même qui alimente le progrès en faveur du bien public ». Tout en reconnaissant que le public doit être protégé contre les menaces posées par la technologie, il a fait valoir que le SB 1047 n'était pas « la meilleure approche ».

Ce qui se passe en Californie est si important parce que c’est le siège de la Silicon Valley. Parmi les 50 plus grandes entreprises mondiales d’IA, 32 ont actuellement leur siège social dans l’État. Le législateur californien a donc un rôle unique à jouer dans les efforts visant à garantir la sécurité des technologies basées sur l'IA.

Mais la décision de Newsom reflète également une question plus profonde : l'innovation et la sécurité peuvent-elles véritablement coexister, ou devons-nous sacrifier l'une pour faire progresser l'autre ?

L'industrie technologique californienne contribue à hauteur de milliards de dollars à l'économie de l'État et génère des milliers d'emplois. Newsom, aux côtés d'investisseurs technologiques de premier plan tels que Marc Andreessen, estime qu'un trop grand nombre de réglementations pourrait ralentir la croissance de l'IA. Andreessen a salué le veto, affirmant qu'il soutient « la croissance économique et la liberté » plutôt qu'une prudence excessive.

Cependant, l’évolution rapide des technologies d’IA pourrait entraîner de graves risques, allant de la propagation de la désinformation à la possibilité de cyberattaques sophistiquées susceptibles de nuire à la société. L’un des défis majeurs consiste à comprendre à quel point les systèmes d’IA actuels sont devenus puissants.

Les modèles d'IA générative, comme le GPT-4 d'OpenAI, sont capables de raisonnements complexes et peuvent produire un texte de type humain. L’IA peut également créer de fausses images et vidéos incroyablement réalistes, connues sous le nom de deepfakes, qui peuvent potentiellement saper la confiance dans les médias et perturber les élections. Par exemple, des vidéos deepfakes de personnalités publiques pourraient être utilisées pour diffuser de la désinformation, entraînant confusion et méfiance.

La désinformation générée par l’IA pourrait également être utilisée pour manipuler les marchés financiers ou inciter à des troubles sociaux. Ce qui est troublant, c’est que personne ne sait exactement ce qui va suivre. Ces technologies ouvrent la porte à l’innovation, mais sans une réglementation appropriée, les outils d’IA pourraient être utilisés à mauvais escient d’une manière difficile à prévoir ou à contrôler.

Les méthodes traditionnelles de test et de réglementation des logiciels ne sont pas à la hauteur des outils d’IA générative capables de créer des images ou des vidéos artificielles. Ces systèmes évoluent d'une manière que même leurs créateurs ne peuvent pas entièrement anticiper, surtout après avoir été formés sur de grandes quantités de données provenant d'interactions avec des millions de personnes, comme ChatGPT.

Le SB 1047 a cherché à répondre à cette préoccupation en exigeant que les entreprises mettent en œuvre des « killswitches » dans leur logiciel d'IA, capables de désactiver la technologie en cas de problème. La loi les aurait également obligés à créer des plans de sécurité détaillés pour tout projet d’IA doté d’un budget supérieur à 100 millions de dollars (77,2 millions de livres sterling).

Les critiques ont déclaré que le projet de loi était trop large, ce qui signifie qu'il pourrait affecter même des projets à moindre risque. Mais son objectif principal était de mettre en place des protections de base dans un secteur qui évolue sans doute plus rapidement que les législateurs ne peuvent suivre.

La Californie, leader mondial

Ce que décide la Californie pourrait affecter le monde. En tant que leader technologique mondial, l’approche de l’État en matière de réglementation de l’IA pourrait établir une norme pour d’autres pays, comme il l’a fait dans le passé. Par exemple, le leadership de la Californie dans l'établissement de normes strictes en matière d'émissions de véhicules par le biais du California Consumer Privacy Act (CCPA) et sa réglementation précoce des voitures autonomes ont incité d'autres États et pays à adopter des mesures similaires.

Mais en opposant son veto au SB 1047, la Californie a peut-être envoyé le message qu'elle n'est pas prête à montrer la voie en matière de réglementation de l'IA. Cela pourrait laisser la possibilité à d’autres pays d’intervenir – des pays qui ne se soucient peut-être pas autant que les États-Unis de l’éthique et de la sécurité publique.

Le PDG de Tesla, Elon Musk, avait prudemment soutenu le projet de loi, reconnaissant que même s'il s'agissait d'une « décision difficile », c'était probablement une bonne idée. Sa position montre que même les initiés de la technologie reconnaissent les risques que pose l’IA. Cela pourrait indiquer que l’industrie est prête à travailler avec les décideurs politiques sur la meilleure façon de réglementer ce nouveau type de technologie.

L’idée selon laquelle la réglementation étouffe automatiquement l’innovation est trompeuse. Des lois efficaces peuvent créer un cadre qui non seulement protège les personnes, mais permet également à l’IA de se développer de manière durable. Par exemple, les réglementations peuvent contribuer à garantir que les systèmes d’IA sont développés de manière responsable, en tenant compte de la confidentialité, de l’équité et de la transparence. Cela peut renforcer la confiance du public, essentielle à l’adoption généralisée des technologies d’IA.

L’avenir de l’IA ne doit pas nécessairement être un choix entre innovation et sécurité. En mettant en œuvre des mesures de protection raisonnables, nous pouvons libérer tout le potentiel de l’IA tout en assurant la sécurité de la société. L’engagement du public est crucial dans ce processus. Les gens doivent être informés des capacités et des risques de l’IA pour participer à l’élaboration de politiques qui reflètent les valeurs de la société.

Les enjeux sont importants et l’IA progresse rapidement. Il est temps d’agir de manière proactive pour garantir que nous profitons des avantages de l’IA sans compromettre notre sécurité. Mais le rejet par la Californie du projet de loi sur l'IA soulève également une question plus large sur le pouvoir et l'influence croissants des entreprises technologiques, étant donné qu'elles ont soulevé des objections qui ont ensuite conduit à son veto.