Aleph Alpha est la société européenne d'IA la plus avancée.  Et il a tout pour devenir notre OpenAI

L’avertissement d’Altman concernant la réglementation de l’UE

Ces derniers jours, il y a eu de nombreux mouvements autour du lancement d’une série d’initiatives pour réguler l’intelligence artificielle. Sam Altman, PDG d’OpenAI, a témoigné devant le Congrès américain pour donner son évaluation sur la question, et entre-temps, il y a eu une approbation préliminaire de l’IA Act, le règlement de l’Union européenne. Cela pose des problèmes potentiels aux utilisateurs de ChatGPT sur le vieux continent.

Celui qui avertit n’est pas un traître. Selon le Financial Times, Sam Altman a averti que les efforts de Bruxelles pour réglementer le domaine de l’IA pourraient contraindre OpenAI à retirer ses services du territoire européen. Cela signifierait que les utilisateurs des pays membres de l’UE ne pourraient pas accéder à ChatGPT, DALL-E 2 ou Whisper.

S’ils ne peuvent pas livrer, ils fermeront en Europe. Les commentaires ont eu lieu lors de la visite d’Altman au Royaume-Uni, l’une des étapes d’une « tournée » qui l’a également fait visiter l’Espagne. A Londres, le PDG d’OpenAI a expliqué qu’il avait « de nombreuses inquiétudes » au sujet de la loi sur l’IA.Ce règlement vise à inclure les derniers LLM, comme le GPT-4, dans cette législation. Pour Altman « les détails comptent. Nous essaierons de nous conformer [con la regulación]mais si nous ne pouvons pas nous arrêterons de fonctionner [en la UE] ».

Une réglementation de plus en plus contraignante. La loi sur l’IA a été initialement conçue pour surveiller les cas d’utilisation les plus risqués de l’IA, comme son utilisation dans les équipements médicaux ou dans les systèmes de prêts financiers ou l’embauche de personnel. Cependant, l’avancée de plateformes telles que ChatGPT ou Midjourney a amené l’UE à élargir le texte et la réglementation. Parmi les mesures, cela obligerait les créateurs de ces modèles (comme GPT-4) à identifier et éviter les risques que cette technologie peut engendrer dans divers scénarios.

Qui est responsable de quoi. En substance, ce que cette loi sur l’IA demande, c’est qu’OpenAI (pour ChatGPT) ou Google (pour Bard) assument la responsabilité de ce que les utilisateurs ou d’autres entreprises font avec ces outils, même lorsque ni l’un ni l’autre n’a le contrôle sur ces applications particulières de cette technologie. Ces sociétés de référence devraient également publier des résumés du contenu protégé par le droit d’auteur qu’elles ont utilisé dans leurs modèles d’IA, ouvrant ainsi la possibilité aux titulaires de droits d’auteur de réclamer une indemnisation.

L’Europe contre les Big Tech. Peter Schwartz, responsable chez Salesforce, a expliqué que le manque de repères européens dans le développement de l’IA place une fois de plus le continent dans une position défavorisée comme nous l’avions déjà dans d’autres domaines comme le développement des micropuces. « Fondamentalement, ce seront les régulateurs européens qui réglementeront les entreprises américaines, comme cela a été le cas tout au long de l’ère des technologies de l’information », a-t-il déclaré au FT.

Campagnes Sundar Pichai. Comme Altman, le PDG de Google a fait un voyage au cours duquel il a rencontré et rencontré divers représentants politiques et régulateurs de l’Union européenne. Parmi eux avec Thierry Breton, responsable de la loi IA, Pichai lui a parlé d’un « Pacte IA » qui pourrait servir de première réglementation aux entreprises qui pourraient ensuite mieux s’adapter à cette future réglementation formelle. Les responsables de Google ont récemment publié une déclaration sur leur blog officiel faisant part de leur volonté de contribuer à cette réglementation, tout comme les responsables d’OpenAI dans un message similaire signé par Altman ces jours-ci. Cependant, l’UE doit être prudente : si elle est trop stricte, elle pourrait laisser ses citoyens sans accès à ces outils.