L'accord de prospérité des technologies américaines américaine est prometteur mais aussi pour le grand public

L'accord de prospérité des technologies américaines américaine est prometteur mais aussi pour le grand public

Le gouvernement britannique a salué la récente visite de l'État américain en tant que point de repère pour l'économie. Un record de 150 milliards de livres sterling d'investissement intérieur a été annoncé, dont 31 milliards de livres sterling ciblant le développement de l'intelligence artificielle (IA).

Qui englobe les travaux sur les modèles de grande langue (LLMS), la technologie derrière les chatbots d'IA tels que le chatgpt et d'autres modèles d'IA génératifs. Il couvrira également l'infrastructure de supercalcul nécessaire pour fournir des innovations.

Microsoft a promis à lui seul 30 milliards de dollars américains (environ 22 milliards de livres sterling) sur quatre ans, la moitié des dépenses en capital telles que les nouveaux centres de données, le reste sur les opérations, la recherche et les ventes. La société technologique NVIDIA a également promis 11 milliards de livres sterling, avec des plans pour déployer 120 000 de ses unités de traitement graphique Blackwell (pour accélérer les graphiques informatiques, par exemple dans les jeux et traiter des images numériques) dans les projets britanniques. La société américaine de cloud computing Coreweave construit un centre de données AI de 1,5 milliard de livres sterling en Écosse.

Le récit politique est que le Royaume-Uni devient un centre mondial pour l'IA. Pourtant, derrière la rhétorique se cache une question plus difficile: quel type d'avenir de l'IA voulons-nous? S'agit-il de l'emplacement de la prospérité auprès du public, ou une où les entreprises privées et les intérêts étrangers détiennent les leviers du pouvoir, tandis que la technologie elle-même stagne et répand la désinformation?

LLMS La technologie alimentant les modèles d'IA génératifs tels que Chatgpt ou Gemini semble atteindre leurs limites techniques. Le matériel sous-jacent sur lequel les LLM sont construits sont appelés «architectures de transformateur», ils excellent dans la production de texte fluide mais ont des problèmes persistants avec le raisonnement et les faits. Étant donné que ChatGpt3.5 est arrivé en 2022, les développeurs d'IA ont augmenté les modèles avec plus de données et de puissance de calcul, mais les gains ont ralenti et les coûts ont grimpé en flèche.

Ces progrès ont également échoué à résoudre leur problème clé, des «hallucinations» persistantes qui constituent un obstacle important à tirer parti des LLM pour les organisations et les individus. Openai admet que les hallucinations – les sorties confiantes mais fausses des systèmes d'IA – sont un produit de la façon dont ces systèmes prédisent les mots.

Le filtrage des hallucinations en forçant les modèles à admettre que l'incertitude dans leur sortie pourrait réduire les hallucinations, mais réduit les résultats utilisables d'environ 30%.

Les hallucinations peuvent être considérées comme un inconvénient nécessaire d'OpenAI et d'autres fournisseurs, mais la recherche met également en évidence leurs faiblesses structurelles. Les LLM ne sont pas des êtres socialisés mais des moteurs statistiques, incapables de distinguer le fait de la fabrication.

Mon propre travail a montré que les utilisateurs accordent une confiance mal placée dans les LLM, en supposant un raisonnement humain là où il n'existe pas. Des tests logiques simples exposent des faiblesses et le modèle est cohérent: l'IA sous-estime souvent et nécessite une surveillance humaine pour vérifier les sorties.

Cette année, le Grok Chatbot, développé par la société d'Elon Musk, Xai, a fait des remarques antisémites et a félicité Adolf Hitler dans des réponses sur X. La société derrière Grok, Xai, s'est excusée et supprimée les messages, attribuant une partie du comportement à un « chemin de code non autorisé » ou à la mise à jour du système qui a rendu le modèle trop sensible aux entrées utilisateur excessives.

Dans ses excuses publiées sur X, Xai a déclaré: « Notre intention pour Grok est de fournir des réponses utiles et véridiques aux utilisateurs. Après une enquête minutieuse, nous avons découvert que la cause profonde était une mise à jour d'un chemin de code en amont du Bot Grok.

La société a déclaré que la mise à jour rendait Grok « sensible aux postes d'utilisateurs X existants; y compris lorsque ces messages contenaient des vues extrémistes ».

Ils ont ajouté: « Nous remercions tous les utilisateurs de X qui ont fourni des commentaires pour identifier l'abus de la fonctionnalité de Grok, nous aidant à faire avancer notre mission de développer une intelligence artificielle utile et devise. »

Alignement rétrospectif

Tous les LLM nécessitent un alignement rétrospectif, un processus d'ajustement de leurs sorties après la formation, pour garantir que leurs réponses ne dérivent pas dans un territoire nocif, biaisé ou déstabilisant. Cela peut signifier filtrer le discours de haine, bloquer la désinformation sur les vaccins, empêcher la promotion de l'auto-dommage ou contraindre la partisanerie politique.

Mais contrairement aux humains, dont les frontières éthiques émergent par l'interaction et la socialisation vécue, les modèles d'IA ne peuvent pas s'autoréguler. Leur alignement est imposé après coup par ceux qui les contrôlent.

Ce processus n'est pas garanti d'être neutre et nous ne pouvons jamais être sûrs de qui appelle réellement les coups. Les sociétés, les gouvernements et les personnes puissantes peuvent être là-bas agir en tant que parents de substitution, intégrant leurs propres valeurs et intérêts dans les frontières éthiques du système. Le danger ici est qu'au lieu d'aligner le LLM à des normes largement acceptables, il pourrait potentiellement être aligné pour promouvoir les points de vue extrémistes indésirables.

En fait, la cohérence malveillante, où les systèmes d'IA sont réglés pour répéter en toute confiance les récits politiques, peuvent s'avérer être un risque plus important que les hallucinations. Sur X, Grok est déjà invoqué comme un arbitre de la vérité. Il est très courant de voir: « Hé @grok, est-ce vrai? » Dans les commentaires sous publications. Cette rituelle maintient l'autorité à une machine appartenant à un homme.

L'accord commercial britannique et américain fait également un geste vers un éventail plus large d'applications de renseignement automatique, des véhicules autonomes et des drones de livraison aux systèmes de soins de santé. La technologie autonome est imminente depuis plus d'une décennie, mais elle reste verrouillée dans des phases pilotes étendues avec Tesla, Waymo et Cruise tous les revers et les controverses de sécurité.

Les drones de livraison restent limités par la réglementation, la sécurité et les barrières logistiques.

Il existe des percées d'IA impressionnantes dans les soins de santé, tels que la prédiction de la structure des protéines et l'imagerie diagnostique assistée par l'IA. Mais le déploiement dans le NHS est chargé de préoccupations concernant la confiance, la gouvernance des données et la responsabilité.

La leçon est la même que pour les LLM, les progrès sont réels mais inégaux, le battage médiatique dépasse les preuves et sans surveillance transparente, ces systèmes risquent d'être alignés davantage sur le bénéfice des entreprises qu'avec les avantages publics.

Quel avenir?

L'accord commercial britannique et américain illustre à la fois la promesse et le péril du moment de l'IA d'aujourd'hui. Techniquement, les systèmes d'IA stagnent: les hallucinations persistent, le raisonnement reste faible et les étendre davantage offre des rendements décroissants. Politiquement, le risque est plus net: les modèles pourraient être alignés sur les intérêts privés ou partisans, amplifiant la désinformation dans un écosystème d'information déjà fracturé.

L'occasion de changer la vérité en temps réel par l'alignement correspond moins aux promesses d'innovation de la Silicon Valley qu'avec le ministère de la Vérité d'Orwell.

Que ce soit dans les LLM qui fabriquent en toute confiance ou dans les voitures sans conducteur qui font des manœuvres malheureuses, le motif se répète: les systèmes favorisés comme une lutte transformatrice avec la fiabilité de base, tandis que le contrôle de leur direction repose sur une poignée d'entreprises puissantes.

Alors, qui voulons-nous l'avenir de l'IA? Un avenir de bénéfice public, construit sur la transparence, la surveillance et les résultats vérifiables? Ou une où les sociétés privées définissent ce qui compte comme la vérité?

La fanfare de l'investissement ne peut pas répondre à cela. Seule la gouvernance, la responsabilité et la souveraineté peuvent. Sans eux, l'avenir de l'IA construit au Royaume-Uni ne peut pas du tout appartenir à ses citoyens, mais aux sociétés et aux gouvernements qui prétendent parler en leur nom.