Les doubles sceptiques les plus importants de l'IA générative vers le bas

Les doubles sceptiques les plus importants de l'IA générative vers le bas

Deux ans et demi depuis que Chatgpt a secoué le monde, le scientifique et écrivain Gary Marcus reste toujours le grand sceptique de l'intelligence artificielle générative, jouant un contre-récit des croyants de Silicon Valley.

Marcus est devenu une figure éminente de la révolution de l'IA en 2023, lorsqu'il s'est assis à côté du chef d'Openai Sam Altman lors d'une audience au Sénat à Washington alors que les deux hommes exhortaient les politiciens à prendre la technologie au sérieux et à considérer la réglementation.

Beaucoup a changé depuis lors. Altman a abandonné ses appels à la prudence, s'associe plutôt aux banques de soft et aux fonds du Japon au Moyen-Orient pour propulser son entreprise à des évaluations exorbitantes alors qu'il essaie de faire du chat de la prochaine géant technique définissant l'ère.

« Sam ne reçoit plus d'argent de l'établissement de la Silicon Valley », et sa recherche de financement à l'étranger est un signe de « désespoir », a déclaré Marcus à l'AFP en marge du sommet Web à Vancouver, au Canada.

La critique de Marcus se concentre sur une croyance fondamentale: l'IA générative, la technologie prédictive qui produit un contenu apparemment au niveau de l'homme, est tout simplement trop imparfait pour être transformateur.

Les grands modèles de langue (LLM) qui alimentent ces capacités sont intrinsèquement brisés, soutient-il et ne tiendra jamais les grandes promesses de la Silicon Valley.

« Je suis sceptique à l'égard de l'IA car il est actuellement pratiqué », a-t-il déclaré. « Je pense que l'IA pourrait avoir une valeur énorme, mais les LLM ne sont pas la voie là-bas. Et je pense que les entreprises qui le dirigent ne sont pas surtout les meilleures personnes du monde. »

Son scepticisme contraste fortement avec l'ambiance dominante au Sommet du Web, où la plupart des conversations entre 15 000 participants se sont concentrées sur la promesse apparemment infinie de l'IA génératrice.

Beaucoup croient que l'humanité se tient sur le point d'atteindre la technologie de l'intelligence générale (AGI) de super intelligence ou artificielle qui pourrait égaler et même dépasser la capacité humaine.

Cet optimisme a conduit à l'évaluation d'Openai à 300 milliards de dollars des niveaux sans précédent pour une startup, avec Xai Racing du milliardaire Elon Musk pour suivre le rythme.

Pourtant, pour tout le battage médiatique, les gains pratiques restent limités.

La technologie excelle principalement dans l'assistance de codage pour les programmeurs et la génération de texte pour les travaux de bureau. Les images créées par AI, bien que souvent divertissantes, servent principalement de mèmes ou de faux profonds, offrant peu de bénéfices évidents à la société ou aux affaires.

Marcus, professeur de longue date de l'Université de New York, défend une approche fondamentalement différente de la construction de l'IA – celle-ci, selon lui, pourrait réellement atteindre l'intelligence de niveau humain d'une manière que l'IA générative actuelle ne le fera jamais.

« L'une des conséquences de l'aller sur les LLM est que toute approche alternative qui pourrait être mieux est affamée », a-t-il expliqué.

Cette vision du tunnel « entraînera un retard dans l'atteinte à l'IA qui peut nous aider au-delà du simple codage – un gaspillage de ressources ».

'Les bonnes réponses sont importantes'

Au lieu de cela, Marcus plaide pour l'IA neurosymbolique, une approche qui tente de reconstruire artificiellement la logique humaine plutôt que de simplement former des modèles informatiques sur de vastes ensembles de données, comme cela est fait avec ChatGpt et des produits similaires tels que les Gémeaux de Google ou le claude d'Anthropic.

Il rejette les craintes que l'IA génératrice élimine les emplois en col blanc, citant une simple réalité: « Il y a trop d'emplois en col blanc où obtenir la bonne réponse compte réellement. »

Cela indique le problème le plus persistant de l'IA: les hallucinations, la tendance bien documentée de la technologie à produire des erreurs de consonance confiantes.

Même les plus grands défenseurs de l'IA reconnaissent que ce défaut peut être impossible à éliminer.

Marcus se souvient d'un échange révélateur de 2023 avec le fondateur de LinkedIn, Reid Hoffman, un poids lourd de la Silicon Valley: « Il m'a parié toute somme d'argent que les hallucinations disparaîtraient dans trois mois. Je lui ai offert 100 000 $ et il ne prendrait pas le pari. »

Pour l'avenir, Marcus prévient une conséquence plus sombre une fois que les investisseurs réalisent les limites génératives de l'IA. Des entreprises comme OpenAI monétiseront inévitablement leur atout le plus précieux: les données des utilisateurs.

« Les gens qui ont mis tout cet argent voudront leurs retours, et je pense que cela les mène vers la surveillance », a-t-il dit, pointant des risques orwelliens pour la société.

« Ils ont toutes ces données privées, afin qu'ils puissent le vendre comme un prix de consolation. »

Marcus reconnaît que l'IA générative trouvera des applications utiles dans des domaines où les erreurs occasionnelles n'ont pas beaucoup d'importance.

« Ils sont très utiles pour la complète automatique sur les stéroïdes: codage, brainstorming et trucs comme ça », a-t-il déclaré.

« Mais personne ne va gagner beaucoup d'argent parce qu'ils sont chers à courir, et tout le monde a le même produit. »