Leurs IA ne peuvent pas gâcher autant.

Leurs IA ne peuvent pas gâcher autant.

Au début, cela n'avait pas d'importance que ChatGPT ait paniqué et foiré. Peu importe qu'il ait modifié la fin de « Game of Thrones » lorsque nous le lui avons demandé ou même qu'il se soit trompé dans les mathématiques de base. Après tout, il ne lui restait que quelques mois à vivre. Rien ne se passait.

Maintenant, c'est important.

C’est ce que la Big Tech a commencé à réaliser, plongée dans une course dans laquelle il semblait plus pertinent d'arriver tôt que d'arriver bien. Ils se sont tous précipités pour être les premiers, et les problèmes vraiment sérieux ont commencé. Le chatbot de Microsoft a râlé, et ne parlons pas de Bard puis de Gemini, qui ont fait une grosse erreur (pas une, mais deux).

Et bien sûr, cela a amené les utilisateurs à changer d’attitude. Ce qui était drôle ne l’est plus aussi, notamment parce qu’on a commencé à utiliser ces modèles d’IA génératifs pour des choses relativement sérieuses.

Même les universitaires rédigent des études avec ChatGPT, et l’utilisation de ces assistants constitue déjà le pain quotidien des programmeurs, qui les utilisent régulièrement. Le problème pour eux est qu’aujourd’hui parmi les réponses ChatGPT en programmation, 52% contiennent des données erronées.

Tout cela a commencé à faire comprendre à beaucoup ce que certains savaient déjà depuis le début. Les ChatGPT du monde ne savent pas ce qu'ils disent. Ils le publient et cela semble logique. Les phrases sont bien construites et le ton des participants, qui répondent avec un langage naturel, clair et raisonnable, est celui d'une totale sécurité. Comme si c’était effectivement la réponse définitive et correcte.

Mais dans de nombreux cas, ce n'est pas le cas, et Cela commence à poser un gros problème de réputation. de ceux qui contrôlent ces chatbots. Google est probablement le plus touché par le problème. Surtout parce que depuis un quart de siècle, nous utilisons leur moteur de recherche avec la certitude qu’il nous montrerait exactement ce dont nous avions besoin – avec beaucoup de publicité, bien sûr.

Nous faisions confiance à Google, mais nous ne faisions pas autant confiance à Gemini. Ni de Gemini, ni de ChatGPT, ni de Copilot. Et nous le faisons bien : il est important de revoir leurs réponses, car il n'est pas difficile pour eux de nous donner des réponses partiellement ou totalement incorrectes et de nous gâcher.

Face à cette situation, les entreprises commencent à réaliser à quel point il est important de faire en sorte que les modèles d’IA générative fassent moins d’erreurs ou se comportent de manière à leur faire (un peu plus) confiance. Et ici, il existe plusieurs approches.

Le plus frappant est aussi le plus récent. Apple, qui a présenté son Apple Intelligence – car il leur est interdit d'utiliser le terme « IA » – nous a laissé un peu froid sur ses fonctionnalités. Les fonctions d'IA lancées dans leurs systèmes d'exploitation sont plus ou moins les mêmes. En fait, Ce sont « juste un peu plus la même chose »car beaucoup d’entre eux fonctionnent de manière limitée.

Terrain de jeu d'images Apple

L'imageur Apple Intelligence ressemble presque à un jouet. C’est précisément ce que recherchait Apple.

Le meilleur exemple est leur générateur d’images IA, qu’ils ont appelé Image Playground, et qui peut être utilisé pour créer des emojis et des images avec des finitions tout sauf photoréalistes.

Fini la création de portraits à l'huile de Tim Cook ou d'éventuelles confrontations entre Elon Musk et Mark Zuckerberg. Pas d’habillage du Pape en Balenciaga, et certainement pas de création de deepfakes avec des images explicites de Taylor Swift.

La décision peut être décevante – Image Playground ressemble presque à un jouet – mais Ce que cela fait certainement, c'est éviter des problèmes à Apple. Vous ne pourrez pas faire grand-chose, c'est vrai, mais ce que vous ferez sera probablement plutôt bien. Cela évite non seulement des abus, mais aussi des catastrophes comme celle récemment vécue par Stable Diffusion 3 : son modèle de génération d'images IA, l'un des plus réputés au monde, génère des corps humains aberrants. Cela n’arrivera pas (comme on pouvait s’y attendre) avec le modèle Apple.

Chez Microsoft, ils semblent également avoir reconsidéré ces derniers temps. La récente présentation de Recall proposait une fonction des plus frappantes, mais des critiques ont rapidement surgi en raison de ses implications pour la vie privée et la cybersécurité. Qu’a fait l’entreprise ? Retardez votre déploiement. Il était censé faire partie des nouveaux PC Copilot+ qui seront lancés la semaine prochaine, mais les critiques et les plaintes ont provoqué le report de Recall : ils le lanceront bientôt pour les Windows Insiders, et plus tard, il sera largement disponible. Mais pour l’instant, j’ai freiné. Cela n'en valait pas la peine.

Google est à la croisée des chemins.  Et la faute en revient à Sundar Pichai qui a perdu quelque chose de crucial pour réussir

Peut-être que Google commence aussi à se rendre compte que Rush n'est pas un bon conseiller, surtout dans un segment si vert et qui peut affecter considérablement son activité. Ici, l'entreprise de Mountain View se trouve dans la situation la plus dangereuse par rapport à ses concurrents : Apple a déjà sa proposition pour son écosystème – iPhone inclus – et Microsoft est également en train de la façonner rapidement dans Windows.

Pendant ce temps, ils ne peuvent pas risquer que ChatGPT finisse par voler leur portefeuille et nous finissons par chercher davantage avec lui qu'avec son moteur de recherche. Mais ils ne peuvent pas non plus prendre le risque de recommander de mettre de la colle sur la pizza. Je ne voudrais pas être à la place de Sundar Pichai en ce moment, car trouver l'équilibre (il faut avoir quelque chose de rapide, mais qui fonctionne aussi assez bien) est aujourd'hui le plus grand défi pour toutes ces entreprises.

Peut-être sommes-nous au début d’une nouvelle mini-ère dans cette révolution provoquée par l’intelligence artificielle. Celui où les chatbots ne font pas autant de erreurs.

À Simseo | Les réseaux sociaux nous permettent de travailler pour eux gratuitement. Maintenant, ils veulent nous facturer pour cela