Le PDG de Google dénonce les erreurs « complètement inacceptables » de l'IA Gemini

Le PDG de Google dénonce les erreurs « complètement inacceptables » de l'IA Gemini

Le PDG de Google, Sundar Pichai, a dénoncé mardi les erreurs « complètement inacceptables » de son application Gemini AI, après que des gaffes telles que des images de troupes nazies de la Seconde Guerre mondiale, ethniquement diverses, l'ont forcé à empêcher les utilisateurs de créer des photos de personnes.

La controverse a émergé quelques semaines après le changement de marque très médiatisé par Google de son IA de style ChatGPT en « Gemini », donnant à l'application une importance sans précédent dans ses produits alors qu'elle est en concurrence avec OpenAI et son bailleur de fonds Microsoft.

Les utilisateurs des médias sociaux se sont moqués et ont critiqué Google pour les images historiquement inexactes générées par Gemini, telles que celles de sénateurs américains des années 1800, qui étaient ethniquement diverses et incluaient des femmes.

« Je souhaite aborder les problèmes récents liés aux réponses problématiques sous forme de texte et d'image dans l'application Gemini », a écrit Pichai dans une lettre au personnel, publiée par le site d'information Semafor.

« Je sais que certaines de ses réponses ont offensé nos utilisateurs et ont fait preuve de partialité. Pour être clair, c'est complètement inacceptable et nous nous sommes trompés. »

Un porte-parole de Google a confirmé à l'AFP que la lettre était authentique.

Pichai a déclaré que les équipes de Google travaillaient « 24 heures sur 24 » pour résoudre ces problèmes, mais n'a pas précisé quand la fonctionnalité de génération d'images serait à nouveau disponible.

« Aucune IA n'est parfaite, surtout à ce stade émergent du développement de l'industrie, mais nous savons que la barre est haute pour nous et nous la maintiendrons aussi longtemps que nécessaire », a-t-il écrit.

Les entreprises technologiques considèrent les modèles d’intelligence artificielle générative comme la prochaine grande étape de l’informatique et s’empressent de les intégrer à tout, de la recherche sur Internet à l’automatisation du support client en passant par la création musicale et artistique.

Mais les modèles d'IA, et pas seulement ceux de Google, ont longtemps été critiqués pour perpétuer les préjugés raciaux et sexistes dans leurs résultats.

Google a déclaré la semaine dernière que les réponses problématiques de Gemini étaient le résultat des efforts de l'entreprise pour éliminer ces préjugés.

Gemini a été calibré pour montrer diverses personnes, mais n'a pas ajusté les invites là où cela n'aurait pas dû être le cas, devenant également trop prudent avec certaines demandes par ailleurs inoffensives, a écrit Prabhakar Raghavan de Google dans un article de blog.

« Ces deux choses ont conduit le modèle à surcompenser dans certains cas et à être trop conservateur dans d'autres, conduisant à des images embarrassantes et fausses », a-t-il déclaré.

De nombreuses inquiétudes concernant l’IA sont apparues depuis le succès explosif de ChatGPT.

Les experts et les gouvernements ont averti que l’IA comporte également un risque de bouleversement économique majeur, notamment de suppression d’emplois, et de désinformation à l’échelle industrielle qui peut manipuler les élections et inciter à la violence.