Apple a déjà ses premiers petits concurrents pour ChatGPT. Et tout le monde montre l'iPhone
Chez Apple, ils semblaient avoir raté le coche en matière d'IA, mais ces derniers mois, ils ont essayé de se ressaisir et petit à petit – et sur la base de l'argent – ils ont commencé à partager certaines de leurs avancées dans ce domaine. Le dernier est particulièrement intéressant, car il indique directement quel type d’IA nous verrons sur vos iPhones le plus tôt possible.
Le petit OpenELM. Les chercheurs d'Apple ont publié OpenELM (Open-source Efficient Language Models), une famille de quatre grands modèles de langage (LLM) qui sont en réalité minuscules par rapport à la plupart des modèles sur lesquels sont basés ChatGPT ou Gemini, par exemple. Apple dispose également d'une étude de recherche accompagnant la sortie des modèles.
Quatre « tailles ». Les modèles sont disponibles en versions 270M, 450M, 1,1B et 3B. Le plus petit, celui avec 270 millions de paramètres, est nettement compact, et par exemple le modèle Phi-3 Mini que Microsoft vient de publier possède 3,8 milliards de paramètres, c'est-à-dire qu'il est 14 fois plus grand en nombre de paramètres. Chaque taille a deux versions, une « pré-entraînée » (plus générale) et une « instruction-tuned » (plus axée sur un objectif spécifique).
Efficacité par drapeau. Comme son nom l'indique, l'objectif de ces modèles est de rechercher l'efficacité, ou ce qui revient au même, de pouvoir les exécuter sans que la consommation de ressources ne soit gigantesque. Les modèles plus grands nécessitent plus de puissance de calcul pour pouvoir générer du texte de manière fluide, mais dans OpenELM, les exigences sont beaucoup plus modestes, et cela pointe directement vers un objectif.
L'iPhone, pour son propre « AppleGPT ». Nous avons déjà parlé du projet d'Apple de créer son propre chatbot, que nous avons provisoirement surnommé « AppleGPT ». Il est plus que probable qu'il ne s'appellera pas ainsi, mais ce qui est clair, c'est qu'il fonctionnera sur l'iPhone (ou d'autres appareils Apple) localement, sans avoir besoin du cloud. Ces nouveaux modèles sont suffisamment petits pour fonctionner sans problème apparent sur les puissantes puces d'Apple, même s'ils présentent également un inconvénient.
Plus limité. Plus un modèle est petit, plus il est « généraliste » et moins il peut être riche, précis et spécifique. Ils ne pourront donc pas rivaliser avec des modèles beaucoup plus ambitieux comme le GPT-4 ou ceux utilisés dans Gemini 1.5 Pro ou Claude 3 Opus, mais ces modèles ont besoin de beaucoup plus de ressources pour pouvoir fonctionner de manière fluide, c'est pourquoi pour l'instant le cloud est l'alternative pour les utiliser.
Tests synthétiques. La variante 450M est comparativement la plus performante selon les tests effectués dans le cadre de l'étude de recherche, mais est surpassée par d'autres modèles Open Source dans divers scénarios. Ceux qui l'ont essayé ils l'évaluent comme un modèle « solide mais très aligné », ce qui signifie que ses réponses sont peu créatives et très formelles.
Et ils peuvent aussi se tromper. Apple prévient lui-même que ces modèles « sont mis à disposition sans aucune garantie de sécurité. Par conséquent, il est possible que ces modèles produisent des résultats inexacts, nuisibles, biaisés ou répréhensibles en réponse aux entrées des utilisateurs ».
À Simseo | Le projet d'Apple de devenir leader dans l'IA, plus vivant que jamais : l'achat de Darwin AI en est la preuve