Google a publié une autre série d’annonces importantes sur les modèles d’IA, en tenant compte de ses offres Gemini à tous les niveaux pour amener les utilisateurs et les développeurs à des moteurs d’intelligence artificielle qui, selon la société, plus compétents et fiables. Dans le sillage des modèles Rise et New Openai de Deepseek, le rythme du développement de l’IA ne ralentit pas.
Tout d’abord, le modèle Flash Gemini 2.0 qui est apparu en décembre pour quelques privilégiés se déroule maintenant à tout le monde, vous le verrez donc dans les applications Gemini sur le bureau et le mobile (cela a commencé à apparaître la semaine dernière, donc vous avez peut-être déjà utilisé). Les modèles Flash sont conçus pour être plus rapides et plus légers, sans trop de compromis de performances.
Google met également un modèle expérimental Gemini 2.0 Flash Thinking disponible pour tous les utilisateurs. Il s’agit d’un autre modèle de « raisonnement », comme ceux que nous avons vus dans Chatgpt, où l’IA affiche sa pensée au fur et à mesure – avec l’intention de produire des résultats plus précis et plus transparents.
Il existe également une version de ce modèle apparaissant à tous les utilisateurs ayant accès aux applications incluses: Google Search, Google Maps et YouTube. Il renverra des informations en temps réel sur le Web, ainsi que des références aux données Google Maps (y compris les heures de trajet et les détails de l’emplacement), et les informations tirées des vidéos YouTube.
Enfin pour les modèles Flash, Google met Gemini 2.0 Flash-Lite disponible pour les développeurs. C’est le modèle Gemini le plus rentable à ce jour – qui plaira à ces outils de construction avec des Gémeaux, tout en conservant toujours des niveaux élevés de performances de traitement à travers une variété d’entrées multimodales (texte, images, etc.).
Modèles de niveau pro
Ensuite, le modèle expérimental encore plus compétent Gemini 2.0 Pro est là – un peu plus lent que les équivalents flash, mais mieux en pensant, en écrivant, en codage et en résolution de problèmes. Ce modèle apparaît désormais sous forme expérimentale pour les développeurs et pour tous les utilisateurs qui paient 20 € par mois pour Gemini Advanced.
« Il a les performances de codage les plus fortes et la capacité de gérer des invites complexes, avec une meilleure compréhension et un meilleur raisonnement des connaissances mondiales, que n’importe quel modèle que nous avons publié jusqu’à présent », explique Google. Il peut également absorber deux millions de jetons par invite, qui atteint en moyenne environ 1,4 million de mots, ce qui est à deux reprises.
C’est le double de la capacité des modèles Flash 2.0, et Google a également fourni quelques repères. Dans la référence générale MMLU-PRO, nous avons des scores de 71,6%, 77,6% et 79,1% respectivement pour Gemini 2.0 Flash-Lite, 2,0 Flash et 2.0 Pro, contre 67,3% pour 1,5 Flash et 75,8% pour 1,5 pour 1,5 Pro.
Il y a des améliorations similaires à tous les niveaux sur d’autres repères d’IA, avec Gemini 2.0 Pro expérimental atteignant un score de 91,8% dans un test mathématique de premier plan. Cela se compare à 90,9% pour 2,0 Flash, 86,8% pour Flash-Lite, 86,5% pour 1,5 Pro et 77,9% pour 1,5 flash.
Comme c’est la norme pour les lancements du modèle d’IA comme celui-ci, les détails sont minces sur les données de formation utilisées, les risques et les inexactitudes d’hallucination et les demandes d’énergie – bien que Google dit que les nouveaux modèles Flash sont les plus efficaces à ce jour, tandis que tous ses derniers modèles sont meilleurs que jamais à la rétroaction du raisonnement et à l’arrêt des hacks potentiels de sécurité et de sécurité.