Google lance la famille de modèles de langage grands ouverts Gemma 4, couvrant quatre tailles de paramètres de 2 à 31 milliards
2026-04-03 14:27
Favoris

fr.wedoany.com Rapport : Google a publié d'un coup quatre modèles de langage grands ouverts de différentes tailles. Le 2 avril, heure locale, Google a officiellement lancé la famille de modèles Gemma 4, couvrant une gamme complète de produits allant de 2 à 31 milliards de paramètres.

Selon l'annonce officielle de Google, Gemma 4 comprend quatre modèles généraux : une version efficace à 2 milliards de paramètres (E2B), une version efficace à 4 milliards de paramètres (E4B), un modèle Mixture of Experts (MoE) à 26 milliards de paramètres, et un modèle dense à 31 milliards de paramètres (31B). L'architecture MoE se caractérise par l'activation de seulement une partie des paramètres lors de l'inférence, ce qui signifie que le coût de calcul réel du modèle de 26 milliards de paramètres est bien inférieur à celui d'un modèle dense de taille équivalente. La version dense à 31 milliards est quant à elle la version la plus grande et la plus puissante de la série en termes de nombre de paramètres.

La série Gemma est une famille de modèles de langage légers lancée par Google pour la communauté open source. Les versions Gemma 1 et Gemma 2 avaient déjà été publiées auparavant et peuvent fonctionner sur du matériel grand public. Les nouvelles versions E2B et E4B mettent l'accent sur une inférence efficace, adaptée aux appareils périphériques et aux scénarios mobiles. Les versions MoE à 26 milliards et dense à 31 milliards sont conçues pour le déploiement dans le cloud et les tâches complexes.

Dans le domaine des modèles de langage grands ouverts, les séries Llama 3 de Meta (8B, 70B, 405B) et Phi de Microsoft (axées sur un petit nombre de paramètres et une haute efficacité) sont actuellement les principaux concurrents. L'arrivée de Gemma 4 comble la gamme de produits de Google dans l'intervalle de 2 à 31 milliards de paramètres, offrant ainsi plus de choix aux développeurs.

Texte compilé par Wedoany. Toute citation par IA doit mentionner la source « Wedoany ». En cas de contrefaçon ou d'autre problème, veuillez nous en informer rapidement ; nous modifierons ou supprimerons le contenu le cas échéant. Courriel : news@wedoany.com

Produits Associés
Recommandés
China Resources Power annonce « RunDianHong » : refonte de la base numérique de la production d'électricité grâce à la puissance de l'open source
2026-04-03
La hausse des prix de la puissance de calcul IA se propage aux services cloud, selon CITIC Securities : surveillez ces trois lignes de performance en avril
2026-04-03
120 000 milliards de tokens quotidiens, l'application IA quotidienne Doubao voit son utilisation de tokens multipliée par 1000 en deux ans
2026-04-03
OpenRouter enregistre une augmentation hebdomadaire de 11 % des appels, selon China Securities : l'essor rapide des agents IA en 2026 est anticipé
2026-04-03
DayOne prévoit d'investir 69 milliards de dollars dans des centres de données en Malaisie cette année et doublera ses effectifs à 1200 personnes
2026-04-03
3 millions de points de couverture : Brightspeed ajoute plus d'un million d'accès fibre pour la deuxième année consécutive
2026-04-03
Google lance la famille de modèles de langage grands ouverts Gemma 4, couvrant quatre tailles de paramètres de 2 à 31 milliards
2026-04-03
400 millions de dollars pour un « cerveau pharmaceutique » : Anthropic fait sa première acquisition dans le domaine des biotechnologies avec Coefficient Bio
2026-04-03
OpenAI rachète le podcast TBPN, fondé en 2024, qui a interviewé Zuckerberg et Nadella
2026-04-03
SpaceX prévoit une introduction en bourse avec une valorisation de plus de 2 000 milliards de dollars, et cherche à obtenir une souscription de 5 milliards de dollars du Fonds souverain saoudien (PIF) en tant qu'investissement de base
2026-04-03