Gemma 4 : Open-weight, raisonnement natif et instabilité au lancement
Google DeepMind vient de libérer Gemma 4, une famille de quatre modèles allant de 2B à 31B paramètres. Basée sur la technologie Gemini 3, cette itération introduit un mode "native thinking" et bascule

Le Pitch
Google DeepMind vient de libérer Gemma 4, une famille de quatre modèles allant de 2B à 31B paramètres. Basée sur la technologie Gemini 3, cette itération introduit un mode "native thinking" et bascule enfin sous licence Apache 2.0 pour un usage commercial sans entraves.
Sous le capot
L'architecture repose sur les Per-Layer Embeddings (PLE) pour les variantes "Effective" et sur le Mixture-of-Experts (MoE) pour la version 26B-A4B (source: blog.google, April 2026). Le support du context window monte à 256K pour les gros modèles via une attention hybride, mais l'overhead est massif. Comptez environ 40GB de VRAM pour exploiter le KV cache à pleine capacité (source: r/LocalLLM).
Le mode de raisonnement natif utilise des tokens dédiés : <|channel>thought pour la trace de réflexion et <turn|> pour l'EOS (source: latent.space, April 2026). Pour éviter une dégradation immédiate des performances, le réglage des samplers est chirurgical : Temp 1.0, Top_P 0.95 et Top_K 64 (source: HN comment, April 2026).
En pratique, le déploiement local est catastrophique pour une release de cette envergure. Les versions quantisées sur Unsloth et MLX souffrent de "stealthy hallucinations" et de fuites de formatage (source: r/LocalLLaMA). Le modèle 26B-A4B échoue lamentablement sur des conversions de timestamps Unix que Qwen 3.5 gère sans sourciller (source: HN thread).
On ne sait pas encore si les sorties corrompues du modèle 31B sur les backends locaux proviennent d'un bug de l'architecture ou d'un retard de support dans llama.cpp (source: the-decoder.com). L'évaluation complète par l'Artificial Analysis Intelligence Index est toujours en attente, nous privant d'une comparaison normalisée avec GPT-5 ou Claude 4.5 Opus.
L'avis de Ruben
Gemma 4 est un excellent sujet d'étude pour vos side-projects, mais restez loin de la mise en production pour l'instant. Le "native thinking" est prometteur sur le papier, mais si le modèle n'est pas capable de calculer un timestamp correctement malgré sa trace de réflexion, c'est que le fine-tuning de raisonnement manque encore de maturité. Attendez que la communauté stabilise les quants et que Google corrige les boucles infinies de l'inférence locale avant d'y migrer vos pipelines.
Codez propre,
Ruben.

Ruben Isaac - Lead AI Tech Watcher at UsedBy.ai
Articles connexes

Revision 2026 : optimisation extrême sur Amiga et Atari 2600
La Revision 2026 vient de confirmer que l'ingéniosité technique sur hardware legacy reste le benchmark ultime pour tout développeur sérieux. Loin de l'abstraction des LLM actuels comme GPT-5 ou Claude

Git Repository Forensics : L'analyse de métadonnées face aux limites du CLI standard
L'analyse forensique via les commandes Git CLI permet de cartographier les zones de friction et les clusters de bugs d'un repo sans ouvrir l'IDE. Cette approche de reconnaissance "senior-level" gagne

VeraCrypt : l'impasse technique d'avril 2026
VeraCrypt reste le standard de l'encryption disque open-source, successeur direct de TrueCrypt. Il est aujourd'hui le dernier rempart sérieux pour les CTO qui refusent de confier leurs clés à BitLocke
Restez à la pointe des tendances d'adoption de l'IA
Recevez nos derniers rapports et analyses directement dans votre boîte mail. Pas de spam, que des données.