Kort samengevat
- Google heeft Gemma 4 uitgebracht, een familie van open modellen onder de Apache 2.0-licentie.
- De line-up van vier modellen beslaat telefoons tot datacenters, waarbij het 31B-model al op plaats #3 wereldwijd staat.
- Amerikaanse open-source AI krijgt een welkome boost, nu Gemma 4—gesteund door DeepMind—zich positioneert als de sterkste Amerikaanse concurrent tegen DeepSeek, Qwen en andere Chinese koplopers.
Google's open AI-ambities werden vandaag een stuk serieuzer. Het bedrijf heeft Gemma 4 uitgebracht, een familie van vier open-weight modellen gebouwd op hetzelfde onderzoek als Gemini 3, en gelicentieerd onder Apache 2.0—een belangrijke afwijking van de meer restrictieve voorwaarden van eerdere Gemma-versies.
Ontwikkelaars hebben eerdere Gemma-generaties meer dan 400 miljoen keer gedownload, wat leidde tot meer dan 100.000 communityvarianten. Deze release is tot nu toe de meest ambitieuze.
Het afgelopen jaar is het open-source AI-klassement grotendeels een Chinese aangelegenheid geweest. DeepSeek, Minimax, GLM en Qwen hebben de topposities gedomineerd, waardoor Amerikaanse alternatieven moeite hadden om relevant te blijven. Zoals Decrypt vorig jaar rapporteerde, gingen Chinese open modellen van nauwelijks 1,2% van het wereldwijde gebruik van open modellen eind 2024 naar ongeveer 30% tegen het einde van 2025, waarbij Alibaba's Qwen zelfs Meta's Llama inhaalde als het meest gebruikte zelf-gehoste model wereldwijd.
Meta's Llama was vroeger de standaardkeuze voor ontwikkelaars die een capabel, lokaal uitvoerbaar model wilden. Die reputatie is aangetast—Llama's door Meta gecontroleerde licentie wekte vragen op over de echte open-source status, en de prestaties bleven achter bij de Chinese concurrentie. De OLMo-familie van het Allen Institute probeerde de kloof te dichten, maar slaagde er niet in om betekenisvolle tractie te krijgen. OpenAI bracht in augustus 2025 zijn gpt-oss modellen uit, die het ecosysteem een frisse wind gaven, maar ze waren nooit ontworpen om grensconcurrenten te zijn.
En gisteren bracht een Amerikaanse startup van 30 personen genaamd Arcee AI Trinity uit, een open model met 400 miljard parameters dat een overtuigend argument leverde dat de Amerikaanse scene niet volledig dood was. Gemma 4 volgt dat momentum, dit keer met het volledige gewicht van Google DeepMind erachter, waardoor het waarschijnlijk het beste Amerikaanse model in de open-source AI-scene wordt.
Het model is "gebouwd op basis van hetzelfde wereldklasse onderzoek en technologie als Gemini 3," zei Google in zijn aankondiging. Gemma 4 komt in vier maten: Effective 2B en 4B voor telefoons en edge-apparaten, een 26B Mixture of Experts-model gericht op snelheid, en een 31B Dense-model geoptimaliseerd voor pure kwaliteit.
Het 31B Dense-model staat momenteel op de derde plaats onder alle open modellen op Arena AI's tekstklassement. Het 26B MoE-model staat zesde. Google beweert dat beide modellen tot 20 keer grotere modellen overtreffen—een bewering die standhoudt, althans tegen de Arena AI-cijfers, waar Chinese modellen nog steeds de top twee posities bezetten.
We hebben Gemma 4 getest. Het is capabel, met enkele kanttekeningen. Het model past redenering toe, zelfs op taken die dat niet vereisen, wat reacties voor eenvoudige prompts overgeëngineerd kan laten aanvoelen. Creatief schrijven is degelijk—bruikbaar, niet geïnspireerd—en verbetert waarschijnlijk met meer specifieke begeleiding en prompt engineering.
Waar het het duidelijkst presteerde was bij code. Gevraagd om een game te genereren, was de output niet bijzonder opvallend of uitgebreid, maar het draaide zonder fouten bij de eerste poging. Niet slecht voor een model met 41 miljard parameters. Die zero-shot betrouwbaarheid is aantoonbaar waardevoller dan een mooier resultaat dat debugging nodig heeft.
Je kunt de (basic, maar functionele) game hier proberen.
De vier varianten dekken het volledige hardwarespectrum. De E2B- en E4B-modellen zijn gebouwd voor Android-telefoons, Raspberry Pi en edge-apparaten, en draaien volledig offline met bijna nul latentie, native audio-invoer en een 128K contextvenster. De 26B- en 31B-modellen richten zich op werkstations en cloud-implementaties, breiden de context uit tot 256K en voegen native function-calling en gestructureerde JSON-output toe voor het bouwen van autonome agents. Alle vier de modellen verwerken afbeeldingen en video's native. De full-precision weights van de grotere modellen passen op een enkele 80GB NVIDIA H100 GPU; gekwantiseerde versies draaien op consumerhardware.
De Apache 2.0-licentie is de andere kop. Google's eerdere Gemma-releases gebruikten een aangepaste licentie die juridische onduidelijkheid creëerde voor commerciële producten. Apache 2.0 elimineert die wrijving volledig—ontwikkelaars kunnen modificeren, herdistribueren en commercialiseren zonder zich zorgen te maken dat Google later de voorwaarden wijzigt. Hugging Face medeoprichter Clement Delangue prees het en zei dat "Local AI zijn moment heeft," en dat het de toekomst is van de AI-industrie. Google DeepMind CEO Demis Hassabis ging verder en noemde Gemma 4 "de beste open modellen ter wereld voor hun respectieve maten."
Dat is een sterke bewering. Propriëtaire systemen van Anthropic, OpenAI en Google's eigen Gemini leiden nog steeds op de moeilijkste benchmarks. Maar voor open-weight modellen die je lokaal kunt draaien, vrij kunt aanpassen en op je eigen infrastructuur kunt implementeren? De concurrentie werd net aanzienlijk dunner. Je kunt Gemma 4 nu proberen in Google AI Studio (31B en 26B) of Google AI Edge Gallery (E2B en E4B). Modelgewichten zijn ook beschikbaar op Hugging Face, Kaggle en Ollama.
Daily Debrief Nieuwsbrief
Begin elke dag met de belangrijkste nieuwsverhalen van dit moment, plus originele features, een podcast, video's en meer.
Bron: https://decrypt.co/363178/google-gemma-4-open-source-ai








