Google wil met nieuwe open source AI-modellen onder de paraplu “Gemma” meer voet aan de grond wil krijgen in de developers community. Maar eigenlijk wil de zoekmachinegigant iets heel anders.
Google heeft z’n Gemma 2B- en 7B AI-modellen uitgebracht als open source-alternatieven voor het grotere, gesloten AI-model Gemini waarmee het onlangs de inhaalrace op GPT-4 van OpenAI heeft ingezet. Met Gemma moet het voor ontwikkelaars makkelijker worden om toegang te krijgen tot de technologie. Dat was één van de grote kritiekpunten bij de lancering van Gemini in december 2023; er was weinig makkelijke toegang tot het model voor ontwikkelaars.
Instapdrempel verlagen
Hoewel de Gemma-modellen ontworpen zijn voor simpelere toepassingen zoals eenvoudige chatbots of het maken samenvattingen, zouden ze qua snelheid en gebruikskosten, de concurrentie met andere opensource (en dus gratis) modellen, zoals bijvoorbeeld Llama van Meta aan moeten kunnen. Gemma is beschikbaar op verschillende platforms zoals Kaggle, Hugging Face, Nvidia’s NeMo, Google’s eigen Vertex AI en Facebook’s Pytorch. En Gemma kan volgens Google zonder heel veel rekenkracht, rechtstreeks op een laptop draaien. Op dit moment zijn de modellen trouwens nog niet zo vloeiend in andere talen dan Engels.
Platform
Waarom is het belangrijk op welke platforms een AI-model werkt? Zoals we in het verleden hebben gezien met digitale technologie, is het vaak degene met het grootste platform (Android, Windows) die uiteindelijk heerst. De echte strijd lijkt de komende tijd dus ook voor een groot deel op dit terrein beslist te worden. Sam Altman, de CEO van OpenAI legt uit op welke manier een nieuwe “middenlaag” gebruik gaat maken van zowel een bepaald platform, als een specifiek model om producten mee te maken.