Familia de modele AI „open” Gemma de la Google continuă să crească. În cadrul conferinței Google I/O 2025, compania a prezentat modelul Gemma 3n, conceput să funcționeze „fluid” pe telefoane, laptopuri și tablete. Disponibil în versiune preview încă din ziua anunțului, Gemma 3n este capabil să proceseze audio, text, imagini și video, potrivit Google, citat de TechCrunch.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Modelele suficient de eficiente pentru a rula offline, fără a necesita procesare în cloud, au câștigat teren în ultimii ani în comunitatea AI. Pe lângă faptul că sunt mai ieftine în utilizare față de modelele mari, acestea asigură și un grad sporit de confidențialitate, deoarece elimină necesitatea transferului datelor către centre de date la distanță.
Gus Martins, managerul de produs Gemma, a declarat în timpul keynote-ului că Gemma 3n poate rula pe dispozitive cu mai puțin de 2 GB RAM. „Gemma 3n are aceeași arhitectură ca și Gemini Nano și este proiectat pentru performanțe incredibile,” a adăugat el.
MedGemma este cel mai avansat model open al companiei
Pe lângă Gemma 3n, Google lansează și MedGemma prin programul său Health AI Developer Foundations. MedGemma este cel mai avansat model open al companiei pentru analiza textelor și imaginilor legate de sănătate.
„MedGemma este colecția noastră de modele open pentru înțelegerea multimodală a textului și imaginilor din domeniul sănătății,” a explicat Martins. „MedGemma funcționează excelent în diverse aplicații de procesare a imaginilor și textului, oferind dezvoltatorilor flexibilitatea de a adapta modelele pentru propriile aplicații de sănătate.”
În plus, Google pregătește SignGemma, un model deschis dedicat traducerii limbajului semnelor în text vorbit. Scopul este ca dezvoltatorii să creeze noi aplicații și integrații pentru persoanele surde sau cu deficiențe de auz.
SignGemma, cel mai capabil model pentru înțelegerea limbajului semnelor realizat vreodată
„SignGemma este o nouă familie de modele antrenate să traducă limbajul semnelor în text vorbit, dar este cel mai performant în cazul limbajului american al semnelor și al limbii engleze,” a spus Martins. „Este cel mai capabil model pentru înțelegerea limbajului semnelor realizat vreodată, iar noi abia așteptăm să vadă dezvoltatorii și comunitățile surde și cu deficiențe de auz ce pot crea cu această bază.”
De menționat este că modelul Gemma a fost criticat pentru termenii săi de licențiere personalizați și non-standard, care au făcut uneori utilizarea comercială a modelelor un pariu riscant pentru dezvoltatori. Cu toate acestea, acest lucru nu a împiedicat descărcarea modelelor Gemma de zeci de milioane de ori de către comunitatea de dezvoltatori.