Microsoft a lansat un model de limbaj care folosește o cantitate mai mică de date. Compania susține că Phi-3 este mai ieftin și potrivit unor sarcini mai simple, cum ar fi crearea postărilor sau rezumarea documentelor, informează Decrypt.co.

Un model de limbaj mic (SLM) este un tip de model de inteligență artificială care este conceput pentru a fi extrem de eficient în îndeplinirea unor sarcini specifice legate de limbaj. Spre deosebire de modelele de limbaj mari (LLM), potrivite pentru o gamă largă de sarcini generice, SLM-urile sunt construite pe un set de date mai mic, pentru a le face mai eficiente și mai rentabile în situații de utilizare specifice.

Phi-3 vine în diferite versiuni, cea mai mică fiind Phi-3 Mini

Phi-3 vine în diferite versiuni, a explicat Microsoft, cea mai mică fiind Phi-3 Mini, un model cu parametri de 3,8 miliarde antrenat pe 3,3 trilioane de jetoane.

În ciuda dimensiunii sale relativ mici – corpus Llama-3 cântărește peste 15 trilioane de jetoane de date – Phi-3 Mini este capabil să gestioneze 128.000 de simboluri de context. Acest lucru îl face comparabil cu GPT-4 și poate bate Llama-3 și Mistral Large.

Phi-3 Mini are capacitatea de a se potrivi și de a rula pe telefoane mobile

Cu alte cuvinte, giganții AI precum Llama-3 de pe Meta.ai și Mistral Large s-ar putea prăbuși după o discuție mai lungă, cu mult înainte ca acest model ușor să înceapă să-și facă treaba.

Unul dintre cele mai semnificative avantaje ale Phi-3 Mini este capacitatea sa de a se potrivi și de a rula pe un smartphone.

Microsoft a testat modelul pe un iPhone 14 și a funcționat fără probleme, generând 14 jetoane pe secundă.

Rularea Phi-3 Mini necesită doar 1,8 GB de VRAM, ceea ce îl face o alternativă ușoară și eficientă pentru utilizatorii cu cerințe mai mari.

La ce poate fi folosit

Phi-3 Mini poate fi o alternativă eficientă pentru utilizatorii cu nevoi specifice. De exemplu, startup-urile care au nevoie de un chatbot sau persoanele care folosesc LLM-uri pentru analiza datelor pot folosi Phi-3 Mini pentru sarcini precum organizarea datelor, extragerea informațiilor, raționamentul matematic.

Dacă modelului i se oferă acces la internet, acesta poate deveni destul de puternic, compensând lipsa capabilităților cu informații în timp real.

Phi-3 Mini obține scoruri ridicate la teste datorită concentrării Microsoft pe organizarea setului de date cu cele mai utile informații posibile.

Familia mai extinsă Phi nu este bună pentru sarcini care necesită cunoștințe concrete, dar abilități înalte de raționament îi poziționează deasupra unor rivali importanți.

Phi-3 Medium bate în mod constant LLM-uri puternice precum ChatGPT

Phi-3 Medium (un model cu 14 miliarde de parametri) bate în mod constant LLM-uri puternice precum GPT-3.5 — LLM care alimentează versiunea gratuită a ChatGPT — iar versiunea Mini bate modele puternice precum Mixtral-8x7B în majoritatea benchmark-urilor sintetice.

Cu toate acestea, trebuie remarcat faptul că Phi-3 nu este open source, ca predecesorul său, Phi-2.

În schimb, este un model deschis, ceea ce înseamnă că este accesibil și disponibil pentru utilizare, dar nu are aceeași licență open source ca Phi-2, permițând o utilizare mai largă și aplicații comerciale.

Microsoft a declarat că va lansa mai multe modele din familia Phi-3, inclusiv Phi-3 Small (7 miliarde de parametri) și Phi-3 Medium menționat mai sus.