O companie franceză de inteligență artificială, Mistral, a anunțat lansarea unui nou model lingvistic mare (LLM) european, bazat pe raționament. Modelul, numit Magistral, este disponibil în două variante: Small (open-source) și Medium (pentru mediul de afaceri).

Ce înseamnă un LLM bazat pe raționament?

Spre deosebire de modelele lingvistice clasice, care generează răspunsuri pe baza unor simple corelații statistice între cuvinte, modelele cu capacitate de raționament, precum Magistral, utilizează o tehnică numită „lanț de gândire”. Astfel, ele parcurg un proces logic pas cu pas pentru a ajunge la o concluzie, imitând modul în care oamenii rezolvă probleme complexe.

Conform CEO-ului Mistral, Arthur Mensch, modelul este performant în matematică și programare, prezentându-se la London Tech Week.

Advertisement

Mistral, o companie europeană, într-un context global dominat de SUA și China

Deși Mistral este o entitate recentă (2023), a devenit rapid unul dintre cele mai promițătoare proiecte europene în domeniul inteligenței artificiale, cu o evaluare de 6,2 miliarde de dolari. Sprijinita de Microsoft, compania este fidelă viziunii europene privind transparența și inovația deschisă, diferențiindu-se de competiția americană (OpenAI, Google) prin oferirea de versiuni open-source ale modelelor sale.

Această abordare permite dezvoltatorilor să descarce, să modifice și să implementeze modelele, fără a fi dependenți de o infrastructură privată, o strategie similară cu a unor companii asiatice.

Magistral, multilingv și disponibil imediat

O caracteristică importantă a lui Magistral este capacitatea de a raționa în mai multe limbi europene. „Modelele americane sunt antrenate să gândească în engleză, iar cele chinezești în chineză”, a declarat Arthur Mensch pentru CNBC.

Versiunea Magistral Small este disponibilă pe platforma Hugging Face și poate fi utilizată gratuit de dezvoltatori, cercetători și publicul larg.

Cum rulează Magistral Small pe un calculator personal?

Pentru acest articol, am descărcat versiunea Magistral Small (12,4 GB), accesibilă direct din LM Studio, o platformă populară pentru executarea LLM-urilor pe computere personale. Instalarea și operaționalizarea au fost rapide și fără complicații.

Este important de menționat că, dacă aveți o placă grafică AMD, Magistral va rula pe procesorul principal (CPU). În prezent, LM Studio și majoritatea instrumentelor AI nu oferă accelerare GPU pe AMD în Windows. Performanțele rămân satisfăcătoare pe procesoare puternice, utilizatorii cu plăci NVIDIA având un avantaj datorită compatibilității native cu CUDA.

Am testat modelul cu câteva întrebări simple în limba română și o problemă de logică și matematică. Răspunsurile au fost exacte, soluția fiind explicată pas cu pas, demonstrând capacitatea de raționament a modelului, chiar și pe CPU. O mică observație: modelul a alternat între română și engleză, sugerând un antrenament mai aprofundat pe engleză.

Experimentați și dumneavoastră Magistral, oferindu-ne feedbackul dumneavoastră.