Llama — sve što kao početnik treba da znate o ovom AI modelu otvorenog koda

Čuli ste za Llamu ali niste sigurni šta je to tačno? Ovo je članak za vas.

PRENOSIMO
09/09/2024

Prenosimo vam ovaj koristan članak sa TechCruncha koji objašnjava šta je Llama — ako niste upućeni, obavezno se informišite ispod.

Svakako preporučujemo da, ukoliko vam hardver to dozvoljava, instalirate Llamu na vašu mašinu i pravite aplikacije koje se oslanjaju na nju, vrlo je zabavno.
——————

Kao i gotovo svaka velika tehnološka kompanija ovih dana, Meta ima svoj generativni AI model, nazvan Llama. Llama je prilično jedinstvena među glavnim modelima jer je zapravo „otvorena“, što znači da pojedinci mogu da je preuzmu i koriste kako žele (uz određena ograničenja).

Ovo recimo ne možete sa modelima kao što su Claude kompanije Anthropic, GPT-4 kompanije OpenAI (koji pokreće ChatGPT) i Googleov Gemini, koji su dostupni samo putem API-ja.

U interesu pružanja izbora korisnicima, Meta je sklopila partnerstva sa dobavljačima kao što su AWS, Google Cloud i Microsoft Azure kako bi obezbedila verzije Llama modela koje su dostupne “iz oblaka”. Pored toga, kompanija je objavila alate dizajnirane da olakšaju fino podešavanje i prilagođavanje modela.

Evo svega što treba da znate o Llama modelu, od njegovih mogućnosti i verzija do toga gde možete da ga koristite.

Llama je porodica modela

Najnovije verzije su Llama 3.1 8B, Llama 3.1 70B i Llama 3.1 405B, koje su objavljene u julu 2024. godine. Ovi modeli su trenirani na veb stranicama na različitim jezicima, javnom kodu i fajlovima na internetu, kao i na sintetičkim podacima (tj. podacima koje generišu drugi AI modeli).

Llama 3.1 8B i Llama 3.1 70B su mali, kompaktni modeli namenjeni za rad na ličnim uređajima i manjim serverima. Llama 3.1 405B, s druge strane, je model velikih razmera koji (bez određenih modifikacija) zahteva hardver u data centrima. Llama 3.1 8B i Llama 3.1 70B su manje sposobni od Llama 3.1 405B, ali su brži.

U suštini, oni su „prečišćene“ verzije 405B, optimizovane za manju potrebu za skladištem i nižu latenciju.

Svi Llama modeli imaju prozore konteksta od 128.000 tokena. (U data science-u, tokeni su podeljeni delovi sirovih podataka, poput slogova „fan“, „tas“ i „tic“ u reči „fantastično“.) Prozori konteksta modela odnose se na ulazne podatke (npr. tekst) koje model razmatra pre nego što generiše izlaz (npr. dodatni tekst).

Dugi kontekst može sprečiti modele da „zaborave“ sadržaj nedavnih dokumenata i podataka, kao i da se udalje od teme i pogrešno ekstrapoliraju.

Tih 128.000 tokena se u stvarnom svetu odnosi na oko 100.000 reči ili 300 stranica, što je otprilike dužina knjiga „Orkanski visovi“, „Guliverova putovanja“ ili „Hari Poter i zatvorenik iz Askabana“.

Šta Llama može da uradi?

Kao i drugi generativni AI modeli, Llama može obavljati različite asistivne zadatke, poput kodiranja i odgovaranja na osnovna matematička pitanja, kao i sažimanja dokumenata na osam jezika (engleski, nemački, francuski, italijanski, portugalski, hindi, španski i tajlandski).

Većina tekstualnih zadataka – poput analiziranja datoteka kao što su PDF-ovi i tabele – spada u njen domen; nijedan od Llama modela ne može da obrađuje ili generiše slike, iako bi se to moglo promeniti u bliskoj budućnosti.

Svi najnoviji Llama modeli mogu se konfigurisati da koriste aplikacije trećih strana, alate i API-je za obavljanje zadataka. Trenirani su da koriste Brave Search za odgovore na pitanja o nedavnim događajima, Wolfram Alpha API za matematička i naučna pitanja i Python interpreter za validaciju koda.

Pored toga, Meta tvrdi da Llama 3.1 modeli mogu koristiti određene alate koje ranije nisu videli (ali je pitanje da li to mogu pouzdano da urade).

PRENOSIMO

Objavio/la članak.

ponedeljak, 9. Septembar, 2024.

IT Industrija

🔥 Najčitanije