Meta Llama 3: Open source vracia úder
AI 19. Apr 2024 5 min čítania

Meta Llama 3: Open source vracia úder

Lokálna AI je realitou

Llama 3 8B model beží aj na lepšom notebooku. Pre firmy to znamená, že môžu mať výkonnú AI bez posielania dát do cloudu. Apríl potvrdil, že Meta to s open-source myslí vážne.

Prečo je to dôležité?

Uzavreté modely (ako GPT-4) sú "čierne skrinky". Nevieme, na čom boli trénované a ako presne fungujú. Open-source modely umožňujú výskumníkom a firmám tieto modely auditovať a upravovať (fine-tuning) pre svoje potreby.

Vlastný model za pár hodín

Vďaka technikám ako LoRA (Low-Rank Adaptation) je možné "doučiť" Llamu na vašich firemných dátach za pár dolárov. V Trammex to využívame pre internú knowledge base.

Ako spustiť Llama 3 lokálne?

Najjednoduchšia cesta je cez nástroj Ollama.

# Inštalácia
curl -fsSL https://ollama.com/install.sh | sh

# Spustenie modelu
ollama run llama3

Takto máte API endpoint na localhost:11434, ktorý môžete použiť vo vašich appkách. Žiadne mesačné poplatky, žiadne sledovanie.

Kľúčové zistenia

  • Sloboda: Vendor lock-in v AI sa zmenšuje.
  • Kvalita: 70B model prekonáva Gemini Pro 1.0.
  • Ekosystém: HuggingFace je plný tisícov variácií týchto modelov pre špecifické úlohy.