Компанія Meta офіційно представила нове сімейство штучного інтелекту Llama 4, до якого увійшли моделі Scout, Maverick і Behemoth. Уперше ці ШІ-моделі отримали мультимодальні можливості — вони здатні обробляти не лише текст, а й зображення, відео та інші формати даних.
Що нового в Llama 4:
- Llama 4 Scout: має 17 млрд активних параметрів та підтримує контекстне вікно у 10 мільйонів токенів. Перевершує конкурентів Gemma 3, Gemini 2.0 Flash-Lite і Mistral 3.1;
- Llama 4 Maverick: оснащена 400 млрд загальних параметрів і демонструє рівень продуктивності на рівні або вище GPT-4o та DeepSeek V3, зокрема у логіці та програмуванні. Працює на системі Nvidia H100 DGX;
- Llama 4 Behemoth: найпотужніша модель з 2 трлн параметрів, перевершує GPT-4.5, Claude Sonnet 3.7 та Gemini 2.0 Pro. Поки що перебуває на етапі донавчання й недоступна публічно.
Усі моделі побудовані на архітектурі MoE (Mixture of Experts), яка дозволяє розподіляти завдання між вузькоспеціалізованими підмоделями — це робить навчання та виконання задач ефективнішими.
Інтеграція у продукти Meta
Штучний інтелект на базі Llama 4 уже інтегровано у WhatsApp, Messenger та Instagram. Асистент Meta AI працює з новими моделями у 40 країнах, щоправда, мультимодальні функції поки доступні лише англійською та тільки в США.
У Meta заявляють, що це початок нової ери в розвитку екосистеми Llama. Очікується, що надалі компанія продовжить вдосконалювати ІІ-можливості для масового використання.