Рассылка
Расскажем о выходе новых нейросетей
Присоединяйтесь к сообществу.
Инструкция по скачиванию, установке и использованию Llama 4 Scout и Maverick
LLama 4 — это новая серия языковых моделей от Meta*, разработанная для работы с текстом, кодом, запросами в диалогах и другими задачами обработки естественного языка. Позиционируется как открытая альтернатива GPT-4. Может использоваться для создания чат-ботов, генерации текста, анализа документов, автоматизации задач и других сценариев, где требуется качественная генерация языка.
Прежде чем переходить к установке, учтите несколько важных моментов:
.safetensors
, которые нельзя запустить через llama.cpp
. Для запуска потребуется библиотека transformers
, text-generation-webui
или адаптация под сторонние решения.Во время установки и запуска модели почти наверняка будут возникать ошибки: несовпадения версий библиотек, нехватка памяти, неправильный путь к файлу, ошибки импорта — всё это часть процесса.
Вставьте его в любой чат-бот, например:
Объясните, что устанавливаете локально LLama 4 и попросите разобрать ошибку.
Доступ к моделям Llama 4 Scout и Maverick предоставляется без ограничений. Нужно открыть официальную страницу, выбрать Download models и заполнить данные:
После заполнения данных вы получите ID запроса и инструкцию по загрузке моделей. Скачать их можно в течение 48 часов, до 5 раз, используя уникальные ссылки. Они придут на указанный адрес электронной почты.
cd ~/Downloads mkdir -p llama/models cd llama/models
cd %USERPROFILE%\Downloads mkdir llama\models cd llama\models
Вместо %USERPROFILE% нужно ввести имя профиля в Windows, например Admin.
Meta предоставляет уникальную ссылку на скачивание модели, действительную 48 часов. Она выглядит примерно так:
Не пытайтесь использовать ссылку из инструкции, она недействительна
https://llama4.llamameta.net/?Policy=eyJTdGF0ZW1lbnQiOlt7InVuaXF1ZV9oYXNoIjoicGgxeGRqOGx3bHIwYTU2YWVpMjM5ZDNpIiwiUmVzb3VyY2UiOiJodHRwczpcL1wvbGxhbWE0LmxsYW1hbWV0W70z-gRaD4DsMGSiu4i55xt4nIohvUC6QB5weJBShoYdiLhcCUQii6-ZyAgBgBcOl67-5wWEhoLwnlkJf5s4XvZaMYqKCJ6SGMK9MidUsVk12NUoBhEwh7kzlvBXbqElbeF%7E26dE1N8v3lS0rLD3OJ3Hk636bNb78GuRqNgQYt21vuA7PuGjKJsMlUyc7Ds7JJMOjpim5ihr4xQQmk-sjUJOlbMNDaKXnUBQ-UytMAwAxw3d9uL2JJ7u2y9A__&Key-Pair-Id=...&Download-Request-ID=...
Важно: не меняйте URL и не вставляйте * в адресе! Это приведёт к ошибке 403.
curl -L -o llama-4-scout-17b-instruct.safetensors "Ссылка"
Invoke-WebRequest
-Uri "Ссылка"`
wget "Ссылка" -O llama-4-scout-17b-instruct.safetensors
Результат: файл .safetensors
После успешной загрузки вы получите файл:
llama-4-scout-17b-instruct.safetensors
Размер: от 100 до 220 ГБ в зависимости от версии.
.safetensors
Файл .safetensors
, который вы скачали, содержит веса модели LLaMA 4. Запустить его можно несколькими способами — в зависимости от целей и возможностей компьютера.
transformers
от Hugging Face на CPUЭтот способ подойдёт для теста или работы с короткими запросами. Работает на CPU, без видеокарты.
✅ macOS:
pip install transformers accelerate sentencepiece
💻 Windows (cmd или PowerShell):
pip install transformers accelerate sentencepiece
Создайте файл run_llama.py
с таким содержанием:
from transformers import AutoTokenizer, AutoModelForCausalLM import torch model_path = "./llama-4-scout-17b-instruct.safetensors" # путь к модели tokenizer = AutoTokenizer.from_pretrained("meta-llama/Meta-Llama-3-8B-Instruct", use_fast=False) model = AutoModelForCausalLM.from_pretrained( model_path, torch_dtype=torch.float32, # CPU low_cpu_mem_usage=True, device_map="auto", ) prompt = "Расскажи коротко, как работает нейросеть LLaMA 4." inputs = tokenizer(prompt, return_tensors="pt") with torch.no_grad(): outputs = model.generate(**inputs, max_new_tokens=150) print(tokenizer.decode(outputs[0], skip_special_tokens=True))
❗
meta-llama/Meta-Llama-3-8B-Instruct
здесь используется только для загрузки токенизатора — замените, если Meta выпустит LLaMA 4 токенизатор отдельно.
Запуск:
python run_llama.py
text-generation-webui
)Если вы хотите удобный графический интерфейс в браузере, можно использовать text-generation-webui:
git clone https://github.com/oobabooga/text-generation-webui cd text-generation-webui
.safetensors
модель в папку models/llama4
python server.py --model llama4
Эта опция требует установки дополнительных библиотек. Подходит для продвинутых пользователей и серверов с GPU.
Даже если вы не разработчик и не запускаете LLaMA 4 в продакшене, с её помощью можно решать простые, но интересные задачи — прямо у себя на компьютере.
Запустите LLama 4 в режиме Instruct и задавайте ей вопросы в любом стиле — от деловых до бытовых. Модель способна:
Пример вопроса:
Объясни на пальцах, как работают критовалюты.
С помощью LLaMA 4 можно писать:
Пример запроса:
Придумай весёлую историю.
*Meta - запрещена на территории РФ.