Logo
Как скачать, установить и запустить Llama 4 - AIDive

Как скачать, установить и запустить Llama 4

Инструкция по скачиванию, установке и использованию Llama 4 Scout и Maverick

LLama 4 — это новая серия языковых моделей от Meta*, разработанная для работы с текстом, кодом, запросами в диалогах и другими задачами обработки естественного языка. Позиционируется как открытая альтернатива GPT-4. Может использоваться для создания чат-ботов, генерации текста, анализа документов, автоматизации задач и других сценариев, где требуется качественная генерация языка.

⚠️ Предупреждение

Прежде чем переходить к установке, учтите несколько важных моментов:

  • Модели LLaMA 4 очень большие — от 100 до 220 ГБ. Они требуют значительного места на диске.
  • Модели используют архитектуру Mixture of Experts и требуют мощного оборудования — на процессоре они работают медленно, а на большинстве ноутбуков не запускаются напрямую.
  • На момент публикации Meta предоставляет только веса в формате .safetensors, которые нельзя запустить через llama.cpp. Для запуска потребуется библиотека transformers, text-generation-webui или адаптация под сторонние решения.
  • Даже установка и скачивание займут немало времени — убедитесь, что у вас стабильное интернет-соединение.

Ошибки

Во время установки и запуска модели почти наверняка будут возникать ошибки: несовпадения версий библиотек, нехватка памяти, неправильный путь к файлу, ошибки импорта — всё это часть процесса.

Вставьте его в любой чат-бот, например:

Объясните, что устанавливаете локально LLama 4 и попросите разобрать ошибку.

Получить доступ к Llama 4

Доступ к моделям Llama 4 Scout и Maverick предоставляется без ограничений. Нужно открыть официальную страницу, выбрать Download models и заполнить данные:

  • Имя;
  • Фамилия;
  • Дата рождения;
  • Email;
  • Страна;
  • Название компании — можно придумать или назвать существующую;
  • Должность — выбираем любую из списка.

Установка Llama 4

После заполнения данных вы получите ID запроса и инструкцию по загрузке моделей. Скачать их можно в течение 48 часов, до 5 раз, используя уникальные ссылки. Они придут на указанный адрес электронной почты.

Подготовка папки для модели

✅ macOS:

cd ~/Downloads mkdir -p llama/models cd llama/models

💻 Windows, cmd:

cd %USERPROFILE%\Downloads mkdir llama\models cd llama\models

Вместо %USERPROFILE% нужно ввести имя профиля в Windows, например Admin.

Скачиваем LLaMA 4 Scout или Maverick через curl или Invoke-WebRequest

Meta предоставляет уникальную ссылку на скачивание модели, действительную 48 часов. Она выглядит примерно так:

Не пытайтесь использовать ссылку из инструкции, она недействительна

https://llama4.llamameta.net/?Policy=eyJTdGF0ZW1lbnQiOlt7InVuaXF1ZV9oYXNoIjoicGgxeGRqOGx3bHIwYTU2YWVpMjM5ZDNpIiwiUmVzb3VyY2UiOiJodHRwczpcL1wvbGxhbWE0LmxsYW1hbWV0W70z-gRaD4DsMGSiu4i55xt4nIohvUC6QB5weJBShoYdiLhcCUQii6-ZyAgBgBcOl67-5wWEhoLwnlkJf5s4XvZaMYqKCJ6SGMK9MidUsVk12NUoBhEwh7kzlvBXbqElbeF%7E26dE1N8v3lS0rLD3OJ3Hk636bNb78GuRqNgQYt21vuA7PuGjKJsMlUyc7Ds7JJMOjpim5ihr4xQQmk-sjUJOlbMNDaKXnUBQ-UytMAwAxw3d9uL2JJ7u2y9A__&Key-Pair-Id=...&Download-Request-ID=...

Важно: не меняйте URL и не вставляйте * в адресе! Это приведёт к ошибке 403.

✅ macOS:

curl -L -o llama-4-scout-17b-instruct.safetensors "Ссылка"

💻 Windows PowerShell:

Invoke-WebRequest
-Uri "Ссылка"`

Или 💻 Windows cmd + wget:

wget "Ссылка" -O llama-4-scout-17b-instruct.safetensors

Результат: файл .safetensors

После успешной загрузки вы получите файл:

llama-4-scout-17b-instruct.safetensors

Размер: от 100 до 220 ГБ в зависимости от версии.

Что делать после загрузки .safetensors

Файл .safetensors, который вы скачали, содержит веса модели LLaMA 4. Запустить его можно несколькими способами — в зависимости от целей и возможностей компьютера.

Вариант 1. Использовать transformers от Hugging Face на CPU

Этот способ подойдёт для теста или работы с короткими запросами. Работает на CPU, без видеокарты.

Шаг 1. Установить зависимости

✅ macOS:

pip install transformers accelerate sentencepiece

💻 Windows (cmd или PowerShell):

pip install transformers accelerate sentencepiece

Шаг 2. Минимальный код для запуска модели

Создайте файл run_llama.py с таким содержанием:

from transformers import AutoTokenizer, AutoModelForCausalLM import torch model_path = "./llama-4-scout-17b-instruct.safetensors" # путь к модели tokenizer = AutoTokenizer.from_pretrained("meta-llama/Meta-Llama-3-8B-Instruct", use_fast=False) model = AutoModelForCausalLM.from_pretrained( model_path, torch_dtype=torch.float32, # CPU low_cpu_mem_usage=True, device_map="auto", ) prompt = "Расскажи коротко, как работает нейросеть LLaMA 4." inputs = tokenizer(prompt, return_tensors="pt") with torch.no_grad(): outputs = model.generate(**inputs, max_new_tokens=150) print(tokenizer.decode(outputs[0], skip_special_tokens=True))

meta-llama/Meta-Llama-3-8B-Instruct здесь используется только для загрузки токенизатора — замените, если Meta выпустит LLaMA 4 токенизатор отдельно.

Запуск:

python run_llama.py

Вариант 2. Подключить к WebUI (text-generation-webui)

Если вы хотите удобный графический интерфейс в браузере, можно использовать text-generation-webui:

  1. Склонируйте репозиторий:

git clone https://github.com/oobabooga/text-generation-webui cd text-generation-webui

  1. Скопируйте .safetensors модель в папку models/llama4
  2. Запустите:

python server.py --model llama4

Эта опция требует установки дополнительных библиотек. Подходит для продвинутых пользователей и серверов с GPU.

Примеры использования LLama 4

Даже если вы не разработчик и не запускаете LLaMA 4 в продакшене, с её помощью можно решать простые, но интересные задачи — прямо у себя на компьютере.

Создание локального чат-бота

Запустите LLama 4 в режиме Instruct и задавайте ей вопросы в любом стиле — от деловых до бытовых. Модель способна:

  • объяснить сложные темы простым языком;
  • помочь с текстами — письмами, планами, резюме;
  • вести диалог в удобной форме, даже без интернета.

Пример вопроса:

Объясни на пальцах, как работают критовалюты.

Генерация историй, писем и идей

С помощью LLaMA 4 можно писать:

  • короткие рассказы и сцены для книг;
  • мотивационные тексты;
  • генерацию сценариев для роликов, TikTok или подкаста.

Пример запроса:

Придумай весёлую историю.

*Meta - запрещена на территории РФ.

Сводка

  • Автор
  • Дата публикации2025/04/07
  • Просмотры

Категории

Рассылка

Расскажем о выходе новых нейросетей

Присоединяйтесь к сообществу.