Рассылка
Расскажем о выходе новых нейросетей
Присоединяйтесь к сообществу.
Веб-чат для локальных web-LLM моделей
Chatty — это веб-интерфейс для общения с локальными web-LLM моделями прямо в браузере. Подходит тем, кто хочет экспериментировать с разными языковыми моделями без сложной настройки окружения.
Основной акцент сделан на запуске моделей через web-llm. Пользователь открывает страницу, выбирает модель и сразу начинает диалог. В интерфейсе видны активные чаты, быстрый переход к новым сессиям и статус выбранной модели.
В списке моделей есть варианты с суффиксом (1k). Они снижают требования к видеопамяти примерно на 2–3 ГБ. Это удобно для владельцев видеокарт с ограниченным объемом VRAM, которые всё равно хотят протестировать современные языковые модели.
Chatty подходит для коротких вопросов, объяснений, черновиков текстов и тестирования поведения разных LLM. Интерфейс напоминает привычные чаты, поэтому не требует обучения: достаточно выбрать модель и начать диалог.
0 комментариев
Пока нет комментариев
Начните обсуждение первым — оно появится здесь сразу после отправки.