OpenClaw + Ollama: как подключить локальные AI-модели
Запускайте OpenClaw с локальными моделями: DeepSeek, Llama, Mistral. Бесплатно, приватно, без API-ключей. Полное руководство по настройке Ollama.
Оглавление
Зачем нужны локальные модели
По умолчанию OpenClaw работает с облачными моделями — Claude, GPT-4o, Gemini. Запросы отправляются к API провайдера. Но есть случаи, когда это неприемлемо:
- Полная приватность: данные не покидают ваш компьютер. Ни один запрос не уходит в интернет. Идеально для работы с конфиденциальными документами
- Бесплатно: нет платы за API-запросы. После скачивания модели можно использовать без ограничений. Нет лимитов на сообщения
- Работа офлайн: OpenClaw с Ollama работает без интернета. Подходит для мест с нестабильным подключением
- Эксперименты: попробуйте десятки моделей, сравните качество, найдите оптимальную для вашей задачи
Важный минус: локальные модели требуют мощное железо. Для комфортной работы нужна видеокарта с 8-16 ГБ VRAM. Качество открытых моделей пока уступает Claude Opus и GPT-4o на сложных задачах.
Что такое Ollama
Ollama — инструмент для запуска больших языковых моделей (LLM) на локальном компьютере. Он скачивает модель, оптимизирует её для вашего железа (CPU или GPU) и предоставляет API, совместимый с OpenAI-форматом.
Поддерживаемые модели: DeepSeek R1 (лидер open-source), Llama 3.3 (Meta), Mistral, Gemma 2 (Google), Phi-4 (Microsoft), Qwen 2.5 (Alibaba) и десятки других. Новые модели добавляются регулярно.
Использование простое: ollama run deepseek-r1 — и модель запускается. OpenClaw подключается к Ollama через локальный API.
Установка Ollama
macOS / Linux
curl -fsSL https://ollama.ai/install.sh | shОдна команда — и Ollama установлен. На macOS также доступен через Homebrew: brew install ollama.
Windows (через WSL2)
Ollama на Windows работает через WSL2 (как и OpenClaw на Windows). Установите WSL2, затем внутри Ubuntu выполните ту же команду.
Проверка установки
ollama --versionollama listНастройка OpenClaw с Ollama
Шаг 1 — Скачать модель
Выберите модель и скачайте её. Рекомендуем начать с DeepSeek R1 8B — хороший баланс качества и скорости:
ollama pull deepseek-r1:8bШаг 2 — Настроить OpenClaw
В конфигурации OpenClaw укажите Ollama как провайдер. Измените endpoint на локальный адрес Ollama и укажите название модели:
# В настройках OpenClaw:Provider: OllamaEndpoint: http://localhost:11434Model: deepseek-r1:8bШаг 3 — Запуск и проверка
Убедитесь, что Ollama запущен (ollama serve), затем запустите OpenClaw. Отправьте тестовое сообщение в Telegram — ответ должен прийти от локальной модели. Время первого ответа может быть 5-10 секунд (загрузка модели в память).
Какую модель выбрать
Выбор зависит от вашего железа и задач. Чем больше модель — тем выше качество, но нужно больше VRAM:
| Модель | Размер | VRAM | Качество | Лучше всего для |
|---|---|---|---|---|
| DeepSeek R1 8B | 4.9 GB | 6 GB | Хорошее | Код, рассуждения |
| Llama 3.3 8B | 4.7 GB | 6 GB | Хорошее | Универсальная |
| Mistral 7B | 4.1 GB | 6 GB | Среднее | Быстрые ответы |
| Gemma 2 9B | 5.4 GB | 8 GB | Хорошее | Текст, анализ |
| DeepSeek R1 32B | 19 GB | 20 GB | Отличное | Сложные задачи |
| Llama 3.3 70B | 40 GB | 48 GB | Превосходное | Максимум качества |
Рекомендация: начните с DeepSeek R1 8B — это лучшее соотношение качества и требований. Если железо позволяет — попробуйте 32B версию для значительного скачка в качестве.
Ограничения локальных моделей
Локальные модели — не замена облачным. Важно понимать их ограничения:
- Качество ниже лидеров. Даже лучшие open-source модели (DeepSeek R1 70B) уступают Claude Opus и GPT-4o на сложных задачах: длинные рассуждения, нюансы языка, сложный код
- Нет поиска в интернете. Локальная модель не может искать в интернете без дополнительной настройки. OpenClaw частично компенсирует это своими навыками, но качество поиска ниже
- Требуется GPU. Для комфортной работы нужна видеокарта с 8+ ГБ VRAM. На CPU модели работают в 10-20 раз медленнее
- Контекст короче. Большинство локальных моделей поддерживают контекст 8-32K токенов. Claude Opus — 200K. Для длинных документов облачные модели значительно лучше
Хотите лучшее качество без мощного железа?
Через MyClawBot вы получаете OpenClaw с облачными моделями (Claude Opus, GPT-4o, Gemini) на выделенном сервере. Никакого железа не нужно — всё работает в облаке.
Установить OpenClaw за 1 минутуЧасто задаваемые вопросы
Можно ли запустить Ollama без GPU?
Да, Ollama работает и на CPU — но значительно медленнее. Маленькие модели (7-8B параметров) на современном CPU генерируют 3-5 токенов/сек. Для комфортной работы с моделями 13B+ нужна видеокарта с 8+ GB VRAM. Рекомендуем RTX 3060 12GB как минимум.
Какая минимальная видеокарта нужна?
Для моделей 7-8B (DeepSeek R1 8B, Llama 3.1 8B) — видеокарта с 8 GB VRAM (RTX 3060/4060). Для моделей 13B — 16 GB VRAM (RTX 4080/4090). Для моделей 70B — 2× RTX 4090 или A100. На Apple Silicon (M1/M2/M3) — используется unified memory.
Ollama работает с OpenClaw в Telegram?
Да. OpenClaw подключается к Ollama как к обычному AI-провайдеру. Вы указываете URL Ollama (обычно http://localhost:11434) и название модели в конфигурации OpenClaw. После этого все сообщения в Telegram обрабатываются локальной моделью.
Можно ли комбинировать Ollama и облачные модели?
Да, OpenClaw позволяет переключаться между провайдерами. Можно использовать локальную модель для повседневных задач (бесплатно и приватно), а для сложных задач переключаться на Claude Opus или GPT-4o через облачный API. Это даёт оптимальный баланс цены и качества.
Читайте также
- •Как установить OpenClaw — полная инструкция для всех платформ
- •OpenClaw на Windows — установка через WSL2
- •Навыки OpenClaw — что можно настроить и автоматизировать