OpenClaw + Ollama: как подключить локальные AI-модели

Запускайте OpenClaw с локальными моделями: DeepSeek, Llama, Mistral. Бесплатно, приватно, без API-ключей. Полное руководство по настройке Ollama.

12 мин чтения1 марта 2026

Зачем нужны локальные модели

По умолчанию OpenClaw работает с облачными моделями — Claude, GPT-4o, Gemini. Запросы отправляются к API провайдера. Но есть случаи, когда это неприемлемо:

  • Полная приватность: данные не покидают ваш компьютер. Ни один запрос не уходит в интернет. Идеально для работы с конфиденциальными документами
  • Бесплатно: нет платы за API-запросы. После скачивания модели можно использовать без ограничений. Нет лимитов на сообщения
  • Работа офлайн: OpenClaw с Ollama работает без интернета. Подходит для мест с нестабильным подключением
  • Эксперименты: попробуйте десятки моделей, сравните качество, найдите оптимальную для вашей задачи

Важный минус: локальные модели требуют мощное железо. Для комфортной работы нужна видеокарта с 8-16 ГБ VRAM. Качество открытых моделей пока уступает Claude Opus и GPT-4o на сложных задачах.

Что такое Ollama

Ollama — инструмент для запуска больших языковых моделей (LLM) на локальном компьютере. Он скачивает модель, оптимизирует её для вашего железа (CPU или GPU) и предоставляет API, совместимый с OpenAI-форматом.

Поддерживаемые модели: DeepSeek R1 (лидер open-source), Llama 3.3 (Meta), Mistral, Gemma 2 (Google), Phi-4 (Microsoft), Qwen 2.5 (Alibaba) и десятки других. Новые модели добавляются регулярно.

Использование простое: ollama run deepseek-r1 — и модель запускается. OpenClaw подключается к Ollama через локальный API.

Установка Ollama

macOS / Linux

curl -fsSL https://ollama.ai/install.sh | sh

Одна команда — и Ollama установлен. На macOS также доступен через Homebrew: brew install ollama.

Windows (через WSL2)

Ollama на Windows работает через WSL2 (как и OpenClaw на Windows). Установите WSL2, затем внутри Ubuntu выполните ту же команду.

Проверка установки

ollama --version
ollama list

Настройка OpenClaw с Ollama

Шаг 1 — Скачать модель

Выберите модель и скачайте её. Рекомендуем начать с DeepSeek R1 8B — хороший баланс качества и скорости:

ollama pull deepseek-r1:8b

Шаг 2 — Настроить OpenClaw

В конфигурации OpenClaw укажите Ollama как провайдер. Измените endpoint на локальный адрес Ollama и укажите название модели:

# В настройках OpenClaw:
Provider: Ollama
Endpoint: http://localhost:11434
Model: deepseek-r1:8b

Шаг 3 — Запуск и проверка

Убедитесь, что Ollama запущен (ollama serve), затем запустите OpenClaw. Отправьте тестовое сообщение в Telegram — ответ должен прийти от локальной модели. Время первого ответа может быть 5-10 секунд (загрузка модели в память).

Какую модель выбрать

Выбор зависит от вашего железа и задач. Чем больше модель — тем выше качество, но нужно больше VRAM:

МодельРазмерVRAMКачествоЛучше всего для
DeepSeek R1 8B4.9 GB6 GBХорошееКод, рассуждения
Llama 3.3 8B4.7 GB6 GBХорошееУниверсальная
Mistral 7B4.1 GB6 GBСреднееБыстрые ответы
Gemma 2 9B5.4 GB8 GBХорошееТекст, анализ
DeepSeek R1 32B19 GB20 GBОтличноеСложные задачи
Llama 3.3 70B40 GB48 GBПревосходноеМаксимум качества

Рекомендация: начните с DeepSeek R1 8B — это лучшее соотношение качества и требований. Если железо позволяет — попробуйте 32B версию для значительного скачка в качестве.

Ограничения локальных моделей

Локальные модели — не замена облачным. Важно понимать их ограничения:

  • Качество ниже лидеров. Даже лучшие open-source модели (DeepSeek R1 70B) уступают Claude Opus и GPT-4o на сложных задачах: длинные рассуждения, нюансы языка, сложный код
  • Нет поиска в интернете. Локальная модель не может искать в интернете без дополнительной настройки. OpenClaw частично компенсирует это своими навыками, но качество поиска ниже
  • Требуется GPU. Для комфортной работы нужна видеокарта с 8+ ГБ VRAM. На CPU модели работают в 10-20 раз медленнее
  • Контекст короче. Большинство локальных моделей поддерживают контекст 8-32K токенов. Claude Opus — 200K. Для длинных документов облачные модели значительно лучше

Хотите лучшее качество без мощного железа?

Через MyClawBot вы получаете OpenClaw с облачными моделями (Claude Opus, GPT-4o, Gemini) на выделенном сервере. Никакого железа не нужно — всё работает в облаке.

Установить OpenClaw за 1 минуту

Часто задаваемые вопросы

Можно ли запустить Ollama без GPU?

Да, Ollama работает и на CPU — но значительно медленнее. Маленькие модели (7-8B параметров) на современном CPU генерируют 3-5 токенов/сек. Для комфортной работы с моделями 13B+ нужна видеокарта с 8+ GB VRAM. Рекомендуем RTX 3060 12GB как минимум.

Какая минимальная видеокарта нужна?

Для моделей 7-8B (DeepSeek R1 8B, Llama 3.1 8B) — видеокарта с 8 GB VRAM (RTX 3060/4060). Для моделей 13B — 16 GB VRAM (RTX 4080/4090). Для моделей 70B — 2× RTX 4090 или A100. На Apple Silicon (M1/M2/M3) — используется unified memory.

Ollama работает с OpenClaw в Telegram?

Да. OpenClaw подключается к Ollama как к обычному AI-провайдеру. Вы указываете URL Ollama (обычно http://localhost:11434) и название модели в конфигурации OpenClaw. После этого все сообщения в Telegram обрабатываются локальной моделью.

Можно ли комбинировать Ollama и облачные модели?

Да, OpenClaw позволяет переключаться между провайдерами. Можно использовать локальную модель для повседневных задач (бесплатно и приватно), а для сложных задач переключаться на Claude Opus или GPT-4o через облачный API. Это даёт оптимальный баланс цены и качества.

Читайте также

openclawollamadeepseekllamaлокальные моделиприватность