Поделиться:

Важное условие: для локального запуска нужен Mac на Apple Silicon. В этом руководстве мы воспользуемся бесплатной утилитой LM Studio — с её помощью настроить DeepSeek на Mac получится быстро. Звучит сложно? На самом деле, всё проще, чем кажется. Сейчас разберёмся по шагам.

Как запустить DeepSeek локально на Mac

Ещё раз: вам понадобится Mac на Apple Silicon с чипом серии M или новее. Требование строгое, но это стандарт для запуска любых локальных моделей — будь то Apple Intelligence, ChatGPT, Llama или другие популярные LLM. Также убедитесь, что на диске есть хотя бы 10 ГБ свободного места. Если у вас Mac на Intel, то локально DeepSeek не запустить, но остаются варианты с iPhone/iPad или веб-версией. А мы предполагаем, что Apple Silicon у вас уже есть. Итак, вот как запустить DeepSeek локально:

  1. Скачайте LM Studio бесплатно с lmstudio.ai
  2. Смонтируйте образ диска с LM Studio и перетащите приложение «LM Studio» из образа в папку «Программы», чтобы установить его. После этого запустите LM Studio прямо оттуда.
  3. При первом запуске вы увидите стартовый экран. Нажмите на зелёную кнопку «Get your first LLM».
  4. На экране загрузки первой локальной модели нажмите зелёную кнопку «Download» (по желанию, снимите галочку с «Enable local LLM service on login», если не хотите, чтобы фоновый процесс для DeepSeek запускался при каждой загрузке системы).
  5. Дождитесь загрузки DeepSeek LLM. Файл весит несколько гигабайт, так что это может занять время. Как только загрузка завершится, вы сможете общаться с моделью прямо на своём Mac.

Всё, теперь DeepSeek работает локально на вашем Mac, и вы можете свободно с ним взаимодействовать.

Хотите убедиться, что всё действительно работает офлайн? Отключите Wi-Fi или полностью разорвите интернет-соединение. Вы увидите, что LM Studio и DeepSeek по-прежнему отвечают.

Скорее всего, вы заметите, что локальный LLM работает медленнее, чем облачные аналоги. И это логично: у облачных сервисов — огромные мощности, заточенные исключительно под запуск моделей. А локальная модель упирается в ресурсы вашего Mac: процессор, память и текущую нагрузку. Если для вас в приоритете только скорость, то, возможно, облачный вариант будет предпочтительнее. Хотя на самых свежих и мощных Mac всё летает вполне прилично.

Кстати, через LM Studio на Mac можно запускать и другие LLM локально: помимо DeepSeek, там есть Llama, Mistral, Phi. Но сегодня мы, понятное дело, про DeepSeek. Раньше мы уже обсуждали варианты с локальными моделями, например, как запустить Llama LLM на Mac (включая нецензурированную версию!). Но этот способ запуска DeepSeek (да и других моделей, если интересно) — один из самых простых, да и производительность тут на уровне. За идею спасибо CultOfMac.

Лично я большой фанат Mac-клиента для ChatGPT, пользуюсь им постоянно. Но есть же ещё Perplexity и куча других интересных клиентов и ИИ-инструментов. Не говоря уже о десятках веб- и мобильных вариантов вроде Bing с ChatGPT, Google Gemini, Grok от X, Llama от Facebook и многих других.

А что вы думаете про локальный запуск DeepSeek на Mac? Как вообще относитесь к LLM и ИИ-инструментам? Есть любимая локальная модель или предпочтительный клиент? Делитесь мыслями и опытом по поводу DeepSeek, LLM и ИИ в целом в комментариях!