Поделиться:

Есть две версии gpt-oss. Мы возьмем более легкую - gpt-oss-20b. Она занимает всего 16 ГБ места, в отличие от монструозной 120b-версии, которая тянет на 120+ ГБ. Модель 20b лучше всего покажет себя на мощном Mac с хорошей видеокартой, но в наших тестах она вполне прилично работала и на разных Mac с чипами Apple Silicon серии M. Хотя gpt-oss работает офлайн и не требует подключения к сети, сами файлы модели сначала нужно скачать - так что интернет на старте все же понадобится.

Как запустить gpt-oss локально и офлайн на Mac

Проще всего сделать это через бесплатное приложение LM Studio. Вот быстрая инструкция по настройке:

  1. Скачай LM Studio бесплатно с https://lmstudio.ai/download
  2. Запусти LM Studio и выбери "Power User"
  3. На следующем экране убедись, что выбран gpt-oss, и нажми "Download gpt-oss", чтобы начать загрузку файлов
  4. Когда загрузка завершится, выбери "Start a New Chat"
  5. В верхней части окна кликни в заголовке
  6. Выбери "openai/gpt-oss" в качестве модели - она загрузится, и можно будет с ней общаться
  7. Как только gpt-oss-20b загрузится, можно начинать диалог - прямо как в обычном ChatGPT или любом другом чат-боте

Вот и все, наслаждайся персональным офлайн-GPT! Можешь использовать его как любую другую LLM: задавать вопросы, решать уравнения и математические задачи, генерировать текст (письма, отчеты), анализировать данные, писать код - в общем, все, что умеет мощный ИИ-инструмент.

Поскольку gpt-oss работает офлайн, он не сможет обновлять информацию или запрашивать свежие данные из сети. Но даже в версии 20b у него огромная база знаний. Если хочется больше возможностей (и не страшно, что на большинстве домашних Mac все будет работать медленнее), можешь поставить версию 120b - если, конечно, хватит места на диске.

Мы разобрали запуск gpt-oss, который основан на GPT-4. Но локально можно запустить кучу других моделей: разные версии Llama (включая "нецензурированную"), DeepSeek и многие другие.

Нравится тебе ИИ или нет - эти инструменты уже никуда не денутся. Они становятся все мощнее и повсеместнее. А возможность запускать модели офлайн - это серьезный плюс для тех, кто заботится о приватности. Или просто хочет поэкспериментировать с LLM без постоянной отправки данных на серверы, как это происходит с онлайн-инструментами.

Если ты помешан на конфиденциальности и хочешь на 100% гарантировать, что твои сверхсекретные диалоги с ИИ никуда не утекут, можешь пойти еще дальше. Скачай и установи gpt-oss в виртуальную машину, а потом отключи ее от сети полностью. Так внешних подключений точно не будет. Некоторые так и делают - например, когда используют LLM для очень личных целей. Экспериментируй, пробуй разные варианты.

Если увлекаешься ИИ и языковыми моделями, заглядывай в другие наши статьи на эту тему!