Как установить на компьютер ИИ модель DeepSeek

Рубрика Избранное, СоветыОпубликовано 14 июля, 2025

Что такое DeepSeek? Это китайская разработка в области генеративного ИИ — большая языковая модель (LLM), аналог GPT от OpenAI или Claude от Anthropic. Она умеет писать тексты, генерировать код, решать задачи и вести диалоги почти как человек.

Проще говоря, DeepSeek — это мощная нейросеть, которую можно использовать в чат-ботах, IDE, поиске, автоматизации и даже в создании собственных ИИ-продуктов.

DeepSeek.
DeepSeek.

В мае 2024 года команда представила DeepSeek-V2, языковую модель с 236 миллиардами параметров. Следом вышла DeepSeek-Coder-V2, ориентированная на разработчиков, которая работает с 338 языками программирования — от Python и Rust до Verilog — и решает задачи не хуже GPT-4.

DeepSeek позиционирует себя как open-source-альтернатива западным гигантам. Исходники, веса моделей и инструкции доступны на GitHub. Это значит, что ты можешь скачать модель, запустить её локально, интегрировать в свои сервисы или дообучить под нужды бизнеса — без зависимости от облаков OpenAI или Google.

Сегодня мы расскажем, как установить на свой компьютер и использовать локально ИИ модель DeepSeek R1 при помощи приложения LM Studio.


LM Studio

LM Studio — это бесплатная настольная программа, которая позволяет запускать языковые модели (LLM) — Llama, DeepSeek, Qwen, Gemma и другие, прямо у себя на компьютере. Подойдет для тех, кто не хочет зависеть от API-ключей, интернет-соединения и цензуры.

Плюсы использования LM Studio:

  • Приватность. Все данные остаются у тебя на компьютере. Модель не отсылает запросы в облако, не сохраняет логи, не передаёт переписку третьим лицам.
  • Отсутствие цензуры. Ты сам решаешь, что спрашивать и как использовать ИИ — никаких фильтров или «запрещённых тем».
  • Бесплатность. Ни подписок, ни платных функций — LM Studio доступна каждому.
  • Гибкость. Выбирай модели под конкретные задачи и легко переключайся между ними. К примеру, LLaMA для наиболее точных ответов, а DeepSeek‑Coder для помощи в кодинге.
  • Оффлайн доступ. Работает даже без интернета — идеальный вариант для экспериментов и защиты данных. Локальная установка позволит вам использовать ИИ в любое время и в любом месте.
  • Обучение и настройка. LM Studio поддерживает дообучение (fine-tuning) и загрузку пользовательских LoRA-адаптеров — ты можешь адаптировать модель под свои задачи.

Основной и главный минус использования ИИ моделей локально — это нехватка аппаратных ресурсов. В частности, видеопамяти.

Из-за ограничений в мощности компьютера, часто приходится использовать не полные, а облегчённые версии ИИ моделей, а это влечет за собой — менее точные и развёрнутые ответы. Также на слабых системах модели долго подгружаются и работают довольно медленно.

Минимальные системные требования:

  • GPU: видеокарта 6 ГБ VRAM. Например, RTX 3050/3060.
  • ОЗУ: 16 ГБ. Желательно 32 ГБ.
  • Процессор: от 6 ядер. Желательно с AVX2/AVX512.
  • Модель: DeepSeek до 7B параметров (Q4/K_M) или (Q5/K_M).

Устанавливаем и запускаем LM Studio

Приложения LM Studio доступны для всех основных платформ: Windows (в том числе для ARM-процессоров), Linux и macOS.

Выбираем свою платформу и устанавливаем LM Studio.
Выбираем свою платформу и устанавливаем LM Studio.
Нажимаем — Skip на экране первоначальной настройке.
Нажимаем — Skip на экране первоначальной настройке.
  • Запускаем LM Studio и нажимаем — Skip на экране первоначальной настройки.
Выбираем режим Developer и нажимаем на лупу — Discover на боковой панели.
Выбираем режим Developer и нажимаем на лупу — Discover на боковой панели.
  • Выбираем режим Developer и нажимаем на лупу — Discover на боковой панели.
В окне поиска моделей вводим — deepseek и выбираем модель с необходимым количеством параметров и квантования.
В окне поиска моделей вводим — deepseek и выбираем модель с необходимым количеством параметров и квантования.
  • В окне поиска моделей вводим — deepseek, выбираем модель с необходимым количеством параметров и квантования, и скачиваем её. Обратите внимание, что LM Studio автоматически предложит модель соответствующую вашему железу.
Дожидаемся окончания загрузки и можем переходить в чат и использовать ИИ модель локально.
Дожидаемся окончания загрузки и можем переходить в чат и использовать ИИ модель локально.
  • Дожидаемся окончания загрузки и можем переходить в чат и использовать ИИ модель локально.

Надеюсь наша инструкция помогла вам без особых проблем установить и использовать DeepSeek R1 локально.

Если у вас возникли трудности или дополнения по тексту, то не стесняйтесь, пишите в комментариях.

Подписаться
Уведомить о
guest
1 Комментарий
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
kar2ga
Гость
kar2ga
3 месяцев назад

По мне в LM Studio все очевидно и понятно. Сложно не справиться.

Последние новости

Firefox: Новый список рекомендуемых расширений
Обязательных к установке.
2 недели назад
Новый Affinity: Теперь бесплатно для всех
Редактирование фотографий, векторный дизайн и верстка страниц.
2 недели назад
Firefox: Прямые результаты поиска в адресной строке
Минуя страницу с результатами поиска.
2 недели назад
Топ лучших демейков
Альтернативная ретро-вселенная ваших любимых игр.
3 недели назад
Система Orphus
Нашли ошибку? Выделите её и нажмите Ctrl+Enter