Как подключить локального кодинг-ассистента в Visual Studio Code

Рубрика Избранное, СоветыОпубликовано 22 июля, 2025

Сегодня большинство AI Coding Assistant (ИИ Кодинг-ассистентов) работают через облако — это быстро и удобно, но не всегда безопасно и стабильно. Лимиты, платные подписки, отправка кода на сторонние сервера — всё это ставит под угрозу не только комфорт, но и конфиденциальность разработки.

Альтернатива облачным сервисам — локальный запуск LLM (большой языковой модели) прямо на своём компьютере. Такой подход снимает ограничения внешних сервисов, позволяет настраивать и контролировать среду разработки, а также обеспечивает бесплатный доступ к ИИ даже в отсутствии интернета.

В этом посте разберём, как при помощи LM Studio запустить одну из самых продвинутых ИИ-моделей для кодинга — Qwen Coder от Alibaba Cloud и подключить её к Visual Studio Code.


Почему Qwen Coder?

Qwen Coder — это открытая модель от Alibaba Cloud, специально обученная на большом количестве программных кодов и технической документации. В отличие от универсальных LLM, Qwen Coder лучше понимает структуру кода и выдаёт более логичные и точные ответы.

Qwen Coder поддерживает десятки языков программирования, включая Python, JavaScript, Java и C++. Умеет писать, объяснять и дополнять код с высокой точностью.

Даже модель версии до 7B параметров работает стабильно и уверенно справляется с реальными задачами — от генерации функций до рефакторинга. Старшая версия на 14B параметров даёт уровень, близкий к GPT-4, но запускается при этом локально и бесплатно.

Минимальные системные требования:

  • GPU: видеокарта 6–8 ГБ VRAM. Например, RTX 3060, RTX 4060.
  • ОЗУ: 16 ГБ. Желательно 32 ГБ.
  • Процессор: от 6 ядер. Желательно с AVX2/AVX512.
  • Модель: Qwen 2.5 Coder до 7B параметров (Q4/K_M) или (Q5/K_M).

Что такое LM Studio?

LM Studio — это бесплатная настольная программа, которая позволяет запускать языковые модели (LLM) — Llama, DeepSeek, Qwen, Gemma и другие, прямо у себя на компьютере.

Плюсы использования LM Studio:

  • Приватность. Все данные остаются у тебя на компьютере. Модель не отсылает запросы в облако, не сохраняет логи и не передаёт ваши данные третьим лицам.
  • Бесплатность. Ни подписок, ни платных функций. Все инструменты LM Studio доступны сразу и без скрытых условий.
  • Гибкость. Выбирай модели под конкретные задачи и легко переключайся между ними.
  • Оффлайн доступ. Работает даже без интернета — идеально для автономной среды, защиты конфиденциальных данных и мобильной разработки.
  • Обучение и настройка. LM Studio поддерживает дообучение (fine-tuning) и загрузку пользовательских LoRA-адаптеров — ты можешь адаптировать модель под конкретный стек, стиль кода или внутренние задачи команды.

Устанавливаем и запускаем LM Studio

Приложения LM Studio доступны для всех основных платформ: Windows (в том числе для ARM-процессоров), Linux и macOS.

Выбираем свою платформу и устанавливаем LM Studio.
Выбираем свою платформу и устанавливаем LM Studio.
  • Переходим на сайт разработчика. Выбираем свою платформу, скачиваем и устанавливаем LM Studio.
Нажимаем — Skip на экране первоначальной настройке.
Нажимаем — Skip на экране первоначальной настройке.
  • Запускаем LM Studio и нажимаем — Skip на экране первоначальной настройки.
Выбираем режим Developer и нажимаем на лупу — Discover на боковой панели.
Выбираем режим Developer и нажимаем на лупу — Discover на боковой панели.
  • Выбираем режим Developer и нажимаем на лупу — Discover на боковой панели.
В окне поиска моделей вводим — Qwen 2.5 Coder и выбираем модель с необходимым количеством параметров и квантования.
В окне поиска моделей вводим — Qwen 2.5 Coder и выбираем модель с необходимым количеством параметров и квантования.
  • В окне поиска моделей вводим — Qwen 2.5 Coder, выбираем модель с необходимым количеством параметров и квантования, и скачиваем её.
  • Дожидаемся окончания загрузки и в окне загрузки нажимаем на кнопку Load Model.
На боковой панели нажимаем на кнопку — Developer (зелёная консоль) и запускаем сервер.
На боковой панели нажимаем на кнопку — Developer (зелёная консоль) и запускаем сервер.
  • На боковой панели нажимаем на кнопку — Developer (зелёная консоль) и запускаем сервер.
  • По умолчанию адрес сервера: http://localhost:1234/v1/.

Подключаем локального кодинг-ассистента в Visual Studio Code

Чтобы интегрировать локальную LLM из LM Studio в VS Code, нам потребуется установить дополнительное расширение с открытым исходным кодом — Continue.

  • Запускаем Visual Studio Code и открываем страницу с расширениями, нажав на кнопку — Extensions на боковой панели, либо используем комбинацию клавиш — Ctrl+Shift+X.
В поле поиска расширений вводим — Continue, находим и устанавливаем дополнение - Continue - open-source AI code assistant.
В поле поиска расширений вводим — Continue, находим и устанавливаем дополнение — Continue — open-source AI code assistant.
  • В поле поиска расширений вводим — Continue, находим и устанавливаем дополнение — Continue - open-source AI code assistant.
  • После установки на боковой панели VS Code появится новая вкладка — Continue.
Переходим на вкладку Continue и нажимаем — Or, configure your own models.
Переходим на вкладку Continue и нажимаем — Or, configure your own models.
  • Переходим на вкладку Continue и нажимаем — Or, configure your own models.
Затем выбираем вкладку — Local и нажимаем — Skip and configure manually.
Затем выбираем вкладку — Local и нажимаем — Skip and configure manually.
  • Затем выбираем вкладку — Local и нажимаем — Skip and configure manually.
  • В открывшемся файле config.yaml добавляем настройки модели.
name: Local Assistant
version: 1.0.0
schema: v1

models:
  - name: Qwen2.5-Coder-7B
    provider: lmstudio
    model: qwen2.5-coder-7b-instruct
    apiBase: http://localhost:1234/v1/
    apiKey: ""       
    roles:
      - chat
      - edit
      - apply

context:
  - provider: code
  - provider: docs
  - provider: diff
  - provider: terminal
  - provider: problems
  - provider: folder
  - provider: codebase
Название модели model: qwen2.5-coder-7b-instruct в настройках Continue должно соответствовать API-идентификатора этой модели в LM Studio.
Название модели model: qwen2.5-coder-7b-instruct в настройках Continue должно соответствовать API-идентификатора этой модели в LM Studio.
  • Обратите внимание, что название модели model: qwen2.5-coder-7b-instruct в настройках Continue должно соответствовать API-идентификатора этой модели в LM Studio — qwen2.5-coder-7b-instruct.
Сохраняем файл настроек config.yaml и попросим нашу локальную модель написать html код таблицы 3*4.
Сохраняем файл настроек config.yaml и попросим нашу локальную модель написать html код таблицы 3*4.
  • Сохраняем файл настроек config.yaml и попросим нашу локальную модель написать html код таблицы 3*4.

Теперь поле Chat будет работать аналогично другим ИИ-помощникам. Вы можете взаимодействовать с ним, задавая вопросы, запрашивая код-ревью, рефакторинг или генерируя новые фрагменты кода.


Надеюсь наша инструкция помогла вам без особых проблем подключить локального кодинг-ассистента в Visual Studio Code.

Если у вас возникли трудности или дополнения по тексту, то не стесняйтесь, пишите в комментариях.

Подписаться
Уведомить о
guest
8 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
kar2ga
Гость
kar2ga
7 месяцев назад

Спасибо за инструкцию. Все подробно и понятно.

Dark Wizard
Гость
Dark Wizard
7 месяцев назад

Как это в режиме агента запустить?

kar2ga
Гость
kar2ga
7 месяцев назад
Ответить на  Dark Wizard

В Continue выбор режим агента доступен в селекторе Select Mode.
И ещё Continue автоматически определяет может модель работать в режиме Агента или Not Supported.

mode-select-agent
Ore
Гость
Ore
7 месяцев назад
Ответить на  Dark Wizard

Режим агента в Continue (Agent Mode) может не работать с моделями, размещёнными в LM Studio.
Вот недавний баг https://github.com/lmstudio-ai/lmstudio-bug-tracker/issues/780
Попробуйте запустить с ollama.

Алексей
Гость
Алексей
13 дней назад

инструкция не полная, это не работает.

Ore
Гость
Ore
13 дней назад
Ответить на  Алексей

Что конкретно не работает?

Алексей
Гость
Алексей
11 дней назад
Ответить на  Ore

чат VSCode никаких локальных нейронок не видит. LM-Studio поствить проще некуда, там всё работает без вопросов.

Последние новости

Chrome: Вертикальные вкладки и полноэкранный режим чтения
Google начинает внедрение двух новых функций
4 дня назад
Acrobat Student Spaces: бесплатный ИИ-инструмент для учёбы
Adobe запускает альтернативу Google NotebookLM.
4 дня назад
Gemma 4: Новые открытые модели от Google
Доступно четыре универсальных размера.
4 дня назад
Waterfox: 15 лет существования форка
Что будет в 2026 году?
6 дней назад
Система Orphus
Нашли ошибку? Выделите её и нажмите Ctrl+Enter