Как подключить локального кодинг-ассистента в Visual Studio Code

Рубрика Избранное, СоветыОпубликовано 22 июля, 2025

Сегодня большинство AI Coding Assistant (ИИ Кодинг-ассистентов) работают через облако — это быстро и удобно, но не всегда безопасно и стабильно. Лимиты, платные подписки, отправка кода на сторонние сервера — всё это ставит под угрозу не только комфорт, но и конфиденциальность разработки.

Альтернатива облачным сервисам — локальный запуск LLM (большой языковой модели) прямо на своём компьютере. Такой подход снимает ограничения внешних сервисов, позволяет настраивать и контролировать среду разработки, а также обеспечивает бесплатный доступ к ИИ даже в отсутствии интернета.

В этом посте разберём, как при помощи LM Studio запустить одну из самых продвинутых ИИ-моделей для кодинга — Qwen Coder от Alibaba Cloud и подключить её к Visual Studio Code.


Почему Qwen Coder?

Qwen Coder — это открытая модель от Alibaba Cloud, специально обученная на большом количестве программных кодов и технической документации. В отличие от универсальных LLM, Qwen Coder лучше понимает структуру кода и выдаёт более логичные и точные ответы.

Qwen Coder поддерживает десятки языков программирования, включая Python, JavaScript, Java и C++. Умеет писать, объяснять и дополнять код с высокой точностью.

Даже модель версии до 7B параметров работает стабильно и уверенно справляется с реальными задачами — от генерации функций до рефакторинга. Старшая версия на 14B параметров даёт уровень, близкий к GPT-4, но запускается при этом локально и бесплатно.

Минимальные системные требования:

  • GPU: видеокарта 6–8 ГБ VRAM. Например, RTX 3060, RTX 4060.
  • ОЗУ: 16 ГБ. Желательно 32 ГБ.
  • Процессор: от 6 ядер. Желательно с AVX2/AVX512.
  • Модель: Qwen 2.5 Coder до 7B параметров (Q4/K_M) или (Q5/K_M).

Что такое LM Studio?

LM Studio — это бесплатная настольная программа, которая позволяет запускать языковые модели (LLM) — Llama, DeepSeek, Qwen, Gemma и другие, прямо у себя на компьютере.

Плюсы использования LM Studio:

  • Приватность. Все данные остаются у тебя на компьютере. Модель не отсылает запросы в облако, не сохраняет логи и не передаёт ваши данные третьим лицам.
  • Бесплатность. Ни подписок, ни платных функций. Все инструменты LM Studio доступны сразу и без скрытых условий.
  • Гибкость. Выбирай модели под конкретные задачи и легко переключайся между ними.
  • Оффлайн доступ. Работает даже без интернета — идеально для автономной среды, защиты конфиденциальных данных и мобильной разработки.
  • Обучение и настройка. LM Studio поддерживает дообучение (fine-tuning) и загрузку пользовательских LoRA-адаптеров — ты можешь адаптировать модель под конкретный стек, стиль кода или внутренние задачи команды.

Устанавливаем и запускаем LM Studio

Приложения LM Studio доступны для всех основных платформ: Windows (в том числе для ARM-процессоров), Linux и macOS.

Выбираем свою платформу и устанавливаем LM Studio.
Выбираем свою платформу и устанавливаем LM Studio.
  • Переходим на сайт разработчика. Выбираем свою платформу, скачиваем и устанавливаем LM Studio.
Нажимаем — Skip на экране первоначальной настройке.
Нажимаем — Skip на экране первоначальной настройке.
  • Запускаем LM Studio и нажимаем — Skip на экране первоначальной настройки.
Выбираем режим Developer и нажимаем на лупу — Discover на боковой панели.
Выбираем режим Developer и нажимаем на лупу — Discover на боковой панели.
  • Выбираем режим Developer и нажимаем на лупу — Discover на боковой панели.
В окне поиска моделей вводим — Qwen 2.5 Coder и выбираем модель с необходимым количеством параметров и квантования.
В окне поиска моделей вводим — Qwen 2.5 Coder и выбираем модель с необходимым количеством параметров и квантования.
  • В окне поиска моделей вводим — Qwen 2.5 Coder, выбираем модель с необходимым количеством параметров и квантования, и скачиваем её.
  • Дожидаемся окончания загрузки и в окне загрузки нажимаем на кнопку Load Model.
На боковой панели нажимаем на кнопку — Developer (зелёная консоль) и запускаем сервер.
На боковой панели нажимаем на кнопку — Developer (зелёная консоль) и запускаем сервер.
  • На боковой панели нажимаем на кнопку — Developer (зелёная консоль) и запускаем сервер.
  • По умолчанию адрес сервера: http://localhost:1234/v1/.

Подключаем локального кодинг-ассистента в Visual Studio Code

Чтобы интегрировать локальную LLM из LM Studio в VS Code, нам потребуется установить дополнительное расширение с открытым исходным кодом — Continue.

  • Запускаем Visual Studio Code и открываем страницу с расширениями, нажав на кнопку — Extensions на боковой панели, либо используем комбинацию клавиш — Ctrl+Shift+X.
В поле поиска расширений вводим — Continue, находим и устанавливаем дополнение - Continue - open-source AI code assistant.
В поле поиска расширений вводим — Continue, находим и устанавливаем дополнение — Continue — open-source AI code assistant.
  • В поле поиска расширений вводим — Continue, находим и устанавливаем дополнение — Continue - open-source AI code assistant.
  • После установки на боковой панели VS Code появится новая вкладка — Continue.
Переходим на вкладку Continue и нажимаем — Or, configure your own models.
Переходим на вкладку Continue и нажимаем — Or, configure your own models.
  • Переходим на вкладку Continue и нажимаем — Or, configure your own models.
Затем выбираем вкладку — Local и нажимаем — Skip and configure manually.
Затем выбираем вкладку — Local и нажимаем — Skip and configure manually.
  • Затем выбираем вкладку — Local и нажимаем — Skip and configure manually.
  • В открывшемся файле config.yaml добавляем настройки модели.
name: Local Assistant
version: 1.0.0
schema: v1

models:
  - name: Qwen2.5-Coder-7B
    provider: lmstudio
    model: qwen2.5-coder-7b-instruct
    apiBase: http://localhost:1234/v1/
    apiKey: ""       
    roles:
      - chat
      - edit
      - apply

context:
  - provider: code
  - provider: docs
  - provider: diff
  - provider: terminal
  - provider: problems
  - provider: folder
  - provider: codebase
Название модели model: qwen2.5-coder-7b-instruct в настройках Continue должно соответствовать API-идентификатора этой модели в LM Studio.
Название модели model: qwen2.5-coder-7b-instruct в настройках Continue должно соответствовать API-идентификатора этой модели в LM Studio.
  • Обратите внимание, что название модели model: qwen2.5-coder-7b-instruct в настройках Continue должно соответствовать API-идентификатора этой модели в LM Studio — qwen2.5-coder-7b-instruct.
Сохраняем файл настроек config.yaml и попросим нашу локальную модель написать html код таблицы 3*4.
Сохраняем файл настроек config.yaml и попросим нашу локальную модель написать html код таблицы 3*4.
  • Сохраняем файл настроек config.yaml и попросим нашу локальную модель написать html код таблицы 3*4.

Теперь поле Chat будет работать аналогично другим ИИ-помощникам. Вы можете взаимодействовать с ним, задавая вопросы, запрашивая код-ревью, рефакторинг или генерируя новые фрагменты кода.


Надеюсь наша инструкция помогла вам без особых проблем подключить локального кодинг-ассистента в Visual Studio Code.

Если у вас возникли трудности или дополнения по тексту, то не стесняйтесь, пишите в комментариях.

Подписаться
Уведомить о
guest
4 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
kar2ga
Гость
kar2ga
5 месяцев назад

Спасибо за инструкцию. Все подробно и понятно.

Dark Wizard
Гость
Dark Wizard
5 месяцев назад

Как это в режиме агента запустить?

kar2ga
Гость
kar2ga
4 месяцев назад
Ответить на  Dark Wizard

В Continue выбор режим агента доступен в селекторе Select Mode.
И ещё Continue автоматически определяет может модель работать в режиме Агента или Not Supported.

mode-select-agent
Ore
Гость
Ore
4 месяцев назад
Ответить на  Dark Wizard

Режим агента в Continue (Agent Mode) может не работать с моделями, размещёнными в LM Studio.
Вот недавний баг https://github.com/lmstudio-ai/lmstudio-bug-tracker/issues/780
Попробуйте запустить с ollama.

Последние новости

Firefox 147: Поддержка WebGPU от Apple Silicon
И увеличение производительности воспроизведения видео на ГП AMD.
6 дней назад
Joplin 3.5: Улучшена обработка Markdown-кода
И добавлена поддержка тегов без учета регистра.
6 дней назад
Браузер Brave: Обновлён встроенный блокировщик рекламы
Сократил потребление памяти на 75%.
1 неделя назад
Система Orphus
Нашли ошибку? Выделите её и нажмите Ctrl+Enter