Сегодня большинство AI Coding Assistant (ИИ Кодинг-ассистентов) работают через облако — это быстро и удобно, но не всегда безопасно и стабильно. Лимиты, платные подписки, отправка кода на сторонние сервера — всё это ставит под угрозу не только комфорт, но и конфиденциальность разработки.
Альтернатива облачным сервисам — локальный запуск LLM (большой языковой модели) прямо на своём компьютере. Такой подход снимает ограничения внешних сервисов, позволяет настраивать и контролировать среду разработки, а также обеспечивает бесплатный доступ к ИИ даже в отсутствии интернета.
В этом посте разберём, как при помощи LM Studio запустить одну из самых продвинутых ИИ-моделей для кодинга — Qwen Coder от Alibaba Cloud и подключить её к Visual Studio Code.
Qwen Coder — это открытая модель от Alibaba Cloud, специально обученная на большом количестве программных кодов и технической документации. В отличие от универсальных LLM, Qwen Coder лучше понимает структуру кода и выдаёт более логичные и точные ответы.
Qwen Coder поддерживает десятки языков программирования, включая Python, JavaScript, Java и C++. Умеет писать, объяснять и дополнять код с высокой точностью.
Даже модель версии до 7B параметров работает стабильно и уверенно справляется с реальными задачами — от генерации функций до рефакторинга. Старшая версия на 14B параметров даёт уровень, близкий к GPT-4, но запускается при этом локально и бесплатно.
Минимальные системные требования:
LM Studio — это бесплатная настольная программа, которая позволяет запускать языковые модели (LLM) — Llama, DeepSeek, Qwen, Gemma и другие, прямо у себя на компьютере.
Плюсы использования LM Studio:
Приложения LM Studio доступны для всех основных платформ: Windows (в том числе для ARM-процессоров), Linux и macOS.


Skip на экране первоначальной настройки.
Discover на боковой панели.
Qwen 2.5 Coder, выбираем модель с необходимым количеством параметров и квантования, и скачиваем её.Load Model.
Developer (зелёная консоль) и запускаем сервер.http://localhost:1234/v1/.Чтобы интегрировать локальную LLM из LM Studio в VS Code, нам потребуется установить дополнительное расширение с открытым исходным кодом — Continue.
Extensions на боковой панели, либо используем комбинацию клавиш — Ctrl+Shift+X.
Continue, находим и устанавливаем дополнение — Continue - open-source AI code assistant.Continue.
Continue и нажимаем — Or, configure your own models.
Local и нажимаем — Skip and configure manually.config.yaml добавляем настройки модели.name: Local Assistant
version: 1.0.0
schema: v1
models:
- name: Qwen2.5-Coder-7B
provider: lmstudio
model: qwen2.5-coder-7b-instruct
apiBase: http://localhost:1234/v1/
apiKey: ""
roles:
- chat
- edit
- apply
context:
- provider: code
- provider: docs
- provider: diff
- provider: terminal
- provider: problems
- provider: folder
- provider: codebase
model: qwen2.5-coder-7b-instruct в настройках Continue должно соответствовать API-идентификатора этой модели в LM Studio — qwen2.5-coder-7b-instruct.
config.yaml и попросим нашу локальную модель написать html код таблицы 3*4.Теперь поле Chat будет работать аналогично другим ИИ-помощникам. Вы можете взаимодействовать с ним, задавая вопросы, запрашивая код-ревью, рефакторинг или генерируя новые фрагменты кода.
Надеюсь наша инструкция помогла вам без особых проблем подключить локального кодинг-ассистента в Visual Studio Code.
Если у вас возникли трудности или дополнения по тексту, то не стесняйтесь, пишите в комментариях.
Спасибо за инструкцию. Все подробно и понятно.
Как это в режиме агента запустить?
В Continue выбор режим агента доступен в селекторе Select Mode.
И ещё Continue автоматически определяет может модель работать в режиме Агента или Not Supported.
Режим агента в Continue (Agent Mode) может не работать с моделями, размещёнными в LM Studio.
Вот недавний баг https://github.com/lmstudio-ai/lmstudio-bug-tracker/issues/780
Попробуйте запустить с ollama.