Ollama — настольная программа с открытым исходным кодом для локальной работы с OpenAI gpt-oss, DeepSeek-R1, Gemma 3 и другими большими языковыми моделями (LLM).
Позволяет запускать различные языковые модели прямо на вашем ПК. Не требует API-ключей, постоянного подключения к интернету и передачи данных на удалённые серверы. Всё происходит локально, на вашем компьютере.

Список поддерживаемых моделей, доступен на сайте ollama.com/library. Наиболее популярные из них — gpt-oss, deepseek-r1, gemma3, qwen3, llama3, nomic-embed-text, mistral, qwen2.5-coder, llava, phi3 и gemma2.
Напомню, что ранее взаимодействие с моделями в Ollama происходило через командную строку, что было удобно далеко не всем пользователям.
Начиная с версии Ollama 0.10.0 программа получила привычный пользовательский интерфейс чата, в котором можно вести диалог с моделью, писать код, формировать тексты или анализировать данные.
Взаимодействие с моделями максимально простое. Выбрал модель, загрузил и можешь отправлять запрос в чат.
Ollama поддерживает перетаскивание для текстовых и PDF-файлов с регулируемой длиной контекста в настройках для обработки больших документов. Также доступен мультимодальный ввод, позволяющий отправлять изображения в совместимые модели. Например, в Google DeepMind’s Gemma 3.

Из дополнительный возможностей стоит выделить GPU-ускорение и функцию Fine-tuning (дообучения), которая позволяет адаптировать модель под свои задачи — от генерации уникального контента до специфичных команд для работы с кодом.
И самое важное — локальная работа на вашем компьютере, даже в отсутствии интернета.
Ollama даёт не только свободу, но и уверенность. Вы сами решаете, какие модели использовать, как их дообучать и каким образом интегрировать в свои проекты. Эта программа превращает ПК в полноценный ИИ-инструмент, готовый к работе в любых условиях.
Приложения Ollama регулярно обновляются и доступны для всех основных платформ: Windows, Linux и macOS.
Исправлены ошибки.
У программы ещё нет отзывов. Напишите первым 😉