Атлас

Персональный автономный агент

Работает локально на вашем компьютере. Анализирует, ищет, пишет, выполняет задачи. Ваши данные остаются у вас.

Возможности

Работает на вашем компьютере

Никаких облаков и подписок. Данные не покидают машину. Полный контроль над моделью и инфраструктурой.

Действует самостоятельно

Не просто отвечает на вопросы — читает файлы, ищет информацию, выполняет команды, создаёт и редактирует.

Расширяемый

Подключайте внешние инструменты через Model Context Protocol (MCP). Stdio и streamable-http транспорты.

Помнит важное

Умное управление контекстом. В отличие от простых чат-ботов, Атлас помнит контекст всей задачи, а не только последние сообщения.

Выбор модели — за вами

Локальные и облачные LLM: vLLM, LM Studio, Ollama, OpenRouter, DeepSeek, Яндекс Облако и любой OpenAI-совместимый API.

Удобный интерфейс

Терминальный интерфейс с slash-командами: /model, /compress, /connect, /dump.

Встроенные инструменты

Атлас сам решает, какие инструменты использовать. Вы ставите задачу — он находит путь.

read Чтение файлов с нумерацией строк, поддержка offset/limit
list Список директорий с рекурсивным обходом
search Поиск по содержимому файлов (ripgrep/grep)
write Создание новых файлов с автосозданием директорий
edit Редактирование: замена строк или диапазон
exec Выполнение shell-команд с timeout и блокировкой опасных
ask Интерактивные вопросы к пользователю
plan Декомпозиция сложных задач на шаги
web_search Поиск в интернете через DuckDuckGo
fetch Загрузка URL, конвертация HTML в Markdown

Расширение через MCP

Атлас подключается к внешним инструментам через Model Context Protocol. Вот как это выглядит на примере Jarvis — MCP-сервера для управления задачами.

Jarvis

AI-помощник для управления задачами в Kaiten. Подключается одной командой и даёт агенту доступ к 32 инструментам: просмотр задач, аналитика досок, git-активность, создание карточек из обсуждений.

Пишите как коллеге — Атлас сам выберет нужный инструмент и выполнит запрос.

Подробнее о Jarvis
atlas

Архитектура контекста

Атлас умно управляет памятью. В отличие от простых чат-ботов, он помнит контекст всей задачи, а не только последние сообщения.

Скачать

Nightly-сборки для macOS и Linux. Проект в стадии активной разработки — обновления выходят часто. Распакуйте и запустите.

Платформа Архитектура Формат Размер
macOS Apple Silicon (arm64) tar.gz 6.1 MB
macOS Intel (amd64) tar.gz 6.5 MB
Linux amd64 tar.gz 6.4 MB
Linux arm64 tar.gz 5.8 MB

Быстрый старт

1 Установка

terminal
tar -xzf atlas_darwin_arm64.tar.gz
sudo mv atlas /usr/local/bin/

2 Запуск

terminal
atlas \
    --llm-base-url http://localhost:8000/v1 \
    --llm-model GLM-4.7-Flash \
    --context-size 32768

3 Выбор модели

Модель VRAM Примечание
GLM-4.7-Flash ~32 GB Рекомендуемая, thinking mode
Qwen3-30B-A3B ~20 GB 30B параметров / ~3B активных
DeepSeek-R1 ~18 GB+ Thinking mode
gpt-oss-20b ~12 GB OpenAI, открытая модель
Alice AI LLM Облако Яндекс Облако
YandexGPT Облако Яндекс Облако

Атлас совместим с любым OpenAI-совместимым API: vLLM, LM Studio, Ollama, OpenRouter, DeepSeek, OpenAI, Яндекс Облако.

Roadmap

Умное управление контекстом и памятью. Каждое обновление делает агента точнее.

Реализовано

Умная сборка контекста

Агент помнит всю историю и выбирает самое важное для текущей задачи.

Реализовано

Поиск по смыслу

Находит нужную информацию из прошлых обсуждений, даже если прошло много времени.

Реализовано

Извлечение фактов

Автоматически выделяет ключевые факты из диалога и держит их под рукой.

Реализовано

Динамический план

Агент ведёт и обновляет план по ходу работы, не теряя фокус.

Реализовано

Долгосрочная память

Запоминает предпочтения, решения и факты между сессиями.

Реализовано

Рабочая память

Компактный контекст задачи, плана и фактов — всегда актуален.

Реализовано

Умное чтение файлов

Читает большие файлы порциями, экономя контекст для важного.

Реализовано

Типизированные субагенты

Специализированные помощники для анализа, написания кода и ревью.

Запланировано

Сохранение контекста

Автоматическое сохранение прогресса при завершении сессии.

Запланировано

Параллельное выполнение

Одновременный запуск нескольких задач для ускорения работы.

Запланировано

Семантическая память

Поиск по смыслу в долгосрочной памяти.

Будущее развитие

Security Foundation

OAuth 2.0 + PKCE, workspace sandbox, безопасное хранение токенов

Server Mode

Auth middleware, WebSocket/SSE streaming, multi-user isolation

Channels

Gateway-архитектура: Telegram, Slack и другие каналы доставки

Agentic Features

Расширенные возможности автономной работы и фоновые задачи