llm-context MCP сервер
MCP сервер, который обеспечивает умный выбор файлов и генерацию контекста для разговоров с LLM через фильтрацию на основе правил и конфигурацию проекта.
автор: Community
curl -fsSL https://vibebaza.com/i/llm-context | bash
MCP сервер, который обеспечивает умный выбор файлов и генерацию контекста для разговоров с LLM через фильтрацию на основе правил и конфигурацию проекта.
Установка
UV Tool
uv tool install "llm-context>=0.5.0"
Конфигурация
Интеграция с MCP
{
"mcpServers": {
"llm-context": {
"command": "uvx",
"args": ["--from", "llm-context", "lc-mcp"]
}
}
}
Возможности
- Умный выбор файлов с фильтрацией на основе правил
- Мгновенная генерация контекста и копирование в буфер обмена
- Интеграция с MCP для доступа AI к файлам во время разговоров
- Систематическая организация правил с пятикатегорийной системой
- Создание правил с помощью AI через Claude Skill или подходы на основе инструкций
- Извлечение фрагментов кода для уменьшения контекста с сохранением структуры
- Множественные паттерны развертывания для разных LLM окружений
- Кастомизация и конфигурация под конкретные проекты
Примеры использования
Инициализация проекта и выбор релевантных файлов для контекста разработки
Генерация сфокусированного контекста для конкретных задач, таких как отладка аутентификации
Создание пользовательских правил для рефакторинга или разработки функций
Предоставление обзора проекта AI для ревью кода и анализа
Позволить AI получать доступ к дополнительным файлам во время разговоров без ручного вмешательства
Ресурсы
Примечания
Этот инструмент был разработан в сотрудничестве с различными моделями Claude и Grok. Он поддерживает множественные паттерны рабочих процессов, включая ежедневную разработку, сфокусированные задачи и интеграцию с MCP для бесшовного сотрудничества с AI. Система правил использует пять категорий: правила Prompt (prm-), Filter (flt-), Instruction (ins-), Style (sty-) и Excerpt (exc-).