Интеграция с Roo Code
Узнайте, как интегрировать LLMost с Roo Code для доступа к сотням AI моделей через единый API
Обзор
LLMost является OpenAI-совместимой платформой, что позволяет легко интегрировать её с Roo Code. LLMost предоставляет унифицированный доступ к множеству языковых моделей через единый API, упрощая настройку и экспериментирование с различными моделями.
Настройка
1. Получение API ключа
Для начала работы вам необходимо получить API ключ от LLMost:
- Перейдите на llmost.ru
- Зарегистрируйтесь и войдите в свой аккаунт
- Перейдите в раздел Ключи API
- Скопируйте ваш сгенерированный API ключ
2. Конфигурация в Roo Code
После получения API ключа выполните следующие шаги:
- Откройте настройки Roo Code через значок шестеренки в панели Roo Code
- Выберите "OpenAI Compatible" в выпадающем списке API Provider
- Введите ваш API ключ от LLMost в соответствующее поле
- Выберите модель из доступного списка
- При необходимости укажите пользовательский базовый URL
Настройка базового URL: При конфигурации провайдера LLMost в Roo Code, установите базовый URL:
https://llmost.ru/api/v1Детальная настройка параметров
После базовой конфигурации вы увидите панель настроек со следующими параметрами:
На скриншоте выше показан пример настроенного провайдера LLMost в Roo Code.
Основные параметры
- API Provider: Выберите "OpenAI Compativle"
- Base URL:
https://llmost.ru/api/v1 - API Key: Вставьте ваш API ключ от LLMost
- Model: Выберите модель из списка
Ключевые возможности
Автоматическая загрузка списка моделей
Roo Code автоматически получает список доступных моделей с платформы LLMost. Вы можете выбрать из сотен доступных моделей, включая:
- GPT-5 и GPT-4o от OpenAI
- Claude от Anthropic
- Gemini от Google
- Llama от Meta
- И многие другие модели от различных провайдеров
Для получения актуальной информации о доступных моделях и их характеристиках посетите страницу моделей LLMost.
Трансформация сообщений
LLMost предлагает опциональную функцию сжатия сообщений, которая помогает уместить промпты, превышающие ограничения контекста модели. Это особенно полезно при работе с длинными разговорами или большими объемами контекста.
Кэширование промптов
Кэширование промптов поддерживается на следующих моделях:
- Claude: Sonnet 4.0, 4.5; Haiku 3.5, 4.5
- Google Gemini: Требуется ручная активация через чекбокс из-за возможных задержек ответа
- Другие поддерживаемые модели: Кэширование активируется автоматически
Для моделей Gemini необходимо вручную активировать кэширование промптов через чекбокс, так как это может привести к увеличению времени ответа.
Подробнее о кэшировании промптов читайте в документации по кэшированию промптов.
Ценообразование
Стоимость использования соответствует базовым тарифам моделей.
Актуальную информацию о ценах можно найти на странице моделей LLMost.
Пример использования
После настройки вы можете использовать LLMost в Roo Code точно так же, как и любой другой провайдер. Все стандартные функции LLMost API будут работать через LLMost:
// Пример кода для использования с LLMost SDK
import OpenAI from "openai";
const openai = new OpenAI({
baseURL: "https://llmost.ru/api/v1",
apiKey: "ваш-api-ключ-llmost",
});
const completion = await openai.chat.completions.create({
model: "openai/gpt-4",
messages: [
{
role: "user",
content: "Привет! Как дела?"
}
],
});
console.log(completion.choices[0].message.content);Устранение неполадок
Проблемы с подключением
Если вы испытываете проблемы с подключением:
- Проверьте правильность API ключа
- Убедитесь, что базовый URL установлен корректно:
https://llmost.ru/api/v1 - Проверьте доступность выбранной модели
- Убедитесь, что настройки API Provider установлены на "OpenAI Compatible"
Ошибки аутентификации
Если возникают ошибки аутентификации:
- Убедитесь, что API ключ активен
- Проверьте баланс вашего аккаунта
- Убедитесь, что у ключа есть необходимые разрешения
Проблемы с кэшированием промптов
Если кэширование промптов не работает:
- Проверьте, поддерживает ли выбранная модель эту функцию
- Для моделей Gemini убедитесь, что вы активировали кэширование вручную
- Учитывайте возможные задержки ответа при использовании кэширования
Поддержка
Если у вас возникли вопросы или проблемы с интеграцией:
- Проверьте документацию LLMost
- Изучите справочник API
- Посетите страницу моделей для информации о доступных моделях
- Напишите на support@llmost.ru
Следующие шаги
- Изучите доступные модели
- Прочитайте о кэшировании промптов
- Ознакомьтесь со справочником API
- Узнайте больше о Roo Code