Документация

Интеграция с Roo Code

Узнайте, как интегрировать LLMost с Roo Code для доступа к сотням AI моделей через единый API

Обзор

LLMost является OpenAI-совместимой платформой, что позволяет легко интегрировать её с Roo Code. LLMost предоставляет унифицированный доступ к множеству языковых моделей через единый API, упрощая настройку и экспериментирование с различными моделями.

Настройка

1. Получение API ключа

Для начала работы вам необходимо получить API ключ от LLMost:

  1. Перейдите на llmost.ru
  2. Зарегистрируйтесь и войдите в свой аккаунт
  3. Перейдите в раздел Ключи API
  4. Скопируйте ваш сгенерированный API ключ

2. Конфигурация в Roo Code

После получения API ключа выполните следующие шаги:

  1. Откройте настройки Roo Code через значок шестеренки в панели Roo Code
  2. Выберите "OpenAI Compatible" в выпадающем списке API Provider
  3. Введите ваш API ключ от LLMost в соответствующее поле
  4. Выберите модель из доступного списка
  5. При необходимости укажите пользовательский базовый URL

Настройка базового URL: При конфигурации провайдера LLMost в Roo Code, установите базовый URL:

https://llmost.ru/api/v1

Детальная настройка параметров

После базовой конфигурации вы увидите панель настроек со следующими параметрами:

На скриншоте выше показан пример настроенного провайдера LLMost в Roo Code.

Основные параметры

  • API Provider: Выберите "OpenAI Compativle"
  • Base URL: https://llmost.ru/api/v1
  • API Key: Вставьте ваш API ключ от LLMost
  • Model: Выберите модель из списка

Ключевые возможности

Автоматическая загрузка списка моделей

Roo Code автоматически получает список доступных моделей с платформы LLMost. Вы можете выбрать из сотен доступных моделей, включая:

  • GPT-5 и GPT-4o от OpenAI
  • Claude от Anthropic
  • Gemini от Google
  • Llama от Meta
  • И многие другие модели от различных провайдеров

Для получения актуальной информации о доступных моделях и их характеристиках посетите страницу моделей LLMost.

Трансформация сообщений

LLMost предлагает опциональную функцию сжатия сообщений, которая помогает уместить промпты, превышающие ограничения контекста модели. Это особенно полезно при работе с длинными разговорами или большими объемами контекста.

Кэширование промптов

Кэширование промптов поддерживается на следующих моделях:

  • Claude: Sonnet 4.0, 4.5; Haiku 3.5, 4.5
  • Google Gemini: Требуется ручная активация через чекбокс из-за возможных задержек ответа
  • Другие поддерживаемые модели: Кэширование активируется автоматически

Для моделей Gemini необходимо вручную активировать кэширование промптов через чекбокс, так как это может привести к увеличению времени ответа.

Подробнее о кэшировании промптов читайте в документации по кэшированию промптов.

Ценообразование

Стоимость использования соответствует базовым тарифам моделей.

Актуальную информацию о ценах можно найти на странице моделей LLMost.

Пример использования

После настройки вы можете использовать LLMost в Roo Code точно так же, как и любой другой провайдер. Все стандартные функции LLMost API будут работать через LLMost:

// Пример кода для использования с LLMost SDK
import OpenAI from "openai";

const openai = new OpenAI({
    baseURL: "https://llmost.ru/api/v1",
    apiKey: "ваш-api-ключ-llmost",
});

const completion = await openai.chat.completions.create({
    model: "openai/gpt-4",
    messages: [
        {
            role: "user",
            content: "Привет! Как дела?"
        }
    ],
});

console.log(completion.choices[0].message.content);

Устранение неполадок

Проблемы с подключением

Если вы испытываете проблемы с подключением:

  1. Проверьте правильность API ключа
  2. Убедитесь, что базовый URL установлен корректно: https://llmost.ru/api/v1
  3. Проверьте доступность выбранной модели
  4. Убедитесь, что настройки API Provider установлены на "OpenAI Compatible"

Ошибки аутентификации

Если возникают ошибки аутентификации:

  1. Убедитесь, что API ключ активен
  2. Проверьте баланс вашего аккаунта
  3. Убедитесь, что у ключа есть необходимые разрешения

Проблемы с кэшированием промптов

Если кэширование промптов не работает:

  1. Проверьте, поддерживает ли выбранная модель эту функцию
  2. Для моделей Gemini убедитесь, что вы активировали кэширование вручную
  3. Учитывайте возможные задержки ответа при использовании кэширования

Поддержка

Если у вас возникли вопросы или проблемы с интеграцией:

Следующие шаги

Интеграция с Roo Code | Документация | LLMost