Документация

GET /models

Получите доступ ко всем основным языковым моделям (LLM) через унифицированный API LLMost. Просматривайте доступные модели, сравнивайте возможности и интегрируйтесь.

Изучайте и просматривайте более 250 моделей на нашем сайте или через наш API.

Стандарт API моделей

Наш API моделей предоставляет самую важную информацию обо всех LLM в свободном доступе.

Схема ответа API

API моделей возвращает стандартизированный формат JSON-ответа, который предоставляет исчерпывающие метаданные для каждой доступной модели. Эта схема кешируется на границе сети и разработана для надёжной интеграции в production-приложения.

Корневой объект ответа

{
  "data": [
    /* Массив объектов Model */
  ]
}

Схема объекта модели

Каждая модель в массиве data содержит следующие стандартизированные поля:

ПолеТипОписание
idstringУникальный идентификатор модели, используемый в API-запросах (например, "google/gemini-2.5-pro")
canonical_slugstringПостоянный slug модели, который никогда не меняется
namestringЧитаемое отображаемое имя модели
creatednumberUnix-временная метка добавления модели в LLMost
descriptionstringПодробное описание возможностей и характеристик модели
context_lengthnumberМаксимальный размер контекстного окна в токенах
architectureArchitectureОбъект, описывающий технические возможности модели
pricingPricingСтруктура цен для использования этой модели
per_request_limitsobject | nullОграничения на запрос (если применимо)
supported_parametersstring[]Список поддерживаемых параметров API

Схема объекта Architecture

{
  input_modalities: string[],  // Поддерживаемые типы ввода: ["file", "image", "text", "audio"]
  output_modalities: string[], // Поддерживаемые типы вывода: ["text", "image"]
  tokenizer: string,           // Используемый метод токенизации
  instruct_type: string | null // Тип формата инструкций (null, если не применимо)
}

Схема объекта Pricing

Все цены указаны в кредитах за токен/запрос/единицу.

{
  prompt: string,              // Стоимость за входной токен
  completion: string,          // Стоимость за выходной токен
  request: string,             // Фиксированная стоимость за API-запрос
  image: string,               // Стоимость за изображение на входе
  web_search: string,          // Стоимость за операцию веб-поиска
  internal_reasoning: string,  // Стоимость за токены внутреннего рассуждения
  input_cache_read: string,    // Стоимость за чтение кешированного входного токена
  input_cache_write: string    // Стоимость за запись кешированного входного токена
}

Поддерживаемые параметры

Модели LLMost поддерживают следующие параметры API:

  • tools - Возможности вызова функций
  • tool_choice - Контроль выбора инструментов
  • max_tokens - Ограничение длины ответа
  • temperature - Контроль случайности (0.0 - детерминированный, 2.0 - очень случайный)
  • top_p - Nucleus sampling (альтернатива temperature)
  • reasoning - Режим внутреннего рассуждения
  • include_reasoning - Включить рассуждения в ответ
  • structured_outputs - Принудительное применение JSON-схемы
  • response_format - Спецификация формата вывода
  • stop - Пользовательские последовательности остановки
  • frequency_penalty - Снижение повторений (-2.0 до 2.0)
  • presence_penalty - Разнообразие тем (-2.0 до 2.0)
  • seed - Детерминированные выходы

Примечания о токенизации

Важно: Некоторые модели разбивают текст на блоки из нескольких символов... в то время как другие токенизируют посимвольно.

Разные модели используют разные подходы к токенизации:

  • Некоторые модели используют токенизацию на основе подслов (например, BPE)
  • Другие токенизируют посимвольно
  • Это влияет на то, как рассчитывается context_length и pricing

Пример использования API

Получение списка всех доступных моделей:

curl https://llmost.ru/api/v1/models \
  -H "Authorization: Bearer $LLMOST_API_KEY"

Следующие шаги

GET /models | Документация | LLMost