GET /models
Получите доступ ко всем основным языковым моделям (LLM) через унифицированный API LLMost. Просматривайте доступные модели, сравнивайте возможности и интегрируйтесь.
Изучайте и просматривайте более 250 моделей на нашем сайте или через наш API.
Стандарт API моделей
Наш API моделей предоставляет самую важную информацию обо всех LLM в свободном доступе.
Схема ответа API
API моделей возвращает стандартизированный формат JSON-ответа, который предоставляет исчерпывающие метаданные для каждой доступной модели. Эта схема кешируется на границе сети и разработана для надёжной интеграции в production-приложения.
Корневой объект ответа
{
"data": [
/* Массив объектов Model */
]
}Схема объекта модели
Каждая модель в массиве data содержит следующие стандартизированные поля:
| Поле | Тип | Описание |
|---|---|---|
id | string | Уникальный идентификатор модели, используемый в API-запросах (например, "google/gemini-2.5-pro") |
canonical_slug | string | Постоянный slug модели, который никогда не меняется |
name | string | Читаемое отображаемое имя модели |
created | number | Unix-временная метка добавления модели в LLMost |
description | string | Подробное описание возможностей и характеристик модели |
context_length | number | Максимальный размер контекстного окна в токенах |
architecture | Architecture | Объект, описывающий технические возможности модели |
pricing | Pricing | Структура цен для использования этой модели |
per_request_limits | object | null | Ограничения на запрос (если применимо) |
supported_parameters | string[] | Список поддерживаемых параметров API |
Схема объекта Architecture
{
input_modalities: string[], // Поддерживаемые типы ввода: ["file", "image", "text", "audio"]
output_modalities: string[], // Поддерживаемые типы вывода: ["text", "image"]
tokenizer: string, // Используемый метод токенизации
instruct_type: string | null // Тип формата инструкций (null, если не применимо)
}Схема объекта Pricing
Все цены указаны в кредитах за токен/запрос/единицу.
{
prompt: string, // Стоимость за входной токен
completion: string, // Стоимость за выходной токен
request: string, // Фиксированная стоимость за API-запрос
image: string, // Стоимость за изображение на входе
web_search: string, // Стоимость за операцию веб-поиска
internal_reasoning: string, // Стоимость за токены внутреннего рассуждения
input_cache_read: string, // Стоимость за чтение кешированного входного токена
input_cache_write: string // Стоимость за запись кешированного входного токена
}Поддерживаемые параметры
Модели LLMost поддерживают следующие параметры API:
tools- Возможности вызова функцийtool_choice- Контроль выбора инструментовmax_tokens- Ограничение длины ответаtemperature- Контроль случайности (0.0 - детерминированный, 2.0 - очень случайный)top_p- Nucleus sampling (альтернатива temperature)reasoning- Режим внутреннего рассужденияinclude_reasoning- Включить рассуждения в ответstructured_outputs- Принудительное применение JSON-схемыresponse_format- Спецификация формата выводаstop- Пользовательские последовательности остановкиfrequency_penalty- Снижение повторений (-2.0 до 2.0)presence_penalty- Разнообразие тем (-2.0 до 2.0)seed- Детерминированные выходы
Примечания о токенизации
Важно: Некоторые модели разбивают текст на блоки из нескольких символов... в то время как другие токенизируют посимвольно.
Разные модели используют разные подходы к токенизации:
- Некоторые модели используют токенизацию на основе подслов (например, BPE)
- Другие токенизируют посимвольно
- Это влияет на то, как рассчитывается
context_lengthи pricing
Пример использования API
Получение списка всех доступных моделей:
curl https://llmost.ru/api/v1/models \
-H "Authorization: Bearer $LLMOST_API_KEY"Следующие шаги
- Изучите полный список моделей
- Узнайте об API-параметрах
- Ознакомьтесь с руководством по началу работы