Мощная middleware-платформа для интеграции AI в ваш продукт. Потоковая передача, управление инструментами, файлы — всё в одном REST API.
AI-провайдеры в aist-llm
От потоковых ответов до управления файлами — AIST Chat предоставляет полный набор инструментов.
Server-Sent Events для real-time стриминга токенов. Поддержка переподключения и отмены активного потока в любой момент.
aist-llm абстрагирует Claude, GPT-4, Gemini, Perplexity, DeepSeek и Grok. Переключайте модель через один параметр без изменения остального кода.
Подключайте внешние API как инструменты для ассистента. Поддержка асинхронных запросов, шаблонов параметров и callback-механизмов.
Загрузка и обработка документов: Word (.docx), изображения и другие форматы. Автоматическое определение MIME-типов.
Поддержка Thinking Profile для Claude — расширенное пошаговое рассуждение для сложных задач. Настройка температуры и max_tokens.
Умное управление историей диалога. Автоматические имена чатов через GPT, механизм retry для неудачных сообщений.
Простая архитектура с чёткими зонами ответственности на каждом уровне.
Ваш frontend отправляет POST-запрос с сообщением пользователя и параметрами модели.
Платформа маршрутизирует запрос, управляет историей, вызывает инструменты и стримит ответ.
Клиент получает SSE-поток с токенами, вызовами инструментов и метаданными завершения.
Стандартный REST API с Bearer-аутентификацией. Отправьте сообщение и получайте потоковый ответ через Server-Sent Events.
/chats
Создать чат
/chats/:id/messages
Отправить сообщение
/chats/:id/stream
Подключиться к потоку
/chats/:id/stop
Остановить поток
/llm-models
Список моделей
// 1. Создаём чат
const chat = await fetch('https://api.aist.chat/chats', {
method: 'POST',
headers: {
'Authorization': `Bearer ${TOKEN}`,
'Content-Type': 'application/json'
},
body: JSON.stringify({
name: 'Мой чат',
assistant_id: 1
})
}).then(r => r.json());
// 2. Отправляем сообщение со стримингом
const es = new EventSource(
`/chats/${chat.data.id}/stream`
);
await fetch(`/chats/${chat.data.id}/messages`, {
method: 'POST',
body: JSON.stringify({
stream: true,
input: [{ type: 'text', text: 'Привет!' }]
})
});
// 3. Читаем потоковые токены
es.addEventListener('content_delta', (e) => {
const delta = JSON.parse(e.data);
process.stdout.write(delta.text);
});
content_delta
tool_call_start
turn_complete
text
tool_call
file
Выбирайте модель под задачу — от быстрых ответов до глубокого анализа.
Reasoning, написание кода, анализ документов. Поддержка Thinking Mode для сложных задач.
Мощная мультимодальная модель. Используется также для автоматической генерации имён чатов.
Последнее поколение Google. Длинный контекст, поиск в вебе и работа с большими документами.
Поиск в реальном времени с актуальными источниками. Идеально для задач, требующих свежих данных.
Мощная reasoning-модель с открытым весами. Глубокое пошаговое рассуждение при низкой стоимости запросов.
Модель от Илона Маска с доступом к данным X/Twitter в реальном времени. Быстрые ответы с актуальным контекстом.
AIST Chat берёт на себя всю сложность работы с LLM — вам остаётся только создавать продукт.