Небольшая история о том, как мы искали чат-бота на рынке, но не нашли и построили гибридную систему (правила + ИИ), которая обходится в ~5 000 руб. в месяц.КакоНебольшая история о том, как мы искали чат-бота на рынке, но не нашли и построили гибридную систему (правила + ИИ), которая обходится в ~5 000 руб. в месяц.Како

Выбор готового ИИ чат-бота: почему мы в результате написали своего гибридного агента

2026/02/28 19:15
17м. чтение

Какой подход подойдет вам?

Краткий итог нашего изучения рынка и создания собственного бота (почему это так - читайте ниже):

Промпт-бот (500 ₽ фриланс + 50 000 ₽/месяц API):
Используйте, если нужно простое FAQ-покрытие, вся база знаний умещается в короткий промпт, нет регуляторного риска и вы понимаете, что принимаете риск галлюцинаций и нарушений ограничений. Хорошо для демонстрации возможностей. Не подходит для финансовых услуг, медицины, юридических вопросов или любой области, где неверный ответ бота имеет последствия.

SaaS-платформа (3 000–100 000+ ₽/месяц):
Используйте, если главным образом нужно FAQ-отклонение и маршрутизация обращений, каталог продуктов стабилен и прост, есть команда поддержки, которая хочет единый inbox, и вы хотите запуститься за несколько дней. Aimylogic и BotHelp достаточно хороши для своего предназначения. Российские платформы решают вопрос 152-ФЗ лучше западных аналогов.

Open-source-фреймворк (Rasa/Botpress, $0 ПО + инфра + программисты):
Rasa даёт полный контроль с локальным NLU и управлением диалогом. Требует Python-инженера и реальных обучающих данных. Корпоративное лицензирование начинается от $35 000/год. Подходит для ML-тяжёлых сценариев, где нужен полный контроль. Требует постоянной поддержки, которую SaaS берёт на себя.

Кастомный гибрид (инвестиции в код + ~5 000 ₽/месяц API):
Используйте, если нужны управляемые многошаговые квалификационные потоки, данные о продуктах синхронизированы с существующей системой, есть требования к локализации данных или соответствию 152-ФЗ, нестандартная интеграция с каналами или предсказуемость затрат на долгий срок. Не проект выходного дня, но при масштабировании экономика очевидна. По данным рынка, полная разработка «под ключ» в России стоит 70 000–1 000 000 ₽ единоразово (медиана 227 000 ₽ по исследованию Aimylogic).

Примерная матрица решений:

Промпт-бот

SaaS

Open source

Кастомный гибрид

Время до запуска

Часы

Дни

Недели

Недели

Единоразовые затраты

0–50 000 ₽

0–1 000 000 ₽

0 + программисты

70 000–1 000 000 ₽

Ежемесячные затраты

500–50 000 ₽

3 000–100 000+ ₽

Железо + зарплаты

1 000–10 000 ₽

Риск галлюцинаций

Высокий

Низкий–средний

Низкий–средний

Низкий (ядро на правилах)

Принудительная бизнес-логика

Нет

Частично

Да

Да

Интеграция с CRM

Нет

Через webhook

Кастомная

Нативная

Память сессии

Нет

Да

Да

Да

152-ФЗ / локализация данных

Рискованно

Сложно

Управляемо

Полный контроль

Лучше всего для

FAQ / PoC

Команды поддержки

ML-тяжёлые сценарии

Сложные продажи/квалификация


Краткая и непростая история чат-ботов

Чат-боты обещали революцию в клиентском сервисе с 2016 года, когда Facebook открыл Messenger Platform и за одну ночь появилось 100 000 ботов. Большинство были мусором — жёсткие кнопочные меню, повторяющие меню сайта. Нажмите 1 — поддержка. Нажмите 2 — продажи. Нажмите 3 — оператор.

Следующая волна (2018–2022) принесла NLU-фреймворки: Dialogflow, Rasa, IBM Watson. Они умели понимать естественный язык — в какой-то мере. Требовали сотен размеченных примеров для обучения, постоянного переобучения и выделенного ML-инженера для поддержки. Gartner зафиксировал: 70% таких проектов провалились — не потому, что технология плохая, а потому, что организации недооценили объём постоянной работы.

Потом наступил 2023 год. ChatGPT показал миру возможности LLM, и каждый вендор чат-ботов бросился их использовать. Intercom запустил Fin. Zendesk — AI Agents. Tidio — Lyro. Питч стал простым: подключи базу знаний, и ИИ сделает остальное. Без обучения. Без ML-инженера.

В целом так, но конечный ценник ниже не стал.


Что представляет собой рынок в 2026 году

Западные SaaS-платформы

Intercom — лидер рынка для B2B SaaS. Их Fin AI работает хорошо. Стоит $0,99 за каждое решённое обращение плюс стоимость мест ($29–132/агент/месяц). Команда из 5 агентов с 1 000 AI-запросов в месяц платит примерно $1 400/месяц — это около 130 000 ₽ по текущему курсу.

Zendesk нацелен на корпоративные команды поддержки. С надстройкой Advanced AI (+$50/агент/месяц) итог составляет $165–219/агент/месяц. При 10 агентах — $1 650–2 190/месяц только за платформу.

Drift (теперь часть Salesloft) — корпоративный инструмент продаж. Входная цена: $2 500/месяц.

Российские SaaS-платформы

Российский рынок диалогового ИИ вырос до ~11 млрд ₽ в 2025 году (+30% к 2024) и продолжает расти на 20–25% в год:

Jivo (JivoChat) — самая популярная платформа онлайн-чата в российском сегменте. Базовый тариф: 742 ₽/оператор/месяц. AI Агент (полноценная автоматизация): 11 041 ₽/месяц дополнительно. Итого для реального AI-бота с 5 операторами: ~16 750 ₽/месяц.

Bitrix24 — CRM + чат-боты в одном пакете. Тариф «Базовый» — 2 490 ₽/месяц, включает мультиканальные чаты (Telegram, WhatsApp, VK). Популярное решение для бизнеса, уже работающего в экосистеме Битрикс. Однако ИИ чат-бот от Колибри обойдется еще от 20 тыс. в месяц.

Aimylogic (Just AI) — no-code-конструктор с нормальной логикой сценариев. Тариф «Оптимальный» (хит!): 6 490 ₽/месяц за 1 000 уникальных пользователей. Поддерживает Telegram, WhatsApp, VK, Viber, Bitrix24, Jivo.

SaleBot — фокус на Telegram, VK, Avito. Тариф «Бизнес»: 2 999 ₽/месяц. Встроенная CRM, AI-ассистент, e-commerce-инструменты.

BotHelp — маркетинговые боты для мессенджеров. ИИ-агент включен в тарифы BotHelp от 1990₽/месяц.

Pact.im — агрегатор мессенджеров. Пакет «Всё включено»: 10 000 ₽/месяц. Или: Telegram-бот + чат-бот = 1 500 + 2 000 = 3 500 ₽/месяц минимум.

Скрытый стек затрат

Страница с ценами показывает только стоимость платформы. Полный стек никто не показывает:

Статья затрат

Типичный диапазон

Подписка на платформу

3 000–100 000 ₽/месяц

API LLM (при масштабировании)

5 000–150 000 ₽/месяц

Лицензии на места агентов

742–3 142 ₽/место/месяц

Внедрение и настройка

70 000–1 000 000 ₽ единоразово

Дизайн сценариев разговора

30 000–200 000 ₽ единоразово

Кастомная интеграция с CRM

50 000–300 000 ₽ единоразово

Поддержка и сопровождение

15–20% от стоимости разработки в год

WhatsApp Business API

6 000–15 000 ₽/месяц за канал

Модель оплаты за решённое обращение заслуживает особого внимания. При хорошем месяце, когда бот обрабатывает 5 000 разговоров в западном SaaS по $0,99 — это $4 950 только за ИИ, при текущем курсе около 460 000 ₽/год. Пики нагрузки — праздники, акции, вирусные инфоповоды — могут утроить счёт без предупреждения.

Почему SaaS-платформы не работают для сложных продуктов

«LLM поверх базы знаний» прекрасно работает для FAQ: «Когда вы работаете?», «Как сбросить пароль?», «Где мой заказ?»

Он ломается при управляемых продажах — ситуациях, когда боту нужно задавать конкретные вопросы в определённом порядке, квалифицировать клиента по правилам продуктов и подбирать нужный продукт из каталога, меняющегося ежемесячно.

Нельзя сказать LLM: «Сначала спроси о сумме кредита, потом о кредитной истории, потом определи, какой из 30+ продуктов 14 партнёров подходит». Он будет интерпретировать, импровизировать, пропускать шаги и иногда рекомендовать несуществующие продукты.

Для российского бизнеса добавляется вопрос суверенности данных: клиентские данные в западных SaaS-платформах юридически неоднозначны с точки зрения 152-ФЗ о персональных данных. Сложная цепочка субпроцессоров, серверы неизвестно где — для финтеха и кредитного брокериджа это реальный риск.


"Горячие пирожки" - ИИ чат-боты занедорого.

Есть четвёртый вариант, которого нет в таблицах сравнения, но он сейчас самый распространённый вариант для малого бизнеса: чистый LLM-промпт-бот.

Выглядит привлекательно: берёшь готовый LLM (ChatGPT, Claude, YandexGPT), пишешь подробный системный промпт с описанием бизнеса и ограничениями, встраиваешь через Chatbase или аналог — и через несколько часов ты уже в эфире. Фрилансеры на Kwork делают это за 500–10 000 ₽. Проекты на Profi.ru: 2 000–25 000 ₽. Так работает большинство «ИИ-чат-ботов», которые сейчас предлагают агентства малому бизнесу.

Как это работает

Системный промпт — скрытый блок инструкций, добавляемый к каждому разговору:

Ты — Алиса, дружелюбный консультант компании «Финанс+». Отвечай только на вопросы о наших кредитных продуктах. Не обсуждай конкурентов. Если клиент хочет оформить заявку, попроси имя, телефон и email. Наши продукты: [весь каталог вставлен как текст]

По мере того как бизнес пытается запихнуть больше знаний о продуктах, промпт вырастает с нескольких сотен слов до 2 000–5 000. Пользователь пишет вопрос, LLM читает промпт + историю разговора и генерирует ответ. Это вся система.

Скрытая стоимость

Для простых FAQ при небольшом объёме прямые затраты на API реально дёшевы:

Объём

YandexGPT Pro 5.1

YandexGPT Lite

1 000 разговоров/месяц

~1 640 ₽

~400 ₽

10 000 разговоров/месяц

~16 400 ₽

~4 000 ₽

100 000 разговоров/месяц

~164 000 ₽

~40 000 ₽

Допущение: ~500 входящих + 300 исходящих токенов на разговор с минимальным промптом. Цены по тарифу YandexGPT — 0,82 ₽/1K токенов (Pro 5.1) и 0,20 ₽/1K (Lite).

Следует учесть, что если для английского языка 1 слово = 1 токен, то для русского 1 слово = 1,5 - 2 токена для отечественных моделей, 1,6 - 2,3 для китайских и до 3 токенов для основных западных моделей. Что повышает стоимость соответсвенно 1,5 - 3 раза.

Если добавить подробный каталог продуктов в каждый разговор как 5 000 токенов, входящие токены умножаются в 3–10 раз. При 10 000 разговоров/месяц с тяжёлым промптом затраты на YandexGPT Pro вырастают до 50 000–150 000 ₽/месяц. Плюс подписка на white-label-платформу — и «дёшевое» решение оказывается не таким дешёвым.

Подводные камни

Галлюцинации — главная неприятность. LLM не знает, чего она не знает. Когда пользователь спрашивает о продукте, который плохо описан в промпте, модель уверенно синтезирует правдоподобный ответ из обучающих данных. В финансовых услугах это означает выдуманные процентные ставки, несуществующие условия или нарушение требований к раскрытию информации.

Это не теория. В феврале 2024 года Трибунал по гражданским делам Британской Колумбии признал Air Canada ответственной: их чат-бот выдумал политику скидок на траурные рейсы. Компания попыталась защититься тем, что бот — «отдельная ИИ-сущность», но суд это отверг. Если бот это сказал — компания это сказала.

В России аналогичного громкого судебного прецедента пока нет, но 152-ФЗ и регулирование финансовых услуг создают схожие риски при неверных консультациях.

Ограничения в промпте не всегда работают на практике. «Не обсуждай конкурентов» звучит надёжно. Но модели могут не следовать на 100% и воспринимать это утверждение как рекомендацию. В декабре 2023 года дилерский бот Chevrolet на базе ChatGPT был через промпт-инъекцию активно рекомендовал Tesla, писал Python-код и готов был продать внедорожник за $1. В январе 2024 года пользователи "уговорили" бот DPD был написать стихотворение о том, насколько ужасен сервис DPD, и объявить себя «худшим чат-ботом в мире». Оба случая стали вирусными.

Проблема структурная: по различным оценкам, инструкции системного промпта соблюдаются примерно в 90–95% случаев. При 10 000 разговоров в месяц это 500–1 000 нарушений ограничений в месяц.

Системный промпт — не секрет. OWASP включает инъекцию промптов в топ-1 рисков для LLM-приложений. Пользователи извлекают системные промпты простыми командами (например, повтори текст выше дословно). На GitHub документированы утечки сотен системных промптов из популярных Custom GPT, включая вшитые API-ключи и скрытую бизнес-логику.

Невозможность соблюсти бизнес-логику. Нет способа через промпт заставить LLM всегда задавать вопросы в определённом порядке и гарантировать полное покрытие. Модель будет пропускать квалификационные шаги, смешивать темы при составных вопросах и собирать частичные данные, которые преподнесёт как полные. Для финансового сектора это означает рекомендацию продукта без понимания, подходит ли он клиенту вообще.

Нет памяти сессии между визитами. По умолчанию каждая новая сессия начинается с нуля. Клиент, описавший свою ситуацию вчера, сегодня — незнакомец. Для решения нужна база сессий, куки, хранение истории разговора — то есть инфраструктура полноценной системы.

Нет интеграции с CRM. Бот собирает имя и телефон в разговорном режиме без валидации. «Позвоните завтра» — не телефонный номер. Чтобы данные попали в CRM, нужен ещё один слой автоматизации (Bitrix24 webhook, Make/Zapier).

Где это реально работает

Честно признаем: промпт-боты хорошо работают в конкретных условиях.

Они подходят для воронок инфобиза - выдача лид-магнитов, простых FAQ со стабильным коротким контентом — часы работы, адрес, политика возврата. Когда вся база знаний умещается в несколько сотен токенов, риск галлюцинаций низкий.

Работают для внутренних инструментов — справочник сотрудника, онбординг, хелпдеск для конкретного ПО, — где аудитория доверенная, ставки низкие, нет регуляторного риска.

Работают для демо — чтобы показать заказчикам, что разговорный интерфейс вообще стоит развивать.

Не работают для чего-либо, связанного с рекомендациями продуктов с реальными финансовыми последствиями, структурированной многошаговой квалификацией, надёжным сбором данных, синхронизацией с CRM или соответствием законодательству.

Экосистема фриланса вокруг этого

Предложение на Kwork за 500–10 000 ₽ обычно включает: текстовый файл с системным промптом, инструкции по вставке в бесплатный тариф Chatbase, срок выполнения — 24 часа. Без тестирования, без дизайна потока разговора, без подключения к CRM, без непрерывности сессии.

Результат работает — он производит чат-бот-образные ответы на чат-бот-образные вопросы. Он предсказуемо ломается, когда появляются реальные клиенты с реальными вопросами, неоднозначными случаями и периодическими попытками заставить бот сказать что-то компрометирующее.

Владелец бизнеса, заплативший 3 000 ₽ за чат-бота, несёт ответственность за всё, что этот чат-бот говорит.


Наша ситуация: задача кредитного брокера

Мы разрабатывали этот чат-бот для кредитного брокера — компании, которая подбирает физическим и юридическим лицам кредитные продукты из пула партнёров. Каталог продуктов: 30+ продуктов от 14 партнёров (банки, МФО, лизинговые компании) по 15 категориям: ипотека, потребительские кредиты, автокредиты, кредитные карты, бизнес-кредиты, лизинг, факторинг.

Чтобы подобрать клиенту нужный продукт, надо собрать конкретную информацию в логичном порядке:

  • Физлицо или юрлицо?

  • Какой продукт нужен?

  • На какую сумму?

  • Какова кредитная история?

  • Каков статус занятости?

Пропустите любой из этих шагов — подбор будет неверным. Дайте LLM «гулять» самостоятельно — он пропустит шаги, спросит в неправильном порядке или уверенно предложит продукт, под который клиент не подходит.

Нам также нужно было, чтобы бот отвечал на финансовые вопросы в середине разговора — «Чем отличается залоговый кредит от потребительского?» — используя 130+ статей блога компании как базу знаний.

И всё это должно было работать рентабельно на небольшом VPS вместе с другими проектами при затратах на API значительно ниже 10 000 ₽/месяц.

Ни одна из SaaS-платформ не могла сделать всё это. Мы построили гибрид.


Архитектура: детерминированное ядро, ИИ на периферии

Основная идея проста: используй код там, где код надёжен; используй ИИ там, где кода недостаточно.

edbd7d847028c40f510d1f0354385bc4.png

В нашем продакшн-трафике 85% вводов пользователей обрабатываются шагами 1 и 2 с нулевыми затратами на LLM. Пользователь нажимает «Ипотека» или пишет «три миллиона» — чистый детерминированный код. До ИИ доходят только вопросы в свободной форме, неоднозначные вводы и отступления в середине разговора.

Граф разговора

Основа — дерево узлов. У каждого узла есть тип: вопрос, информация, сбор контактов, подбор продукта или редирект. Каждая кнопка быстрого ответа ведёт к конкретному дочернему узлу. Дерево кодирует бизнес-логику: сначала тип продукта, потом сумма, потом кредитная история, потом подбор.

Этот путь всегда соблюдается. ИИ не может пропускать шаги или импровизировать поток. Он может лишь помочь пользователю пройти путь более естественно.

381714066210d2be97f9dad7b1030561.png

Три агента вместо одного

Когда пользователь пишет что-то, что паттерн-матчер не может обработать, три специализированных ИИ-агента работают вместе:

Оркестратор (самая мощная модель) классифицирует намерение пользователя за один вызов: отвечает ли он на текущий вопрос, задаёт ли свой, делает и то и другое одновременно или растерян? На основе классификации диспетчеризует к нужному субагенту — или к обоим параллельно.

Парсер (дешевле и быстрее) занимается семантическим сопоставлением. Пользователь написал «три миллиона» вместо того, чтобы нажать «2–5 млн ₽». Парсер читает варианты текущего узла и сопоставляет свободный текст с правильным выбором. Температура — ноль, детерминированный вывод. Результаты кешируются по узлу + хешу ввода, поэтому одна и та же формулировка на одном шаге не стоит дважды.

Инфо-агент отвечает на информационные вопросы пользователя через RAG-пайплайн по блогу компании. «Какие документы нужны для ипотеки?» запускает поиск по 500+ чанкам статей блога по семантическому сходству, затем синтезирует ответ, опираясь на реальный контент. Никаких галлюцинаций деталей продуктов — ответ берётся напрямую из опубликованных статей.

Причина трёх агентов вместо одного: у каждого своя стратегия кеширования, свои точки отказа, и каждый может использовать наиболее дешёвую подходящую модель. Сбой парсера не блокирует результаты инфо-агента. Они могут работать параллельно, когда пользователь одновременно и отвечает, и спрашивает.

Блог как база знаний

У компании 130+ статей об ипотеке, кредитах, кредитных картах и бизнес-финансировании. Каждую ночь фоновая задача читает карту сайта, загружает новые или обновлённые статьи, удаляет навигацию и UI-мусор из HTML, разбивает контент на индексируемые сегменты, генерирует векторные эмбеддинги и сохраняет их в PostgreSQL с расширением pgvector.

Перед вызовом LLM для синтеза ответа система проверяет два слоя кеша: точное совпадение для повторяющихся одинаковых вопросов (бесплатно) и кеш семантического сходства для почти идентичных формулировок (стоимость одного вызова эмбеддинга). Только действительно новые вопросы проходят полный пайплайн синтеза LLM.

Почему PostgreSQL + pgvector, а не специализированная векторная БД (Pinecone, Qdrant, Weaviate)? Для нескольких сотен векторов отдельный сервис добавляет инфраструктурную сложность без выигрыша в производительности. pgvector работает внутри существующей БД, использует ту же систему резервного копирования и устраняет ещё одну сущность для развёртывания и мониторинга.

Синхронизация продуктов из источника истины

Нет необходимости обновлять данные о продуктах вручную. Ежедневная задача синхронизации читает из CMS компании (Netcat на MySQL), маппит продукты в нормализованную схему, делает обновление по ID продукта и деактивирует удалённые записи. Когда компания добавляет партнёра или меняется ставка, это происходит на сайте компании, а чат-бот подхватывает изменения утром — без какой-либо дополнительной работы с ботом.

Подбор продуктов полностью детерминирован: фильтрация по типу продукта, диапазону суммы, кредитной истории и статусу занятости. ИИ не участвует. Процентные ставки и условия продуктов никогда не рискуют стать галлюцинацией.

Контекст страницы и умный автопропуск

Виджет читает текущий URL страницы при загрузке. Пользователь, зашедший на /ipoteka/, скорее всего интересуется ипотекой. Это сразу сохраняется в сессии.

Когда граф разговора доходит до узла «Какой продукт вас интересует?», оркестратор обнаруживает заранее известный ответ и пропускает вопрос — но сначала запрашивает подтверждение:

Если подтверждено — разговор перескакивает вперёд. Если нет — вопрос задаётся в обычном режиме, а предзаполненное значение отбрасывается. Тот же паттерн применяется к вернувшимся посетителям, которые уже ответили на часть вопросов в предыдущей сессии.

Telegram как канал

Тот же движок работает и для веб-виджета, и для Telegram-бота. Когда пользователь хочет продолжить разговор в Telegram, виджет генерирует токен переноса сессии и открывает бота по deep link. Бот забирает токен и продолжает разговор ровно с того места, где остановилась веб-сессия, — тот же граф, те же собранные данные, те же подобранные продукты.

В России у Telegram 105 млн активных пользователей в месяц (ноябрь 2025), 74% россиян используют этот мессенджер. Для бизнеса, работающего с российской аудиторией, Telegram-канал важнее веб-чата: клиенты ожидают коммуникацию через него. Бот также индексирует посты Telegram-канала компании в ту же RAG-базу знаний — инфо-агент получает доступ к анонсам и акциям наряду с блогом.


Что это реально стоит

При примерно 10 000 разговоров в месяц (используем YandexGPT):

Компонент

Затраты в месяц

VPS (общий с другими проектами)

~500 ₽

YandexGPT Pro 5.1 — оркестратор + инфо-агент

~3 400 ₽

YandexGPT Lite — парсер (40% кешировано)

~500 ₽

Эмбеддинги (индексация + поиск)

~150 ₽

Итого

~4 550 ₽/месяц

Сопоставимая конфигурация Jivo с AI Агентом ~16 750 ₽/месяц плюс единоразовые затраты на внедрение. Aimylogic «Оптимальный» 6 490 ₽/месяц, но без кастомной логики подбора продуктов и интеграции с CRM компании.

Минусы — время разработки. Это не проект выходного дня. Ушло пару недель с Claude Code только на базовую функциональность: построение графа разговора, интеграцию с CRM, реализацию RAG-пайплайна и подключение Telegram-бота. Для бизнеса, который может позволить себе эти инвестиции, долгосрочная экономика очевидна.


Компромиссы

Что даёт гибридный подход:

  • Предсказуемые ежемесячные затраты, не растущие со всплесками объёма разговоров

  • Полный контроль над потоком разговора и бизнес-логикой

  • Данные остаются в вашей инфраструктуре — никаких вопросов по 152-ФЗ

  • Подбор продуктов детерминирован — никаких галлюцинированных ставок

  • ИИ делает то, в чём хорош: понимает естественный язык и синтезирует ответы из базы знаний

От чего приходится отказаться:

  • Отполированный интерфейс настройки для команды поддержки (строй или интегрируй отдельно)

  • Обещание «запустить за неделю»

Примечания:
Российские платформы быстро развиваются. Aimylogic и Just AI значительно лучше, чем год назад. Для многих бизнесов вариант с самостоятельной разработкой может потерять смысл по мере зрелости платформ.

Дифференциатор, который никуда не исчезнет, это данные и соответствие законам. Если ваш бизнес собирает персональные данные и работает под требованиями 152-ФЗ, вы должны точно знать, где эти данные находятся. SaaS-платформы могут заявлять о соответствии, но реальная цепочка субпроцессоров сложна. Для финтеха, медицины и юридических услуг эта сложность несёт реальные риски.


Что для нас оказалось полезным

Создание чат-бота — это в первую очередь не технологическая проблема. Технологии — графы разговора, LLM API, векторный поиск — хорошо изучены и доступны. Основная ценность — это дизайн разговора: понять, что спрашивать, в каком порядке, с какими запасными сценариями и что делать, когда пользователи говорят что-то непредвиденное.

Гибридный подход позволяет явно задать каждый шаг диалога. Каждый узел в графе — это решение. Каждая кнопка быстрого ответа — обязательство. Поведение чат-бота предсказуемо и тестируется и аудируется. По графу можно точно определить, что бот сделает в каждой ситуации.

Чистые LLM-чат-боты гибки, но это и представляет опасность для финансовых консультаций: они уверенно отвечают на вопросы за пределами своей базы знаний, рекомендуют несуществующие продукты или пропускают квалификационные шаги, важные для соответствия требованиям. Граф полностью предотвращает этот класс ошибок.

Экономика пока работает в нашу пользу. Будет ли это так через два года — зависит от того, как будут развиваться цены на LLM и насколько хорошо SaaS-платформы научатся уважать границы данных. Оба направления движутся быстро.


Построено c Claude Code на Django, PostgreSQL + pgvector и vanilla JavaScript. YandexGPT Pro 5.1 как основная языковая модель.

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно

«Отвратительно»: сторонники MAGA ошеломлены после того, как социолог раскрыл шаг администрации Трампа перед военной операцией

«Отвратительно»: сторонники MAGA ошеломлены после того, как социолог раскрыл шаг администрации Трампа перед военной операцией

Журналист данных и социолог Ричард Барис заявил в субботу, что перед беспрецедентной атакой США на Иран администрация Трампа изучила результаты опросов
Поделиться
Rawstory2026/02/28 23:54
Сделка OpenAI с Пентагоном: Сэм Альтман заключает важный контракт по ИИ с техническими мерами безопасности

Сделка OpenAI с Пентагоном: Сэм Альтман заключает важный контракт по ИИ с техническими мерами безопасности

BitcoinWorld Сделка OpenAI с Пентагоном: Сэм Альтман заключает важный контракт по ИИ с техническими гарантиями В знаковом событии для управления искусственным интеллектом
Поделиться
bitcoinworld2026/03/01 00:40
Республиканцы платят огромную цену за битву Трампа с Канадой

Республиканцы платят огромную цену за битву Трампа с Канадой

Усилия президента Дональда Трампа по захвату Канады и введению налогов в отношении северного соседа не увенчались успехом. США потеряли миллиарды долларов из-за значительно
Поделиться
Alternet2026/03/01 00:33