…. и программиста. Нейросети меняют паттерны поведения людей при поиске информации. В частности они становятся сложнее и длиннее. Если вы спросите ChatGPT, куда…. и программиста. Нейросети меняют паттерны поведения людей при поиске информации. В частности они становятся сложнее и длиннее. Если вы спросите ChatGPT, куда

Как я создал «Тунец» — платформу для попадания в ответы нейросетей с помощью нейростей…

…. и программиста.

Нейросети меняют паттерны поведения людей при поиске информации. В частности они становятся сложнее и длиннее. Если вы спросите ChatGPT, куда дольше ехать из Москвы — в Питер, Казань или Краснодар, то классический поиск не найдет статью, которая полностью ответит на вопрос. А вот нейросеть, понимая интент, разобьет промпт на три простых поисковых запроса:

  • «расстояние Москва-Санкт-Петербург»,

  • «расстояние Москва-Казань»,

  • «расстояние Москва-Краснодар».

В ответе нейросеть использует конкретные источники информации — реальные сайты, которые показались ей авторитетными, и их суммарное содержимое отвечает на мой вопрос.

Мир поиска изменился навсегда. Бизнесу нужен инструмент для изучения, анализа и создания такого контента, который не только попадет в эти источники, но и будет максимально полезным для формирования ответов нейросетей.​

Оглавление

Проблема, которую мы решили

Первый эксперимент и прототип инструмента

Архитектура, технический стек и нейросети для создания

Борьба с техническими ограничениями

Ключевой функционал

Реальные результаты и кейсы

Монетизация и пользовательский опыт

Планы развития

20f195d989df217cabeb70721fc3c9f1.png

В процессе изучения алгоритмов нейросетей, в моем агентстве появилась услуга «GEO», и с этого началась история «Тунца» — сервиса для GEO-продвижения, который помогает попадать в ответы ChatGPT, Perplexity, Яндекс GPT и других нейросетей. Я понял, что традиционной SEO-оптимизации теперь мало: нужен новый подход к созданию контента, который будут цитировать AI-системы.​

Проблема, которую мы решили

Весной 2025 года наша команда столкнулась с проблемой. Клиенты рекламного агентства занимали топовые позиции в Яндексе и Google, но когда пользователи задавали те же вопросы нейросетям, в источниках зачастую оказывались совсем другие сайты.

Причина проста: AI-системы используют собственные критерии «полезности» информации, и классическая SEO-оптимизация здесь не помогала.​ Закономерно возник следующий вопрос: почему тот или иной сайт отбирался нейросетями как источник информации?

Я начал проверять вручную, какие домены цитируют Perplexity, ChatGPT и YandexGPT по запросам наших клиентов. Процесс шел мучительно медленно: каждый запрос нужно вбивать в четыре-пять нейросетей, фиксировать источники, анализировать позиции и формы упоминаний. На проверку 10-15 ключевых запросов уходил рабочий день.​

1a17b26dc57a185c5d67bf0d9751a84a.png

Стало очевидно: без автоматизации масштабировать GEO-услугу невозможно. Я приступил к разработке «Тунца» — инструмента, который проводит весь этот многоступенчатый энергоемкий анализ автоматически.​

Что такое GEO и почему это вообще отдельная услуга, а не «ещё одно SEO», подробно разбирал в отдельной статье на Хабре.

Первый эксперимент и прототип инструмента для попадания в ответы AI

Первая версия Тунца была далека от того, что мы имеем сейчас. Я собрал команду из двух человек: себя, как продакт-менеджера, и фулстек-разработчика. Мы начали с простого MVP: пользователь вводит список URL своего сайта и ключевые запросы, система автоматически проверяет их в нейросетях, возвращает ответ и список источников-конкурентов.​

Уже на этапе прототипа мы столкнулись с техническими сложностями:

  • Разнообразие API нейросетей: у каждой системы свой формат запросов и ответов. Perplexity предоставляет API через модель Sonar-Pro, ChatGPT работает через GPT-4-search, а для Яндекс GPT нужна интеграция через YandexCloud.​

  • Ограничения по запросам: многие API имеют rate limiting, и при массовой проверке сотен запросов мы регулярно получали ошибку 429.​

  • Извлечение источников: каждая нейросеть форматирует ссылки по-своему — Google AI Overviews добавляет карточки, Perplexity использует нумерацию, ChatGPT показывает блок "Sources".​

Тем не менее, мы запустили первую рабочую версию за полтора месяца. На этом этапе платформа умела только одно: проверять наличие нейроответов и собирать список доменов-источников. Но даже это был огромный шаг вперед по сравнению с ручным анализом.

Архитектура и технический стек

Для масштабируемого решения мы выбрали проверенную связку: Django в качестве бэкенда и Celery для асинхронной обработки задач. PostgreSQL стал нашей основной базой данных благодаря поддержке JSONField, который идеально подходит для хранения сложных структур данных от API нейросетей.​

Почему именно такая архитектура? Анализ одного проекта может требовать проверки сотен запросов в четырех-пяти нейросетях — это тысячи API-вызовов. Многие нейросети возвращают ответ в течение 30-60 секунд, что при синхронной обработке создавало бы неприемлемые задержки. Celery решил эту проблему: пользователь создает задачу → она уходит в очередь → обрабатывается в фоне → а по завершении система отправляет уведомление.​

Для работы с каждой нейросетью мы разработали отдельные сервисные классы:

  • perplexityservice.py — интеграция с Perplexity AI через модель sonar-pro.

  • chatgptservice.py — работа с ChatGPT Search API.

  • yandexgptservice.py — интеграция с Yandex GenSearch API.

  • geminiservice.py — подключение к Google Gemini.

  • gigachatservice.py — работа с российской моделью GigaChat​.

Каждый сервис инкапсулирует логику взаимодействия с конкретной AI-системой, включая обработку ошибок и retry-логику при сбоях. Это позволило легко добавлять новые нейросети по мере их появления.

Важная часть этой архитектуры — использование самих нейросетей внутри «Тунца» не только как объекта анализа, но и как движка разработки и генерации.​ Приведу пример использования ИИ в «Тунце». Perplexity собирает всю информацию для GPT, который по этому промту и собранным данным формирует кодовую базу реализации по аналогии с другими интеграциями.

f5dcb19a3668a739306cb5d44245179c.png

Пример работы с готовым user‑промтом в ИИ:

ab0b18e39aea1687024951d2850b92e9.png

Фронтенд «Тунца» на 100% создан силами двух нейросетей:

  • Perplexity разработала все виды дизайна — от макетов до финальных визуалов,

  • а ChatGPT полностью реализовала их в коде проекта.

На 65-70% код пишет GPT, а Perplexity готовит user-промпты и собирает необходимую информацию. Время разработки тратится больше в лаборатории Perplexity, чем в IDE — интерфейс там работает быстрее, чем генерируется код. Поэтому генерация запускается сразу в 2-3 окнах.

Цель на ближайшее время — перевести 100% разработки «Тунца» на ИИ и полностью отказаться от ручного написания кода.

Главные подводные камни — в архитектуре: здесь все нужно держать под жёстким контролем. Вторая проблема — постоянный рефакторинг, без которого файлы разрастаются в простыни, нечитабельные даже для самого ИИ.

Борьба с техническими ограничениями

Самой большой головной болью стала нестабильность API нейросетей. Мы реализовали комплексную систему retry-логики с экспоненциальной задержкой: при ошибке 429 (rate limiting) система автоматически повторяет запрос через увеличивающиеся интервалы — сначала через 2 секунды, потом через 4, 8, 16. Максимальное число попыток ограничили тремя, после чего задача помечается как failed.​

Еще одна проблема — извлечение источников из ответов. Мы разработали специализированные парсеры для каждой платформы, которые нормализуют данные и извлекают домены, позиции упоминаний и текстовые фрагменты цитирований. Это позволило унифицировать данные из разных источников и показывать их пользователю в едином формате.​

Однако в процессе работы стало ясно, что проблема гораздо глубже, чем просто разные форматы ответов. Нейросети далеко не всегда могут получить доступ к самим страницам-источникам: сайты блокируют AI-краулеры через robots.txt, Cloudflare, rate limiting, нестандартные HTTP-статусы или отдают основной контент через JavaScript, недоступный для простых HTTP-запросов. В результате модель либо вовсе не может извлечь контент, либо вынуждена «достраивать» ответ без реального анализа источника. Я подробно разобрал технические причины недоступности контента для ботов нейросетей в отдельной статье на Хабре.

Ключевой функционал «Тунца»

После нескольких итераций мы пришли к четкой структуре работы сервиса. Всё начинается с создания проекта — пользователь вводит название, домен и список URL страниц, которые хочет продвигать. Система автоматически сканирует предоставленные страницы и извлекает ключевую информацию: заголовки, мета-описания, структуру контента, наличие Schema.org разметки и дает рекомендации по улучшению.

6bc42414b8a5537993f09e59427a0c3c.png

Автоматическая генерация ключевых слов

Самое интересное начинается дальше. Вместо того, чтобы просить пользователя придумывать, искать, собирать поисковые запросы, «Тунец» генерирует их автоматически с помощью AI. Для каждой страницы система создает до 50 ключевых фраз, по которым имеет смысл продвигаться в нейроответах.​

45a2ce674e8eff601f6daaba7dcde6e7.png

Далее платформа проверяет частотности через Yandex Wordstat API. И вот здесь важный момент: многие запросы, по которым нейросети дают развернутые ответы, имеют нулевую частотность в Wordstat. Почему? Потому что люди задают нейросетям гораздо более сложные и длинные вопросы, чем обычно вбивают в поисковую строку. Но нейросеть разбивает такой вопрос на простые запросы и ищет информацию по каждому из них.​

Вместе с ключевыми фразами система собирает LSI-термины (Latent Semantic Indexing) — дополнительные слова, которые должны присутствовать в тексте для полного раскрытия темы. Например, для запроса «курсы по нейросетям» LSI-терминами будут слова «онлайн», «ChatGPT», «промпты», «обучение». Эти термины система извлекает из хвостов запросов в Wordstat, убирая повторы.​

5a82c09c45eaf7af257e8b4884ba742a.png

Анализ присутствия в нейросетях

Следующий этап — проверка, есть ли вообще нейроответы по собранным ключевым словам. «Тунец» отправляет каждый запрос в Яндекс, Google, ChatGPT и Perplexity, фиксируя наличие или отсутствие AI-ответа. Если ответ есть, система собирает список доменов, которые использовались как источники информации.​

d8b026065d173eda62b3a80677186a11.png

Здесь происходит магия: мы видим, какие именно площадки доминируют в нейроответах по вашей тематике — это может быть Хабр, VC, Пикабу, профильные СМИ или сайты конкурентов.

Дополнительно «Тунец» анализирует пересечения доменов между нейросетями: если один и тот же сайт используется как источник одновременно в Perplexity, ChatGPT и Яндекс Нейро, это сильный сигнал высокого «нейроавторитета». Такие площадки становятся приоритетными для размещения контента, поскольку именно они максимизируют шансы попасть в ответы сразу нескольких AI-систем и напрямую влияют на формирование контент-плана.

73a6199c633863b5e9bdd14ba607311a.png

Почему нейросети могут игнорировать сильные сайты

Даже с хорошими позициями в классическом поиске и высоким доверием домена сайты часто не попадают в источники нейросетей просто потому, что страница «неудобна» для AI. Чтобы это понять и формализовать, в «Тунце» есть отдельный этап проверки страницы под E-E-A-T и нейроавторитетность.

Задача данного шага — ответить на вопрос — будет ли нейросеть считать конкретную страницу надежным источником, который подходит для цитирования в ответе? На этапе E-E-A-T система анализирует страницу по набору сигналов, которые регулярно встречаются у сайтов, используемых нейросетями как источники:

  • наличие автора и информации об экспертизе,

  • указана ли дата публикации или обновления,

  • есть ли внешние источники и ссылки на первоисточники,

  • присутствует ли краткое резюме (TL;DR), которое легко извлекается в summary,

  • есть ли структурированные блоки вроде FAQ,

  • насколько структурирован сам текст (заголовки, списки, таблицы),

  • общий уровень доверия домена (Domain Rating).

1dcc67d3b1fa22735511a41c22d889c3.png

Каждый из перечисленных пунктов — это сигнал, который нейросети используют, чтобы быстро оценить надежность страницы. Этап E-E-A-T-анализа нужен именно для этого:

  • быстро показать, каких сигналов не хватает странице,

  • превратить абстрактное «нужно повысить доверие» в конкретный список доработок,

  • понять, имеет ли смысл продвигать страницу дальше, или сначала нужно привести её в формат, понятный нейросетям.

Как это используется дальше? Результаты проверки напрямую влияют на следующие шаги:

  • при генерации контент-плана система учитывает, какие элементы доверия нужно встроить в будущие материалы,

  • при выборе площадок для размещения контента приоритет получают сайты, которые уже соответствуют E-E-A-T-критериям,

  • при повторных проверках можно отслеживать, как изменения в структуре страницы влияют на появление в нейроответах.

Фактически, это точка, где GEO перестаёт быть интуитивным процессом и превращается в управляемую понятную задачу.

На этом же этапе проверки «Тунец» не просто показывает, что не так, а формирует конкретные рекомендации по доработке страницы, ранжированные по приоритету.

Каждая рекомендация сопровождается объяснением почему это важно для нейросетей и оценкой уверенности AI.

12e70486a33eb83b8908f59a04814eaa.png

Проверка позиций в классической выдаче

Важный нюанс: чтобы попасть в ответы нейросетей, нужно присутствовать в индексе обычных поисковых систем. Поэтому GEO-инструмент «Тунец» параллельно проверяет позиции ваших страниц в Яндексе, Google и Bing через Arsenkin Tools API. Это дает полную картину: где вы находитесь в классической выдаче и используют ли вас нейросети как источник.​

Интересно, что некоторые AI-системы, такие как Google AI Overviews, напрямую используют результаты обычного поиска для формирования своих ответов. Поэтому работа над классическим SEO остается важной частью GEO-стратегии продвижения.​

Генерация контент-планов и ТЗ

Финальный этап — создание технических заданий для копирайтеров. Система анализирует топ-5 страниц в Яндексе и Google по каждому ключевому запросу, извлекает их содержимое и с помощью нейросети создает summary: какие темы раскрыты, какая структура используется, какой средний объем текста, сколько заголовков, есть ли видео и изображения.​

На основе этого анализа «Тунец» генерирует подробное ТЗ, которое включает:

  • Рекомендованную структуру статьи с примерами заголовков H2.

  • Список обязательных SEO-ключей для включения в текст.

  • LSI-термины для естественного расширения семантики.

  • Рекомендованный объем (обычно 2000-3000 слов).

  • Список площадок, где нужно разместить контент для максимального эффекта​.

358495b68ae7d6d85973dd25dcb1b72a.png0027a76c4d92fcf751d5d3f49214ed94.png4a91990c34c916cbf67fbb212885f918.png

Последний пункт особенно важен. Если вы разместите экспертную статью только на своем сайте, нейросети могут не счесть его достаточно авторитетным. Но если та же статья появится на Хабре, VC или в профильном СМИ, шансы попасть в источники резко возрастают.​​

f338fd8c2635b0829c9c802b46e10a62.png

Реальные результаты и кейсы

Один из первых экспериментов мы провели для застройщика недвижимости. Задача была проста: добиться упоминаний компании в ответах нейросетей на запросы типа «новостройки в Омске», «ТОП застройщиков Омской области» и подобные.​

За две недели мы создали серию структурированных статей с четкими утверждениями, таблицами сравнений и ссылками на авторитетные источники. Эти материалы разместили на сайте клиента и нескольких внешних площадках с высоким доверием. Результат превзошел ожидания: несуществующая нигде ранее компания начала стабильно появляться в ответах Perplexity, Яндекс Нейро, ChatGPT и даже DeepSeek AI.​

c8f9dfa7b02ac26a5a984da8baadecca.png

Ключом к успеху стали несколько факторов:

  • Структурированность: нейросети любят четкую иерархию заголовков, маркированные списки, таблицы.

  • Конкретика: вместо расплывчатых формулировок — точные цифры, даты, характеристики.

  • Авторитетность площадки: размещение на доверенных ресурсах с высоким Domain Rating.

  • Внешние ссылки: цитирование других авторитетных источников повышает доверие к вашему материалу.

6b74bf1a4fe3681373e7048d49ee1d09.png21050521bee832a7745272f7ed20c195.png

Монетизация и пользовательский опыт

С самого начала мы решили сделать прозрачную модель оплаты через внутренние монеты. Пользователь пополняет баланс, а система списывает средства поэтапно:​

  • Сканирование страниц и генерация ключей — самый дорогой этап, так как включает множество AI-запросов.

  • Проверка частотности в Wordstat — оплата за каждую проверенную фразу.

  • Анализ площадок в нейросетях — списание за каждую проверку запроса в 4-5 AI-системах.

  • Проверка позиций — оплата через Arsenkin Tools API.

  • Генерация контент-плана — итоговое ТЗ на основе всех собранных данных​.

Блок услуги

Действие / единица учета

Стоимость, монет

Сканирование

одного URL

40

одного запроса в одной нейросети

10

Проверка позиций

в Яндекс для одного запроса

1

в Google для одного запроса

1

Запросы

Проверка частотности одного запроса

1

Сбор LSI

1

Технические задания

Генерация до 10 тем статей

4

Создание финального ТЗ

150

Такой подход позволяет контролировать расходы и оплачивать только те функции, которые действительно нужны. Например, можно ограничиться только анализом ключевых слов или проверить позиции только для части страниц, отметив их галочками.

Важный момент UX: при создании проекта пользователь может не вводить поисковые запросы вручную — система генерирует их автоматически на основе содержимого страниц, экономя часы работы. При этом платформа не ограничивает ручной контроль: любые ключевые фразы можно добавить или отредактировать самостоятельно, если нужно проверить конкретные гипотезы или запросы.

Экономия времени и ресурсов при использовании «Тунца»

Этап работы

Ручной подход

Автоматизация в «Тунце»

Аудит страниц

30–60 минут на одну страницу

~30–60 секунд (загрузка + парсинг)

Сбор семантического ядра (Wordstat)

2–4 часа на проект

5–10 минут (API + обработка)

Анализ конкурентов

4–8 часов (анализ ~10 страниц)

15–30 минут

Подготовка ТЗ для контента

2–3 часа

5–10 минут (AI-генерация + форматирование)

Проект целиком (10 страниц)

50–80 часов

5–10 часов

Что дальше: планы развития

Разработка «Тунца» не останавливается. В ближайших планах несколько важных направлений:

  • Дополнительные нейросети. На подходе интеграция с DeepSeek и Claude.

  • Сейчас «Тунец» проверяет наличие страниц в индексе Яндекса и Google, в ближайших планах — проверка индексирования и позиций в Bing и Baidu, чтобы закрыть международные и азиатские рынки.

  • White-label решения. SEO-агентства смогут предлагать своим клиентам GEO-аналитику под собственным брендом, укрепляя конкурентные позиции на рынке.​

  • Автоматическая классификация площадок. AI будет определять тип каждого домена (СМИ, UGC-платформа, социальная сеть, корпоративный сайт, отзовик), чтобы пользователь мог быстро находить подходящие для размещения ресурсы.​

  • Генерация контента на основе ТЗ. Уже внедряем возможность автоматически создавать полноценные статьи на основе сформированного технического задания. После генерации контент будет проходить проверку на уникальность через сервис Text.ru, а также оценку рисков переоптимизации и качества текста по алгоритмам «Тургенева». Это позволит получать материалы, готовые к публикации и безопасные с точки зрения поисковых систем.

Новая эра поиска

Создание Тунца стало нашим ответом на то, насколько сильно изменился способ, которым люди ищут и получают информацию в интернете. Эпоха, когда достаточно было оптимизировать сайт под классические поисковики, уходит. На смену приходит многоуровневая экосистема, где нейросети становятся полноценными посредниками между контентом и пользователями.​

GEO платформа «Тунец» — это не замена классическому SEO. Лучшие результаты показывают сайты, которые одновременно ранжируются в топе Google и Яндекса и при этом регулярно цитируются нейросетями как авторитетные источники.​

11305395fe66a70d94216c09894aba32.png

По мере того как генеративный поиск занимает всё больший объем пользовательского внимания, инструменты для GEO-оптимизации станут обязательными в арсенале каждого маркетолога. Я верю и уже вижу, что будущее за систематичным и измеримым подходом к продвижению в нейросетях — не угадывание, а точная аналитика и данные о реальном поведении AI-систем.​

Потыкать тунца можно тут https://to-nets.ru/

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.