Тысячи людей перестали ходить из поисковиков на сайты — они остаются общаться с ИИ. Теперь на сайты ходят боты. Чтобы попасть в рекомендации нейросетей, нужно полностью менять подход к продвижению. Классическое SEO уходит в прошлое, на смену приходит GEO (Generative Engine Optimization).
На еженедельной встрече Альянса Beinopen основатель платформы Алексей Баженов обсудил с экспертами Александром Терешко (SEO-оптимизатор с многолетним опытом, Авито) и Марией Шевченко (специалист по внедрению 3D- и AI-технологий, преподаватель НИУ ВШЭ и БВШД) новую реальность цифрового маркетинга.
Этот эфир проведен по следам эксперимента Марии Шевченко, цель которого – оптимизировать выдачу сайта под ИИ. Ознакомиться с ходом эксперимента здесь
Статья на основе эфира
Как ИИ выбирает сайты для выдачи: взгляд оптимизатора
Позитивная механика сейчас следующая: сайт должен выйти хотя бы в топ-20 органической выдачи Google или Яндекса. ИИ-ассистенты (Яндекс Алиса, Google AI Overviews) ходят в поиск, смотрят, какой сайт лучше ответил на вопрос, и цитируют его в нейроответе. Это самая охватная штука, дающая максимум видимости сегодня.
Что учитывают нейросети:
- Яндекс: Цитирует ограниченное количество сайтов, в основном известные инфопорталы и СМИ уровня РБК, ТАСС (или нишевые отраслевые издания).
- Google: Усиленную роль играют YouTube, Википедия, Wikidata. Без YouTube продвинуть бренд в GEO-выдаче затруднительно.
Вывод: чтобы продвигаться в нейровыдаче, нужно иметь хорошую информационную базу на сайте и поддержку во внешних базах знаний. Для персоны критически важен LinkedIn, для бренда – цитируемость на внешних ресурсах.
Как замерять эффективность GEO-продвижения
Четыре способа мониторинга:
- Публичные сервисы (например, Ahrefs). Показывают охваты сайта в системе, где анализируются ключевые слова и поисковая выдача. Видно, по каким запросам сайт появился в рекомендациях Яндекса.
- Ручной мониторинг. Введение таблицы скриншотов с датами и статусом цитирования.
- Серверные логи. Хардкорный метод для крупных компаний: анализ юзер-агентов и кукисов для сбора статистики трафика от ботов.
- CPA и конверсия. Оценка доли решений о покупке, принятых в чате с ИИ.
Важный нюанс: прямого трафика из ИИ сейчас очень мало. На графиках крупных порталов цифры могут удивить своей скромностью, а для интернет-магазина одежды этот трафик нужно делить еще на 100–500. Поэтому инструменты сейчас работают на охват и видимость бренда, а не на прямые переходы.
Как e-commerce сайту попасть в рекомендации ИИ
Факторы успеха:
- Классическое SEO. Товарные категории получают поисковую видимость, есть фильтры, выбор, SEO-тексты.
- Физический адрес компании. Без этого e-commerce сайты плохо цитируются в ИИ-системах.
- Блог с инфоконтентом. Созданы качественные SEO-статьи с фото и структурой. Для Google инфоконтент ценнее всего.
- Техническая адаптация. Внедрена правильная микроразметка (schema.org), сообщающая поисковикам цены, наличие, рейтинг.
- Структура контента. Первый экран статьи должен быть простым для бота: короткий HTML-код, короткие абзацы, явные заголовки. Первые два абзаца должны раскрывать тему — это база для понимания сути системами.
Сущности, триплеты и личная база знаний: как готовить контент для ИИ
В 2026 году и далее будут работать тексты со строгой системой фактов — путаться в них уже нельзя. Выделяют два технических момента, которые вычисляются алгоритмами и влияют на попадание в рекомендации:
- Сущности. Текст должен опираться на экспертную область знаний. Это не просто перебор слов про «женские туфли», а упоминание актуальных моделей, легендарных брендов, связанных персон и технологических нюансов.
- Триплеты. Трехключевая передача смысла (субъект – предикат – объект), которая аналитически вычисляется и включается в статью для корректной работы в рекомендательных системах.
Эффективный подход — создание персональной Wiki-базы знаний. Методика, описанная Андреем Карпаты, предполагает транскрибацию видео, описание нюансов и построение графа связей между концепциями. Это сложная структура, которую корректно обрабатывают только последние модели ИИ. Когда такая база готова, на её основе можно делегировать написание статей: ИИ будет генерировать контент, опираясь на структурированный экспертный опыт, а не на общие данные из интернета.
Ключевое условие — чтобы модель корректно считала каждый файл в системе (например, в формате .md) и ничего не потеряла. Для этого используется MCP-протокол (Model Context Protocol), который позволяет ИИ читать документы, интегрироваться с внешними системами и формировать актуальную базу знаний. В таком режиме система начинает находить новые инсайты, а не просто воспроизводить известное.
Технологии развиваются: Яндекс уже начал внедрять возможности взаимодействия сайтов с ИИ-агентами, а на Amazon и eBay реализована функция, позволяющая агенту не только анализировать контент, но и совершать покупки. Это следующий уровень эволюции цифрового маркетинга.
Для продвижения личного бренда специалиста критически важен LinkedIn — это ключевое хранилище знаний для персоны в глазах ИИ. Дополнительно стоит заполнить профиль в Wikidata или создать статью в Википедии: это помогает попасть в граф знаний и повышает вероятность цитирования в рекомендациях.
Чек-лист для подготовки к эпохе GEO:
- Проверьте базу знаний. Есть ли на сайте ответы на конкретные запросы (таблицы размеров, гайды, факты)?
- Внешние цитаты. Есть ли упоминания бренда в СМИ, Википедии, LinkedIn, YouTube?
- Техническая база. Внедрена ли микроразметка, есть ли физический адрес, корректный robots.txt и LLMs.txt?
- Структура контента. Простой HTML, четкие заголовки, суть в первых абзацах, использование сущностей и триплетов.
- Личная Wiki. Структурируйте свой экспертный опыт в машиночитаемом формате (Markdown/JSON) для обучения персонального ИИ-агента.


@MariaShe @abajenov я сделал расшифровку эфира и с ИИ собрал текст на основе. Вроде бы все вышло понятно и термины я прочекал, но мало ли, увидите какие то неточности или захотите что-то поправить)