CTV & Video Advertising

SEO-обновления Google: Robots.txt, Deep Links, Требования ЕС

Google снова играет в "бей крота" с SEO-правилами, подкручивая robots.txt и deep links. Тем временем ЕС разминает мускулы, требуя от Google поделиться сокровищами поисковой выдачи. Речь уже не только о позициях в топе.

Схематическое изображение страницы результатов поиска Google с фрагментом deep link и кнопкой "Read more".

Key Takeaways

  • Google обновляет документацию robots.txt, чтобы охватить больше неподдерживаемых правил на основе данных из реального мира.
  • Новые рекомендации по deep links "read more" отдают предпочтение контенту, который виден сразу при загрузке страницы, и наказывают за раскрывающиеся секции.
  • ЕС предлагает Google делиться поисковыми данными (ранжирование, запросы, клики, просмотры) с конкурентами и ИИ-чатботами в рамках DMA.

Никто, собственно, и не просил. Но вот мы здесь. Google меняет правила robots.txt, раздаёт советы по “read more” deep links, а Еврокомиссия зубами вцепилась в поисковые данные. Это не какая-то там абстрактная подкрутка алгоритмов; это о том, насколько легко вам найти то, что вы ищете, или насколько легко хитрый ИИ решит, что вам следует увидеть.

Всё это преподносится как полезные обновления. Мол, Google внезапно озаботился пользовательским опытом. Да ладно? Речь о контроле, и точка. Кто решает, что показывается, и как.

Хватит пудрить мозги, а как же реальные люди?

Для начала, эти “read more” deep links? У Google внезапно появились лучшие практики. Оказывается, если ваш контент спрятан за какой-нибудь навороченной выпадающей коробкой или вкладкой, которую никто не кликает, — вы в чёрном списке. Смысл в том, что контент должен быть “сразу виден человеку при загрузке страницы”. Звучит разумно, да? Но на деле это завуалированный намёк на то, чтобы сайты были более “дружелюбны” к ИИ. Контент, который грузится мгновенно, без прокрутки, без кликов — вот это золотой билет. Так что те аккуратные FAQ-аккордеоны или стильные вкладки товаров, над которыми вы корпели часами? Можете считать их невидимыми для будущего поиска и ИИ.

В этом нет ничего удивительного. Мы годами предупреждали, что веб-сайты структурно не приспособлены для современных ИИ, бороздящих интернет. Теперь Google это просто подтверждает. Ваши тщательно организованные FAQ? Если они скрыты — мёртвый груз. Вывод прост: если хотите, чтобы Google показывал ваши ценные материалы, сделайте их очевидными. Никаких хитростей. Никакого скрытого контента. Только сырой, неприкрытый текст при загрузке.

“Контент, сразу видимый человеку” — это структурная инструкция, а не совет конкретно по “read more”.

Слободан Манич, основатель No Hacks, отлично это сформулировал. Дело не в одной конкретной фиче, а в общем указании. Сделайте контент доступным. Думайте как краулер, думайте как ИИ. У них нет терпения на ваш навороченный UX, если для этого нужен клик. Аудит один для всех.

Robots.txt: ещё больше способов выстрелить себе в ногу

Далее — расширение robots.txt. Google покопался в данных HTTP Archive и выяснил, какие глупые способы указания ботам, что делать, используют люди. Оказывается, существует куча неподдерживаемых правил, которые до сих пор применяются. Скоро Google, вероятно, их официально задокументирует, чтобы вы точно знали, что поисковик игнорирует. Отлично. Ещё больше поводов для аудита.

Это в основном для гиков, управляющих гигантскими сайтами, но хорошее напоминание: robots.txt — это не инструмент приватности. Это предложение. Google может добавить ещё неподдерживаемых правил в документацию. Сайты, использующие редкие директивы, получат более чёткие указания о том, что Google просто пропускает. Общественная услуга, полагаю. Или просто Google перекладывает работу по парсингу на массы.

А опечатки? О, эти опечатки. Они могут начать принимать больше вариантов написания “disallow” с ошибками. Потому что почему бы и нет? Мы говорим о поисковых ботах, а не корректорах. Это меньше про помощь, больше про то, что парсер Google становится всё более снисходителен к человеческим ошибкам — или, возможно, всё более инклюзивен к ошибкам ботов. Проверьте эти варианты. Исправьте их. Не думайте, что они безобидны.

Большая игра ЕС с данными

А теперь к настоящей драме. Еврокомиссия предлагает Google делиться своими поисковыми данными с конкурентами. Да-да, вы не ослышались. Конкурентами. И ИИ-чатботами, которые подпадают под определение поисковых систем. Думайте о Bing, DuckDuckGo, возможно, даже о каком-нибудь стартапном ИИ с функцией поиска.

Всё это в рамках DMA, Digital Markets Act. Предложение охватывает данные о ранжировании, запросах, кликах и просмотрах. ЕС хочет, чтобы условия обмена были справедливыми, разумными и недискриминационными. Это ещё не окончательно, публичные консультации продлятся до 1 мая. Окончательное решение — к 27 июля.

Почему это происходит? Потому что Европа, благослови её душу, пытается создать более конкурентную цифровую среду. Они устали от доминирования Google. Идея в том, что, делясь данными, конкуренты смогут стать умнее, лучше и, возможно, предложить альтернативу, которая не ощущается как “чёрный ящик”.

Но давайте будем честны: это грязно. Google будет сопротивляться. И кто знает, какие именно данные окажутся полезными, или как они будут (или не будут) анонимизированы. Самое интересное? Определение “онлайн-поисковой системы” от ЕС может включать ИИ-чатботы. Так что ваш любимый ИИ-ассистент скоро сможет получить доступ к огромным массивам данных о поведении пользователей Google. Представьте себе. Ваш ИИ в курсе того, что вы искали в Google. Пугает, не правда ли?

Этот шаг — прямой удар по крепости Google. ЕС, который часто критикуют за медлительность, на самом деле действует быстро. Это смелая ставка на децентрализацию стражей информации.

Почему это важно для развития ИИ?

Стремление ЕС к обмену данными напрямую влияет на развитие и возможности ИИ-чатботов. Потенциально предоставляя доступ к анонимизированным данным Google Search — включая метрики запросов, кликов и просмотров — эти ИИ-модели могут стать значительно более изощрёнными. Они получат более глубокое понимание намерений пользователей, актуальных тем и паттернов поиска информации в масштабах, ранее доступных только самому Google. Это может привести к более релевантным и точным ответам ИИ, но также поднимает серьёзные опасения по поводу конфиденциальности и того, как эти агрегированные данные обрабатываются и защищаются. Граница между конфиденциальностью пользователя и развитием ИИ становится всё более размытой.

Итог

Google шумит своими документами. ЕС шумит данными. Всё происходит одновременно. Для обычного пользователя это означает, что поисковые результаты могут выглядеть иначе. Ваши любимые FAQ могут исчезнуть. А ИИ, с которым вы общаетесь? Он может знать о вас гораздо больше, чем вы думаете. Это не просто про SEO; это про будущее доступа к информации. И, честно говоря, похоже на постоянную битву за контроль. Не ждите, что станет проще. Становится только страннее.


🧬 Связанные материалы

Часто задаваемые вопросы

Что означают обновлённые правила robots.txt от Google? Google рассматривает возможность добавления в документацию robots.txt большего числа неподдерживаемых правил, основываясь на данных из реального мира. Это прояснит, какие директивы Google игнорирует, помогая веб-мастерам более эффективно управлять своими файлами.

Повлияют ли эти изменения Google на рейтинг моего сайта? Возможно. Более заметный контент при загрузке страницы может увеличить вероятность появления deep links “read more” в поисковой выдаче, что косвенно повлияет на видимость. Что касается robots.txt, важно понимать, что Google действительно учитывает.

В чём заключается предложение ЕС по обмену данными Google? Европейская комиссия хочет, чтобы Google делился анонимизированными поисковыми данными (ранжирование, запросы, клики, просмотры) с конкурирующими поисковыми системами и соответствующими ИИ-чатботами в ЕС и ЕЭЗ. Цель — стимулировать конкуренцию.

Written by
AdTech Beat Editorial Team

Curated insights, explainers, and analysis from the editorial team.

Worth sharing?

Get the best AdTech stories of the week in your inbox — no noise, no spam.

Originally reported by Search Engine Journal