• Главная
  •  / 
  • Новости
  •  / 
  • Еще больше ограничений для запросов об индексации url от Google

Еще больше ограничений для запросов об индексации url от Google

31 января 2019

Продвижение сайта в АлматыАдминистрирование сайта включает в себя много аспектов, одним из которых является индексирование страниц при изменении информации. Каждая поисковая система составляет свою базу данных сайтов. Робот периодически проходит по страницам, попавшим в эту базу для обновления информации. Поэтому позиция сайта в общем поиске зависит от качества контента на проиндексированных страницах. Если изменения касаются только одной URL страницы, то достаточно будет обратиться за помощью сканера Google для сайтов. Однако, если объем проверяемых страниц больше одной, то целесообразней использовать функцию "Запросить индексирование" и отправить файл Sitemap.

Запросить индексирование с помощью cканера Google для сайтов можно выполнив ряд требований:

  • Запрос имеет статус Готово, Частично выполнено или Переадресовано.
  • Сканирование проводилось не более 4 часов назад.
     

Файл Sitemap рассматривается  поисковыми роботами, например  Googlebot. Он дает наглядное представление о периодичности изменения информации на сайте, как часто его нужно обрабатывать, а также информацию о контенте, описания видео или изображений. Это карта сайта, созданная для робота, работающего по четкому алгоритму.

Согласно февральским нововведениям, Google обновил запреты на количество запросов о сканировании URL, в целях прекращения злоупотреблением данной функцией. Несмотря на это, принятых мер оказалось недостаточно и ужесточились требования к инструменту Fetch as Google в Search Console, на что указывают многочисленные жалобы вебмастеров о возвращении ошибки на повторное сканирование страниц Google. Информация об ошибках выдается по запросу несколькими путями:

  • После клика Загрузить пользователь получит 1000 наиболее популярных ошибок для определенного робота.
  • После просмотра фильтра над таблицей для поиска необходимых URL.
  • После клика по ссылке URL в панели настройки и работы сайта.
     

Ведущий аналитик Google Джон Мюллер в своем интервью на пресс – конференции заявил: «Я подозреваю, что со временем всё нормализуется, но я бы рекомендовал сосредоточиться на неручных методах для сканирования и индексирования (например, на  файлах Sitemap)».

Новые лимиты, предложенные Google, позволят  пользователям Search Console подавать до 300 запросов типа «Сканировать только этот URL» в месяц и до двух запросов типа «Сканировать этот URL и прямые ссылки» в день. В сообщении об ошибке, которое возвращает Search Console, отмечается, что для того, чтобы страница была просканирована, она должна соответствовать рекомендациям Google в отношении качества и не использовать директиву Noindex.

Sitemaps — являют собой XML-файлы с информацией для поисковых систем (таких как Google, Bing, Яндекс, Поиск @Mail.Ru) о страницах веб-сайта, которые подлежат индексации. Фактически, такие отчеты помогают поисковикам определить местонахождение страниц сайта, время их последнего обновления, частоту обновления и важность относительно других страниц. В файле собраны данные, необходимые для работа, действующего по четко заявленному алгоритму, разработанному специалистами.

Однако, даже использование протокола Sitemaps не является гарантией того, что веб-страницы будут проиндексированы поисковыми системами, это всего лишь дополнительная подсказка для сканеров, которые смогут выполнить более тщательное сканирование сайта.

На данный момент помощь в оказании индексирования можно получить при помощи различных инструментов и разнообразных плагинов. Как правило, инструменты от разработчиков требуют дополнительных средств, что значительно повышает стоимость работы над продвижением ресурса. В частности можно использовать не только оригинальные средства для проверки, а и прибегать к помощи боле дешевого программного продукта на рынке информационных технологий.

Продвижение сайта в Алматы