Answer the question
In order to leave comments, you need to log in
How to fix the drop in the number of pages in the search?
Hello!
Recently I decided to clean up duplicate pages on the site, added a blocking condition to robots.txt. There are many duplicates.
Loaded pages (30%), pages in search (50%), excluded pages (50%) began to fall in Yandex Webmasters.
Traffic also dropped by 50%.
Questions. Why such a sharp drop in pages in the search. I removed the WRONG pages.
How to stop pages falling in search and traffic falling?
Wait for a complete re-indexing of the site? How long will it take?
I'm going to continue to remove duplicates, is it better to do it now or later?
Answer the question
In order to leave comments, you need to log in
В таких случаях лучше начать с анализа страниц входа из поиска, например, через «Яндекс.Метрику». И только убедившись, что дубли не считаются поисковиками более релевантными, исключать их. Возможно, вы исключили какие-то трафиковые страницы.
Закрывать страницы от индекса лучше с помощью
robots может тупить.
Во-вторых. Ты уверен, что у тебя нужные страницы вылетели из индекса? Если нет, то смотри тот же вебмастер и чекай. Если вылетели только дубли, а нужные остались, значит твои дубли были релевантнее правильных. Нужно смотреть и изучать почему.
Если из индекса вылетели нужные, значит косяк в роботсе.
Didn't find what you were looking for?
Ask your questionAsk a Question
731 491 924 answers to any question