Как обновить все страницы сайта в поисковиках?
Как обновить все страницы сайта в поисковиках?
Раньше на домене домен.рф (к примеру) находился сайт1. Но сейчас сайт1 убрали и вместо него теперь сайт2. Теперь страницы сайта1 сохранились в поисковиках (в результатах поиска и в кэше). Как полностью удалить сайт1 из поисковиков так, чтобы потом индексировались страницы сайта2?
Re: Как обновить все страницы сайта в поисковиках?
Страницы сайта 1 сейчас работают? Если нет, то через некоторое время они пропадут из поисковиков. Но это может быть очень долго.
У яндекса есть http://webmaster.yandex.ru/delurl.xml
Новые страницы со временем попадут в индекс.
У яндекса есть http://webmaster.yandex.ru/delurl.xml
Но я этим не пользовался.Если страница сайта больше не существует или вы не хотите, чтобы она появлялась в результатах поиска, то вы можете ускорить процесс удаления этой страницы из базы Яндекса, указав ее URL в приведенной форме. Для удаления необходимо, чтобы при запросе указанного URL сервер возвращал код ошибки 404 или индексирование страницы было запрещено в файле robots.txt, либо метатегом noindex.
Новые страницы со временем попадут в индекс.
Re: Как обновить все страницы сайта в поисковиках?
я пробовал с google в панели инструментов: https://www.google.com/webmasters/
там предлагают удалить url из кэша/из результатов поиска и кэша/удалить каталог
если удалить из кэша - робот переиндексирует страницу (обновит), я указал весь сайт (путь / до страницы), он предложил удалить только результаты поиска. я их удаляю, а новые теперь не добавляются. а по отдельности добавлять - слишком долго. если даже в robots.txt написать запрет ко всему сайту, он не удалит уже существующие (до запрета сканирования) страницы, просто не будет индексировать новые.
вот бы была у них функция - удалить всё содержимое сайта в базе google (чтобы при этом новые страницы добавлялись, как-будто новый сайт)
там предлагают удалить url из кэша/из результатов поиска и кэша/удалить каталог
если удалить из кэша - робот переиндексирует страницу (обновит), я указал весь сайт (путь / до страницы), он предложил удалить только результаты поиска. я их удаляю, а новые теперь не добавляются. а по отдельности добавлять - слишком долго. если даже в robots.txt написать запрет ко всему сайту, он не удалит уже существующие (до запрета сканирования) страницы, просто не будет индексировать новые.
вот бы была у них функция - удалить всё содержимое сайта в базе google (чтобы при этом новые страницы добавлялись, как-будто новый сайт)