Модератор форума: Yuri_G |
Сообщество uCoz » Вебмастеру » Раскрутка сайта » Индексирование сайта запрещено в файле robots.txt (ошибки индексирования при снятом карантине) |
Индексирование сайта запрещено в файле robots.txt |
Проблема На сайте стандартный robots.txt карантин закончился, а в вебматере Яндекса есть запись "Ваш сайт не проиндексирован Яндексом.(Индексирование сайта запрещено в robots.txt? Если вы исправили robots.txt, необходимо заново добавить сайт в очередь на индексирование.)" Причины 1) Вы добавили сайт в вебмастер и на индексацию во время карантина, при добавлении сайта робот Яндекса проверил сайт и выдал ошибку. Даже, если карантин уже закончился, информация об ошибке может ещё какое-то время провисеть, так как подобная информация изменяется с задержками 2) Вы прикрепили к сайту домен и у вас не стоит настройка индексации по двум доменам. Это значит, что старый юкозовский домен закрыт от индексации, а вы не добавили информацию о новом домене в вебмастер Яндекса и смотрите информацию по старому 3) Ошибки в файле robots.txt, если составлен и залит некорректный по содержанию файл. Во избежании ошибок, если вы не разбираетесь в этом, пользуйтесь стандартным. Проблема Вебмастер Google - ошибки сканирования - заблокирован файлом robots.txt. На сайте карантин закончился Причины 1) Вы добавили сайт в вебмастер и на индексацию во время карантина, при добавлении сайта робот Google проверил сайт и выдал ошибку. Даже, если карантин уже закончился, информация об ошибке может ещё какое-то время провисеть, так как подобная информация изменяется с задержками 2) Если сайт давно проиндексирован и вы получили инфо о запрете проиндексированных страницах. Вы прикрепили к сайту домен и у вас не стоит настройка индексации по двум доменам. Это значит, что старый юкозовский домен закрыт от индексации, а вы не добавили информацию о новом домене в вебмастер Google и смотрите информацию по старому 2) Если сайт снят с карантина давно и индексируется нормально, то смотрите список заблокированных страниц, которые выдает Google. Перейдите по ссылкам, которые указаны в списке как заблокированные. Это должны быть все страницы запрещенные в robots.txt и вебмастер выдает по ним техническую информацию. Реагировать на это не надо, даже если список большой Проблема Яндекс при обработке robots.txt выдает ошибку - "Обнаружена неизвестная директива" Причина 1) Была прописана несуществующая директива 2) Ошибки синтаксиса и запрещенные символы и теги |
Описание веб-страницы недоступно из-за ограничений в файле robots.txt.
|
Anna4091, вероятно сайт попал в поиск когда был на карантине. ждите перепроверки до недели иногда больше
|
Цитата (Anna4091) Возникла проблема! Помогите решить!Я создал сайт,прицепил к нему доменное имя, после чего оплатил паке «Базовый» дабы снять карантин и запустить сайт в индексирование поисковых систем. ответ таков Запрещено в файле robots.txtВ службе поддержки написали «Для индексации сайта по обеим доменам, Вам необходимо в панели управления Вашим сайтом войти в "Настройки" - "Общие настройки" и включить опцию "Разрешать индексацию по обоим доменам.»Не помогает хотяделал как написано. |
Anna4091, вероятно сайт попал в поиск когда был на карантине. ждите перепроверки до недели иногда больше
не надо дублировать одно и тоже. читайте что вам пишут |
Здравствуйте. Обращаюсь за помощью. Уже не знаем что и делать но руки опускать не хочется. Вот http://ekran4ik.com, гугл ну ни как не хочет дружить с нами - вот скрин , что делать ? Подскажите пожалуйста
Добавлено (25 Июл 2013, 18:17:49) Цитата (Alladin) Здравствуйте. Обращаюсь за помощью. Уже не знаем что и делать но руки опускать не хочется. Вот http://ekran4ik.com, гугл ну ни как не хочет дружить с нами - вот скрин Сообщение отредактировал Alladin - Четверг, 25 Июл 2013, 10:58:29
|
Alladin, я не понимаю что вы хотите от гугла?
гугл накушался на сайте мусора и выводит 56100 ссылок. это очень много. слишком много. вам бы серьезно увеличить количество урлов в блокировке по роботсу добавьте в роботс строчку Disallow: /*? или Disallow: *? первое закроет все урлы с вопросом относительно домена. второе закроет вообще все урлы с вопросом. лучше ставить второе. гугл накушался дублей у вас и кажется подавился. остальное это контент. заимствованный видео контент. сейчас в интернете борьба ведется с этим на счет остального вот сам гугл ответил //u.to/2IEPBA но все равно поставьте блок по роботсу все ссылки с вопросом. ну очень гугл накушался и дублей и прочего сухой остаток должен быть не более 29тыщ Прикрепления:
1586589.jpg
(54.4 Kb)
|
Для нового сайта существует карантин, во время которого никакая регулировка файла robots.txt невозможна. При хорошей посещаемости карантин продлится до двух недель. У малопосещаемых сайтов карантин 30 дней. При оплате какой-либо дополнительной услуги карантин заканчивается немедленно после оплаты.
|
| |||