Модератор форума: Yuri_G  
Сообщество uCoz » Вебмастеру » Раскрутка сайта » Индексирование сайта запрещено в файле robots.txt (ошибки индексирования при снятом карантине)
Индексирование сайта запрещено в файле robots.txt
Модератор форума
Сообщение # 1 | 17:33:08
Проблема
На сайте стандартный robots.txt карантин закончился, а в вебматере Яндекса есть запись "Ваш сайт не проиндексирован Яндексом.(Индексирование сайта запрещено в robots.txt? Если вы исправили robots.txt, необходимо заново добавить сайт в очередь на индексирование.)"

Причины
1) Вы добавили сайт в вебмастер и на индексацию во время карантина, при добавлении сайта робот Яндекса проверил сайт и выдал ошибку. Даже, если карантин уже закончился, информация об ошибке может ещё какое-то время провисеть, так как подобная информация изменяется с задержками
2) Вы прикрепили к сайту домен и у вас не стоит настройка индексации по двум доменам. Это значит, что старый юкозовский домен закрыт от индексации, а вы не добавили информацию о новом домене в вебмастер Яндекса и смотрите информацию по старому
3) Ошибки в файле robots.txt, если составлен и залит некорректный по содержанию файл. Во избежании ошибок, если вы не разбираетесь в этом, пользуйтесь стандартным.

Проблема
Вебмастер Google - ошибки сканирования - заблокирован файлом robots.txt. На сайте карантин закончился

Причины
1) Вы добавили сайт в вебмастер и на индексацию во время карантина, при добавлении сайта робот Google проверил сайт и выдал ошибку. Даже, если карантин уже закончился, информация об ошибке может ещё какое-то время провисеть, так как подобная информация изменяется с задержками
2) Если сайт давно проиндексирован и вы получили инфо о запрете проиндексированных страницах.
Вы прикрепили к сайту домен и у вас не стоит настройка индексации по двум доменам. Это значит, что старый юкозовский домен закрыт от индексации, а вы не добавили информацию о новом домене в вебмастер Google и смотрите информацию по старому
2) Если сайт снят с карантина давно и индексируется нормально, то смотрите список заблокированных страниц, которые выдает Google. Перейдите по ссылкам, которые указаны в списке как заблокированные. Это должны быть все страницы запрещенные в robots.txt и вебмастер выдает по ним техническую информацию. Реагировать на это не надо, даже если список большой

Проблема
Яндекс при обработке robots.txt выдает ошибку - "Обнаружена неизвестная директива"

Причина
1) Была прописана несуществующая директива
2) Ошибки синтаксиса и запрещенные символы и теги
Anglerdima
Сообщений: 133
Репутация: 13

Сообщение # 316 | 18:39:44
MAKARА, У вас в Роботсе такая ерунда... Удалите его из файлового менеджера, и будет вам счастье
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 317 | 19:01:35
MAKARА, ошибку вызывает эта строчка

Host: torrentgamesru.ru/

вам повезло. откройте файл роботс в файловом менеджере на редактирование, удалите все оттуда и вставьте это

Код
User-agent: *

Disallow: /a/
Disallow: /stat/
Disallow: /index/1
Disallow: /index/2
Disallow: /index/3
Disallow: /index/5
Disallow: /index/7
Disallow: /index/8
Disallow: /index/9
Disallow: /panel/
Disallow: /admin/
Disallow: /secure/
Disallow: /informer/
Disallow: /mchat
Disallow: /search
Disallow: /shop/order/
Disallow: /?ssid=

Host: torrentgamesru.ru

Sitemap: http://torrentgamesru.ru/sitemap.xml


и больше ничего никогда там не трогайте

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
MAKARА
Сообщений: 4
Репутация: 0

Сообщение # 318 | 21:02:57
Anglerdima, это робот текст да ? за ранние спасибо

Добавлено (14 Июн 2013, 21:02:57)
---------------------------------------------
webanet, спасибо вам огромное !


http://torrent-best-games.net/
Komar
Сообщений: 276
Репутация: 18

Сообщение # 319 | 23:30:09
Помогите разобраться, в google adsense пишет, что у меня некоторые страницы закрыты от индексации роботом google adsense, а именно страницы закрыты типа домен/index/
Сайт http://sevmama.info
Заранее спасибо за помощь.

webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 320 | 23:45:48
Komar, дайте полные примеры страниц, которые по сообщениям гугла закрыты от индексации. несколько урлов

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
Komar
Сообщений: 276
Репутация: 18

Сообщение # 321 | 00:33:08

Сообщение отредактировал Komar - Суббота, 22 Июн 2013, 00:33:45
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 322 | 00:36:34
Komar, а теперь пройдите по всем этим ссылкам как гость (с другого браузера можно)
все нормально. это должно быть закрыто

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
Komar
Сообщений: 276
Репутация: 18

Сообщение # 323 | 00:41:25
webanet,
Я знаю, что эти ссылки должны быть закрыты, но google ругается, можно как-то это исправить, чтобы он не выдавал ошибку сканирования?

city-hunter
Сообщений: 1
Репутация: 0

Сообщение # 324 | 11:01:52
У меня такая же ситуация

Добавлено (22 Июн 2013, 11:01:52)
---------------------------------------------
но почему то он сканирует страницы сайта bipservice.ucoz.ru, когда у меня домен теперь bipservice-moskva.ru, в чем дело?

NZT
Сообщений: 369
Репутация: 483

Сообщение # 325 | 11:23:09
Komar, в роботс добавьте:
Код
User-agent: Mediapartners-Google
Disallow:

Добавлено (22 Июн 2013, 11:17:45)
---------------------------------------------

Цитата (city-hunter)
почему то он сканирует страницы

он - это кто?

Добавлено (22 Июн 2013, 11:23:09)
---------------------------------------------
city-hunter, а почему серверный редирект не включили (301)? Сайт доступен по обоим адресам. будут оба конечно сканироваться ботами, хоть первый и запрещен к индексации.

city-hunter
Сообщений: 1
Репутация: 0

Сообщение # 326 | 11:39:43
Вот мой робот файл:
User-agent: *
Disallow:
Disallow: /a/
Disallow: /stat/
Disallow: /index/1
Disallow: /index/2
Disallow: /index/3
Disallow: /index/5
Disallow: /index/7
Disallow: /index/8
Disallow: /index/9
Disallow: /panel/
Disallow: /admin/
Disallow: /secure/
Disallow: /informer/
Disallow: /mchat
Disallow: /search
Disallow: /?ssid=
Host: bipservice-moskva.ru
Sitemap: http://bipservice-moskva.ru/sitemap.xml

Мне просто вверху добавить или заменить две верхних строчки?
NZT
Сообщений: 369
Репутация: 483

Сообщение # 327 | 11:49:14
Цитата (city-hunter)
Вот мой робот файл:

у Вас их два. В этом все верно и ничего в него дабавлять не нужно. Второй (на старом домене) выглядет так:
Код
User-agent: *
Disallow: /

что тоже правильно.
вопрос: почему у Вас оба сайта индексируются?
Сообщение отредактировал NZT - Суббота, 22 Июн 2013, 11:52:00
city-hunter
Сообщений: 1
Репутация: 0

Сообщение # 328 | 11:51:55
не знаю
NZT
Сообщений: 369
Репутация: 483

Сообщение # 329 | 11:56:47
Цитата (city-hunter)
не знаю

вот... нужно зайти в общие настройки и поставить галочку - "перенаправлять со стандартного адреса на прикрепленный домен"
тогда старый домен индексироваться не будет. !это не значит, что он из поиска сразу пропадет. это значит, что он перестанет сканироваться ботами. и старые адреса будут как бы промежуточными....
city-hunter
Сообщений: 1
Репутация: 0

Сообщение # 330 | 12:21:01
Поставил галочку посмотрим smile
Сообщество uCoz » Вебмастеру » Раскрутка сайта » Индексирование сайта запрещено в файле robots.txt (ошибки индексирования при снятом карантине)
Поиск: