Модератор форума: Yuri_G |
Сообщество uCoz » Вебмастеру » Раскрутка сайта » Robots.txt (индексация сайта) |
Robots.txt |
Нажмите на ссылку, чтобы перейти к ответу
Сообщение отредактировал webanet - Вторник, 27 Мар 2018, 20:08:42
|
maksat04, а зачем? это ссылка на поиск. поиск, страница поиска, результаты поиска не должны быть в выдаче по идее
|
kvv5605 это все потому что сайт попал в поиск, когда был ещё на карантине. через время ошибка уйдет. сейчас у вас карантина нет.
|
|
Вечора доброго. Вот и переехал мой сайтег на домен второго уровня - megahit-online.ru. С автоматической перенаправленностю со старого адреса на новый. Читал вот где то на форуме, что в такой связи ничего не требуется предпринимать в плане изменения robots.txt, все как бы предусмотрено, но спросить не постесняюсь. Может, блокирование в индекс всей предыдущей версии? Только а как добраться к robots.txt? А то как просмотреть то знаю, а добраться неть... Не наблюдаю я в файловом менеджере такой папки, как robots.txt... Благодарю за многочисленные ответы.
|
BOSSuy, megahit-online.ru/robots.txt - системный сайта с доменом, нужен robots.txt в ФМ, создайте и залейте в ФМ ...
|
Помогите, пжл, решить проблему с дублями страниц. Сайт относительно новый, а гугл мне уже нашел 70 страниц с повторяющимися загаловками.
Показывает страницы, которые должны быть и дубль к ней с приставкой -987 напрмер: /news/susalnoe_zoloto_simony_rocha_makijazh_ili_maska/2014-02-22-29-987 /news/susalnoe_zoloto_simony_rocha_makijazh_ili_maska/2014-02-22-29 Одна и та же страница, но от куда взялось это 987 мне непонятно. В результате в яндексе норм работает. А гугл держит в песочнице.. Нашел одну тему, закрыл в роботсе Disallow: /*-$. Но я не уверен, что это поможет. Как запретить именно страницы с окончанием -987 ? Disallow: /*-987$ так будет правильно? |
|
| |||