Модератор форума: Yuri_G  
Сообщество uCoz » Вебмастеру » Раскрутка сайта » Robots.txt (индексация сайта)
Robots.txt
Модератор форума
Сообщение # 1 | 16:57:58
maksat04
Сообщений: 2
Репутация: 0

Сообщение # 1546 | 19:47:36
Скажите пожалуйста
Можно ли убрать /search из роботса и как это повлияет?
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 1547 | 19:54:29
maksat04, а зачем? это ссылка на поиск. поиск, страница поиска, результаты поиска не должны быть в выдаче по идее

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
kvv5605
Сообщений: 4
Репутация: 0

Сообщение # 1548 | 20:55:10
Цитата Miss_Esq ()
kvv5605, Где это вам такое сообщили ???

Это мне гугл выдал после моего запроса.
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 1549 | 21:00:16
kvv5605 это все потому что сайт попал в поиск, когда был ещё на карантине. через время ошибка уйдет. сейчас у вас карантина нет.

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
kvv5605
Сообщений: 4
Репутация: 0

Сообщение # 1550 | 21:12:28
Огромное спасибо за помощь!
maksat04
Сообщений: 2
Репутация: 0

Сообщение # 1551 | 23:21:32
webanet, а что результаты поисков в индексе плохо повлияют?
Miss_Esq
Сообщений: 13859
Репутация: 4159
Уровень замечаний:

Сообщение # 1552 | 01:02:06
maksat04, не то что плохо а гораздо хуже ...

maksat04
Сообщений: 2
Репутация: 0

Сообщение # 1553 | 20:30:48
А спасибо
BOSSuy
Сообщений: 14
Репутация: 67

Сообщение # 1554 | 23:22:06
Вечора доброго. Вот и переехал мой сайтег на домен второго уровня - megahit-online.ru. С автоматической перенаправленностю со старого адреса на новый. Читал вот где то на форуме, что в такой связи ничего не требуется предпринимать в плане изменения robots.txt, все как бы предусмотрено, но спросить не постесняюсь. Может, блокирование в индекс всей предыдущей версии? Только а как добраться к robots.txt? А то как просмотреть то знаю, а добраться неть... Не наблюдаю я в файловом менеджере такой папки, как robots.txt... Благодарю за многочисленные ответы. smile

Miss_Esq
Сообщений: 13859
Репутация: 4159
Уровень замечаний:

Сообщение # 1555 | 23:31:32
BOSSuy, megahit-online.ru/robots.txt - системный сайта с доменом, нужен robots.txt в ФМ, создайте и залейте в ФМ ...

Alex7862
Сообщений: 1
Репутация: 0

Сообщение # 1556 | 16:20:09
Помогите, пжл, решить проблему с дублями страниц. Сайт относительно новый, а гугл мне уже нашел 70 страниц с повторяющимися загаловками.
Показывает страницы, которые должны быть и дубль к ней с приставкой -987
напрмер:
/news/susalnoe_zoloto_simony_rocha_makijazh_ili_maska/2014-02-22-29-987
/news/susalnoe_zoloto_simony_rocha_makijazh_ili_maska/2014-02-22-29

Одна и та же страница, но от куда взялось это 987 мне непонятно. В результате в яндексе норм работает. А гугл держит в песочнице.. Нашел одну тему, закрыл в роботсе Disallow: /*-$. Но я не уверен, что это поможет. Как запретить именно страницы с окончанием -987 ? Disallow: /*-987$ так будет правильно?
kolos2000
Репутация: 0

Сообщение # 1557 | 22:21:31
нужно ли в роботе скрывать файлы сапе?
0RJ0
Сообщений: 208
Репутация: 68

Сообщение # 1558 | 22:34:02
kolos2000, если на сайте Sape говорится, что какие-то файлы нужно скрывать от индексации — то да. А так это делать незачем, поскольку этот сервис нацелен на то, чтобы эти самые ссылки проиндексировали.
OligerMan
Репутация: 0

Сообщение # 1559 | 09:50:58
У меня странности с карантином - 30 дней прошло, а robots.txt всё тот же. В чём причина ?
Miss_Esq
Сообщений: 13859
Репутация: 4159
Уровень замечаний:

Сообщение # 1560 | 10:14:01
OligerMan, Подождите ещё сутки ...

Сообщество uCoz » Вебмастеру » Раскрутка сайта » Robots.txt (индексация сайта)
Поиск: