Модератор форума: Yuri_G  
Robots.txt
Модератор форума
Сообщение # 1 | 16:57:58
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 241 | 02:27:43
Djinn, оставьте свою идею. не надо запрещать пагинацию в роботе

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
Djinn
Сообщений: 43
Репутация: 9

Сообщение # 242 | 03:12:19
На этих страницах дублируется метаописание...
Сообщение отредактировал Djinn - Воскресенье, 18 Мар 2012, 03:13:10
Miss_Esq
Сообщений: 13859
Репутация: 4159
Уровень замечаний:

Сообщение # 243 | 09:03:56
Djinn,
Quote
Вы серьезно?
А то , каков вопрос таков и ответ ...
Quote
Посмотриите на это

Quote
как тогда быть


Disallow: /news/2*
Disallow: /news/3*
Disallow: /news/4*

robots.txt и т п и т д

Сообщение отредактировал Miss_Esq - Воскресенье, 18 Мар 2012, 09:05:27
Djinn
Сообщений: 43
Репутация: 9

Сообщение # 244 | 21:27:31
Quote (Miss_Esq)
Disallow: /news/2*
Disallow: /news/3*
Disallow: /news/4*

robots.txt и т п и т д

Да я знаю все это... и я пробовал такой вариант еще до того как задал вопрос тут...

Юкоз устроен так, что адрес раздела - новости и адрес самих новостей в начале одинаков... я про - /news/ ...
И как я уже писал, сам урл новости может начинаться с каких либо цифр от 1 до 9... например /news/211_photoshop_top_secret/2012-03-18-3104...тогда это будет ошибкой...
Вы либо не поняли вопрос, либо даже не вникаете в его суть.
Сообщение отредактировал Djinn - Воскресенье, 18 Мар 2012, 21:31:49
Маш-Маша
Репутация: 0

Сообщение # 245 | 00:11:40
Подскажите, а как с помощью robots.txt закрыть дубли страниц? Например, некоторые страницы у меня есть в трех вариантах -

/publ/dom/dosug/organizacija_sovmestnogo_dosuga/15-1-0-100,
/publ/dosug/organizacija_sovmestnogo_dosuga/15-1-0-100 и
/publ/15-1-0-100.

Как оставить только одну из них, удалив при этом другие? В смысле, как сделать это правильно?

Оформление подписи нарушает правила форума Сообщества uCoz. Подробнее. / webanet.
DriftUCOZ
Сообщений: 113
Репутация: 18

Сообщение # 246 | 03:09:57
Quote (Маш-Маша)
Подскажите, а как с помощью robots.txt закрыть дубли страниц? Например, некоторые страницы у меня есть в трех вариантах - /publ/dom/dosug/organizacija_sovmestnogo_dosuga/15-1-0-100, /publ/dosug/organizacija_sovmestnogo_dosuga/15-1-0-100 и /publ/15-1-0-100. Как оставить только одну из них, удалив при этом другие? В смысле, как сделать это правильно?


А у Вас в яндекс-вэбмастере есть все эти дубли? Мне кажется там срабатывает редирект на нужную страницу и делать ничего не надо, т.к страница всегда будет нужная и это будет /publ/dom/dosug/organizacija_sovmestnogo_dosuga/15-1-0-100

Может Я ошибаюсь.

Интернет магазин модной женской, мужской и подростковой одежды. http://bestshop-sp.ru
Маш-Маша
Репутация: 0

Сообщение # 247 | 12:34:19
В яндексе не видела, а вот в гугл-вебмастере эти дубли указаны и гугл настоятельно рекомендует от них избавиться. Может, из-за этого и много страниц у него в "соплях". Так что, на мой взгляд, с ними что-то надо делать, только что?

Оформление подписи нарушает правила форума Сообщества uCoz. Подробнее. / webanet.
gaudeamus
Сообщений: 259
Репутация: 7
Уровень замечаний:

Сообщение # 248 | 08:14:19
По своим последним проектам заметил одну особенность: если в процессе разработки (*.ucoz.ru) заплатишь за удаление РБ, то при прикреплении домена сайт буквально на следующий день успешно появляется в индексе после размещения в Яндекс.Вебмастер. Но если первую оплату сделаешь уже после прикрепления домена, то увы, - конкретные проблемы с индексированием в Яндексе, несмотря на все усилия.

И, на мой взгляд, данную тему неплохо бы начать словами: Если файла robots.txt как такового нет, то индексирование по умолчанию происходит по всем страницам сайта. Фактически же в данном случае файл robots.txt используется (уже в непосредственной работе сайта) для запрещения индексирования страниц, индексирование которых либо нецелесообразно (например, информеры), либо должно быть закрыто по соответствующим требованиям (напр., если это персональные данные в профайлах).
Сообщение отредактировал gaudeamus - Пятница, 23 Мар 2012, 08:17:49
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 249 | 15:51:28
gaudeamus, прикрепление домена никак не влияет на снятие карантина (блокировки индексации через роботтекст). снятие рекламы или оплата любой другой услуги или пакета услуг, стоимостью более 2$ снимает запрет индексации автоматически
в шапке этой темы есть инструкции по этому поводу 17. Карантин и прикрепление домена
можно было бы просто прочитать инструкцию, чтобы не совершать открытий

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
Кинолог
Сообщений: 32
Репутация: 2

Сообщение # 250 | 14:46:59
Скажите пожалуйста, не помешают эти две верхние строчки для работы robot.txt

User-agent: Mediapartners-Google
Disallow:

User-agent: *
Disallow: /a/
Disallow: /stat/
Disallow: /index/1
Disallow: /index/2
Disallow: /index/3
Disallow: /index/5
Disallow: /index/7
Disallow: /index/8
Disallow: /index/9
Disallow: /panel/
Disallow: /admin/
Disallow: /secure/
Disallow: /informer/
Disallow: /mchat
Disallow: /search
Disallow: /shop/order/

Host: dogsib.ru

Sitemap: http://dogsib.ru/sitemap.xml
Sitemap: http://dogsib.ru/sitemap-forum.xml
Sitemap: http://dogsib.ru/sitemap-shop.xml

http://dogsib.ru
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 251 | 16:28:18
Кинолог, нет не помешают. к Mediapartners-Google можно обращаться отдельно. можно оставить ему полную индексацию. но зачем тех.страницы такие как
/panel/ /secure/ /stat/ /admin/ и особенно /search и другие?

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
Кинолог
Сообщений: 32
Репутация: 2

Сообщение # 252 | 22:03:02
Quote (webanet)
но зачем тех.страницы такие как
/panel/ /secure/ /stat/ /admin/ и особенно /search и другие?

Куда тогда надо вставить этот код
User-agent: Mediapartners-Google
Disallow:
перед
Host: dogsib.ru
или после

http://dogsib.ru
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 253 | 22:29:54
Кинолог, вопрос стоит не куда надо, а стоит в том, что надо ли вообще давать этому роботу отдельно разрешение на индексацию всего, включая и технические страницы и остальное не нужное?
от того, что вы переместите вниз указания для этого робота ничего не изменится

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
Онгар
Сообщений: 32
Репутация: 133

Сообщение # 254 | 00:57:17
Quote (Маш-Маша)
Подскажите, а как с помощью robots.txt закрыть дубли страниц? Например, некоторые страницы у меня есть в трех вариантах - /publ/dom/dosug/organizacija_sovmestnogo_dosuga/15-1-0-100, /publ/dosug/organizacija_sovmestnogo_dosuga/15-1-0-100 и /publ/15-1-0-100. Как оставить только одну из них, удалив при этом другие? В смысле, как сделать это правильно?

Quote (DriftUCOZ)
А у Вас в яндекс-вэбмастере есть все эти дубли? Мне кажется там срабатывает редирект на нужную страницу и делать ничего не надо, т.к страница всегда будет нужная и это будет /publ/dom/dosug/organizacija_sovmestnogo_dosuga/15-1-0-100 Может Я ошибаюсь.

Quote (Маш-Маша)
В яндексе не видела, а вот в гугл-вебмастере эти дубли указаны и гугл настоятельно рекомендует от них избавиться. Может, из-за этого и много страниц у него в "соплях". Так что, на мой взгляд, с ними что-то надо делать, только что?


Кстати, весьма спорный вопрос между прочим... Я о дублях... Вот у меня тоже - каталог файлов в котором я ставлю галочки в нескольких категориях... Получаеться же, что я делаю дубли, верно? ) Ну, а если Яша научился выделять и отбирать основной урл, то Гугл говорит, что то? smile И вообще - у кого, какой есть опыт, именно - опыт, в данном случае?... Есть ли официальная инфа о том, что по этому поводу сказали и Яша и Гугл? )))

Напрасно обучение без мысли, опасна мысль без обучения. © Китайская поговорка
Сообщение отредактировал Онгар - Воскресенье, 25 Мар 2012, 00:59:01
Кинолог
Сообщений: 32
Репутация: 2

Сообщение # 255 | 05:23:26
Quote (webanet)
Кинолог, вопрос стоит не куда надо, а стоит в том, что надо ли вообще давать этому роботу отдельно разрешение на индексацию всего, включая и технические страницы и остальное не нужное?
от того, что вы переместите вниз указания для этого робота ничего не изменится

Спасибо за ответ! Все понял.

http://dogsib.ru
Поиск:
Telegram
Будьте в курсе всех обновлений: подпишитесь на наш официальный Telegram-канал uCoz и задавайте вопросы в чате сообщества!