Модератор форума: Yuri_G |
Сообщество uCoz Вебмастеру Раскрутка сайта Robots.txt (индексация сайта) |
Robots.txt |
Нажмите на ссылку, чтобы перейти к ответу
Сообщение отредактировал webanet - Вторник, 27 Мар 2018, 20:08:42
|
Проект-Строй, что значит сменить имя страницы? дайте адрес любой страницы, которая у вас не индексировалась
Ника9646, робот читает файл роботтекст полностью. и если он возьмет карту сайта и прочитает её, то получит ошибку. но если не мешает, то пусть не мешает дальше, но по логике зачем держать прописанную карту несуществующего модуля? |
webanet, посмотри пожалуйста ничего не напутал?
Еще как я понимаю можно и даже нужно запретить к индексированию Страницу регистрации, Профили пользователей, RSS, что ещё можно закрыть не нужного,? подскажите пожалуйста, и нарисуйте если не трудно ![]() Quote Disallow:Правило добавление новостей (я без понятия где оно у вас находится) В модуле Вопрос Ответ находиться правило добавления новостей |
Мне нужно закрыть от индексации одну страницу, на ней ссылки на каталоги и сайты, вообщем мусор.
Я сделал страницу http://remontdoma.3dn.ru/index/druzja_saita , но залазить в robots.txt я не хочу, я изменил название страницы на http://remontdoma.3dn.ru/index/1/0-6 У меня в стандартном robots.txt , в прочем как у всех, Disallow: /index/1 Правильно ли я понимаю что все страницы начинающиеся с 1 не будут индексироваться и моя страница с ссылками тоже? |
|
Подскажите как правильно на uCoz запретить в robots.txt индексирование всех страниц пагинации? ...мудрил, мудрил, и ничего не получилось...
Добавлено (15-Мар-2012, 23:09:18) --------------------------------------------- Специалисты и знатоки по uCoz подскажите пожалуйста то что я спросил... очень надо... Сообщение отредактировал Djinn - Четверг, 15 Мар 2012, 23:09:42
|
Наконец-то дождался индексации своего сайта, но что-то гугл перестарался. Очень много проиндексировал страниц, которые повторяются. Это касается в первую очередь новостей. Гугл их индексировал по каждой дате, по каждой категории и ещё бог знает какие способы нашёл как их продублировать.
Это нужно вообще в поиске всё? Подозреваю, что если дубликаты убрать, то вес других страниц повысится. Это так? И во-вторых, как их все пачкой в роботсе закрыть? |
Quote всех страниц пагинации ![]() |
Quote (Miss_Esq) интересно как это вы себе представляете А вот так - в Dle, например запрещается таким путем: Code Disallow: /page/ Disallow: */page/* А как на uCoz сделать незнаю... Сообщение отредактировал Djinn - Пятница, 16 Мар 2012, 23:35:24
|
Djinn,
Quote А как на uCoz сделать незнаю Quote страниц пагинации |
Quote (Miss_Esq) точнее каких именно .. Например /news/2, /news/3, /news/4, /news/203 ..... /publ/0-2, /publ/0-3, /publ/0-10 и т.д.... Quote (Miss_Esq) Синтаксис robots.txt везде одинаковый Это я знаю и понимаю... но вывод адреса пагинации на юкоз оличается от dle... Сообщение отредактировал Djinn - Суббота, 17 Мар 2012, 20:56:10
|
Djinn,
Disallow: /news/2 Disallow: /news/3 Disallow: /news/4 Disallow: /publ/0-2 Disallow: /publ/0-3 Disallow: /publ/0-10 |
Quote (Miss_Esq) Disallow: /news/2 Disallow: /news/3 Disallow: /news/4 Disallow: /publ/0-2 Disallow: /publ/0-3 Disallow: /publ/0-10 Вы серьезно? Посмотриите на это Это из инструментов для вебмастера в google... Это к тому, что сам урл новости может начинаться с каких либо цифр от 1 до 9... как тогда быть??? Сообщение отредактировал webanet - Воскресенье, 18 Мар 2012, 02:26:32
|
| |||
Будьте в курсе всех обновлений: подпишитесь на наш официальный Telegram-канал uCoz и задавайте вопросы в чате сообщества!