Модератор форума: Yuri_G  
Robots.txt
Модератор форума
Сообщение # 1 | 16:57:58
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 676 | 20:38:45
Andry9811, где адрес сайта

Владимир_Лунев, я вам дам инструкцию по замене, но только после того как вы объясните зачем вы собрались менять содержимое файла и что будете менять

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
Владимир_Лунев
Сообщений: 48
Репутация: 22

Сообщение # 677 | 20:54:59
Quote
Владимир_Лунев, я вам дам инструкцию по замене, но только после того как вы объясните зачем вы собрались менять содержимое файла и что будете менять
Я хочу перевести сайт на домен второго уровня, и читал что в robots.txt нужно прописать хост

Andry9811
Репутация: 0

Сообщение # 678 | 21:24:47
webanet

Quote
Andry9811, где адрес сайта
http://vceoremonte.ucoz.ru/
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 679 | 21:26:59
Andry9811, http://vceoremonte.ucoz.ru/robots.txt сайт на карантине. подробнее //forum.ucoz.ru/forum/21-38597-1

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 680 | 21:38:08
Владимир_Лунев, создаете на компьютере текстовый документ, даете ему название robots.txt (название вместе с расширением), копируете стандартный робост и вставляете в текстовый документ

User-agent: *
Disallow: /a/
Disallow: /stat/
Disallow: /index/1
Disallow: /index/2
Disallow: /index/3
Disallow: /index/5
Disallow: /index/7
Disallow: /index/8
Disallow: /index/9
Disallow: /panel/
Disallow: /admin/
Disallow: /secure/
Disallow: /informer/
Disallow: /mchat
Disallow: /search

Host: адрес сайта без http://

Sitemap: http://вашсайт/sitemap.xml
Sitemap: http://вашсайт/sitemap-forum.xml
Sitemap: http://вашсайт/sitemap-shop.xml

далее заливаете готовый файл в файловый менеджер и он заменит системный

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
Andry9811
Репутация: 0

Сообщение # 681 | 21:41:51
webanet

Quote
Andry9811, http://vceoremonte.ucoz.ru/robots.txt сайт на карантине. подробнее //forum.ucoz.ru/forum/21-38597-1
карантин давно уже снят,18.08.2012
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 682 | 21:50:17
Andry9811, теперь снят. тем не менее вы пытались добавить сайт на карантине в поисковик. вот и получаете ошибки. добавьте снова и ждите минимум две недели

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
Владимир_Лунев
Сообщений: 48
Репутация: 22

Сообщение # 683 | 21:51:15
Quote
webanet
Большое спасибо за помощь))

Andry9811
Репутация: 0

Сообщение # 684 | 22:02:44
webanet

Quote
Andry9811, теперь снят. тем не менее вы пытались добавить сайт на карантине в поисковик. вот и получаете ошибки. добавьте снова и ждите минимум две недели
Спасибо огромное
kuselev
Сообщений: 8
Репутация: 2

Сообщение # 685 | 01:51:47
может кто то скажет что обазночает

повторюсь


Quote
Disallow: /?ssid= <---------------------(что это????) гугл тратит на него время а там постоянно ошибка 404 

Quote
из за этого очень сильно испортилась выдача гугла упало минул почти 2 тыс чел из них осталися только яндекс

Сообщение отредактировал kuselev - Воскресенье, 18 Ноя 2012, 01:53:54
eservise08
Сообщений: 16
Репутация: 13

Сообщение # 686 | 13:44:01
kuselev, у меня аналогичная строчка в роботс, по моим наблюдениям я не заметил ее влияение на выдачу.
гуглотраф у вас рухнул в июле (по данным ливинтернет), это панда уважаемый, на вас наложен фильтр
amv32
Сообщений: 47
Репутация: 8

Сообщение # 687 | 22:25:07
Всем доброго времени суток!

Столкнулся с такой проблемой:

По умолчанию страница товара в модуле инет-магазина состоит из 4 как-бы подстраниц (не знаю как это правильно называется): desc, spec, imgs и comm.

Я переделал все это дело на одну страницу, без всяких вкладок (пример), в результате эта страница теперь доступна по 4 ссылкам:
.../desc/hero-h2000-mt6577-android-4-0
.../spec/hero-h2000-mt6577-android-4-0
.../imgs/hero-h2000-mt6577-android-4-0
.../comm/hero-h2000-mt6577-android-4-0

Т.е. получаются дубли страниц, а у меня есть такое нехорошее предчувствие, что уважаемому Яндексу это жуть как не понравится.

Отсюда вопрос, как и что правильно прописать в роботс.тхт, что бы для индексации были доступны только страницы .../desc/... , а .../spec/... .../imgs/... и .../comm/... роботы не индексировали?

Заранее всем спасибо за ответы!

MediaTek-Club.Ru - Все о чипсетах MediaTek и не только
kuselev
Сообщений: 8
Репутация: 2

Сообщение # 688 | 23:30:50
вот что пишет гугл веб мастер
и таких ошибок 6500 !
Приоритет URL Код ответа Обнаружено157
?ssid=22013534473572722615040415.11.12270
?ssid=21363406652172111744440415.11.12353
?ssid=17510273360065477056540415.11.12699
?ssi d=73107261422615275712140415.11.12740
?ssid=67224667402500040661340415.11.12885
?ssid=15615034136617456632240415.11.12941
?ssid=361120211605000 20576140415.11.124
load/smotretfilmonlinenew/uzhasy/smotret_quot_pirani_3dd_quot_onlajn_2012/49-1-0-53540415.11.12266
?ssid=07771740570313134141040414.11.12415
?ssid=53241610673242522101040414.11.12461
?ssid=22256352255026150304440414.1 1.12609
?ssid=54653644755203657644540414.11.12665
?ssid=42776040557033677623440414.11.12
Сообщение отредактировал kuselev - Воскресенье, 18 Ноя 2012, 23:33:01
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 689 | 23:37:58
kuselev, если можно, отметьте их как исправленные, а в роботс добавьте строчку
Disallow: /*?

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
kuselev
Сообщений: 8
Репутация: 2

Сообщение # 690 | 01:51:02
webanet, дело в том что я думал что это какой то кривой роботс.тхт и я удалил его по идее стар родной юкозовский там это возможно или нужно создать новый с этими параметрами ??? сори за мои едиотизм . буду очень благодарен за помощь .
Поиск:
Telegram
Будьте в курсе всех обновлений: подпишитесь на наш официальный Telegram-канал uCoz и задавайте вопросы в чате сообщества!