Архив - только для чтения | |
Модератор форума: Shеriff |
Сообщество uCoz » Архивариус » Переезд с Narod.Ru » Sitemap.xml (почему в индексе для роботов только динамика?) |
Sitemap.xml |
|
webanet, хорошо, спасибо. Значит, копировать буду на вашу Главную. Пойду сейчас экспериментировать.)))
Добавлено (21 Апр 2013, 16:10:38) |
k-smolka,
Цитата А скажите, пожалуйста, чем линк лучше явского скрипта? зачем вы дали на главной текст, картинки и ссылки? для кого, если пользователей будет швырять на заставку? для роботов этого делать не надо они это не оценят, а если оценят, то как подлог для роботов одно, а пользователей выкидываем у вас получилась нормальная главная зачем это швыряние на третьесортную страницу без текстов с непонятными картинками без нормального пояснения куда кто попал и зачем. и с надписью 18+? от надписи 18+ у меня скалываются пошлые ассоциации с порно или хотя бы с эротикой карты сайта можно прописать в роботс и так Цитата Цитата При наличии файла индекса Sitemap можно включить местоположение только этого файла. Перечислять каждый отдельный файл Sitemap, указанный в файле индекса, не нужно. Цитата И ещё. Правильно ли я понимаю, что все добавления, изменения на динамических модулях отражаются в системной карте автоматом (ну, понятно, что с некоторой задержкой), а значит мне тут ничего специально изобретать не нужно? Цитата А если буду изменять, добавлять материал в структуре "народной" статики, следует периодически заглядывать в он-лайн генератор карт и заказывать себе новую? |
Что-то гугл тупит с сайтмапом.
Был скормлен ему файл индекса сайтмап, в который входят три сайтмапа: сгенерированный системой sitemap.xml, также сгенерированный системой sitemap-forum.xml и сайтмап статики sitemap1.xml Файл индекса он прочитал, все три сайтмапа добавлены в панель вебмастера, но: стандартное название sitemap.xml он скушал мгновенно, остальные два жуёт уже неделю, всё ещё статус "в ожидании". В сайтмапах ошибок нет (это отмечено в панели вебмастера), да ещё свой я по привычке прогоняю через валидатор сайтмапов. У кого через сколько обработались в гугле дополнительные сайтмапы? С яндексом проблем нет, но только потому, что у меня всегда был отдельный сайтмап для него с другим названием, и яндексу из-за этого чихать на все изменения, которые сейчас происходят. |
MaDrive,
Цитата У кого через сколько обработались в гугле дополнительные сайтмапы? В итоге я нашла в Вебмастерской Гугла функцию для добавления урл вручную и вчера руками сама вбивала нужное. Это здесь: Инструменты для вебмастеров - Состояние - Просмотреть как Гуглбот. Поисковик считывает урл, пишет "успешно", потом появляется кнопка и можно отправить запрос на индексирование. Я так и сделала.))) Муторно, но, по-моему, толк есть. Теперь там, где мои сайтмапы, гугл пишет, что уже 200 страниц проиндексировано: 19 юкозовских, остальные мои статичные нтмл. Наконец-то те и другие стали появляться в выдаче - вперемешку и ещё паршивенько - на 2-3-4 строчке, но хоть какой-то результат.))) Только вот я сделала большую глупость при переезде - по неопытности переименовала при обновлении сайта часть страниц, теперь и "новое" с изменённым адресом с трудом ищется, а их несуществующий кэш так и торчит что в Гугле, что в Яндексе.((( Сейчас уже знаю, что нельзя так делать, но поздно! В Яндексе я быстро нашла, где запрос на удаление старого послать, а с гуглом побоялась экспериментировать, так как-то сложнее всё устроено - вдруг только хуже сделаю? Так что просто жду теперь. У меня Яндекс тупит - там системная карта 10 апреля обработалась (4 странички, они тогда пустые практически были!), а моя - с 18 апреля "в ожидании". Да ещё в кэше старые копии застряли. webanet, с картами я всё поняла, спасибо за ответ. Кстати, системная вчера уже обновилась, я проверила. И в роботсе у меня как раз все нужные сайтмапы прописаны.:) Но я теперь думаю, что лучше (и правильнее) было бы в роботсе только один файл индекса прописать, да и всё. Хотя, конечно, не факт. И я все карты в Вебмастерские тоже руками вбивала - и сайтмапы, и их индекс. А можно было б, похоже, только один индекс.)) Цитата речь идет о специальном файле в котором прописаны все ваши карты. я у вас данного файла не наблюдаю Цитата зачем вы дали на главной текст, картинки и ссылки? для кого, если пользователей будет швырять на заставку? А заставку я пока не могу убрать - хозяйка сайта (моя подруга, для которой я с сайтом и вожусь, потому что сама она не умеет вообще ничего, а я хоть чему-то успела научиться, пусть и чрезвычайно мало пока знаю) хочет, чтобы она была. Значит, будет. Спасиб ещё раз за ответы! А в роботсе, имхо, пусть будут карты - поисковики же всё время обходят сайты и меняют свою информацию, хотя и не слишком быстро. |
k-smolka,
Цитата А можно было б, похоже, только один индекс.)) и если руками вбили в вебмастера то и там индекс не очень нужен. в гугле можно удалить карту сайта и добавить снова. у него примерно столько же времени уйдет на обработку |
Уже не один раз кто-то писал, что для переехавших созданы беспрецедентные послабления. Возможно. Хотя у многих проблем пока больше, чем преимуществ. Но ближе к теме. К теме sitemap. Манипуляции системы с ними очень хорошо отражаются на поведении поисковых систем. Мои сайты после переезда стали намного реже посещаться поисковым роботом Гугла. На одном сайте он в последний раз был 10 апреля, хотя до этого заходил чаще. При этом сайты, перенесенные мной с Народа на платный хостинг и обновляемые с такой же частотой, посещаются регулярнее. Один из этих сайтов - поддомен на моем домене, то есть в равном положении со здешними сайтами. Я вынужден удалить из панелей для веб-мастеров sitemap.xml и создать sitemap1.xml. Меня несколько шокирует такая, можно сказать, отеческая забота о продвижении укозовских сайтов со стороны самого Укоза. Ну не озабочен создатель сайта продвижением сайта в сети, ну достаточно сайту аудитории школы, для которой он создан - и зачем ему навязывать автоматически генерируемый sitemap? Кому особо надо продвигать свои веб-творения в инет, и сами в состоянии сгенерить sitemap.
|
imja, что мешает не прописывать данный SiteMap в robots.txt и запретить его к индексации там же?
Благодарности можно оставить — в репутации.
Помощью в ЛС не занимаюсь, есть форум. Занимаюсь сайтами на платной основе. Шаманю на php и mysql с использованием бубна 80 lvl. |
Да вот придется лишние пальцедвижения делать.
Добавлено (25 Апр 2013, 18:34:59) |
imja, а SiteMap никогда и не был обязательным, это лишь дополнение для SEO составляющей сайта которая помогает роботам быстрее находить новые страницы на сайте.
Благодарности можно оставить — в репутации.
Помощью в ЛС не занимаюсь, есть форум. Занимаюсь сайтами на платной основе. Шаманю на php и mysql с использованием бубна 80 lvl. |
Цитата (MaDrive) 22 Апр 2013 Что-то гугл тупит с сайтмапом. Был скормлен ему файл индекса сайтмап, в который входят три сайтмапа: сгенерированный системой sitemap.xml, также сгенерированный системой sitemap-forum.xml и сайтмап статики sitemap1.xml Файл индекса он прочитал, все три сайтмапа добавлены в панель вебмастера, но: стандартное название sitemap.xml он скушал мгновенно,остальные два жуёт уже неделю, всё ещё статус "в ожидании". В сайтмапах ошибок нет (это отмечено в панели вебмастера), да ещё свой я по привычке прогоняю через валидатор сайтмапов. У кого через сколько обработались в гугле дополнительные сайтмапы? Сам спросил, сам и отвечаю: Этот файл Файл индекса Sitemap был отправлен 21 апр. 2013 г. /sitemap-forum.xml Sitemap Обработан 13 мая 2013 г. то есть со дня добавления и до обработки прошло 22 дня, что очень нетипично для гугла. Интересно, через какое время он последний сайтмап скушает. Добавлено (17 Май 2013, 19:48:14) Цитата (MaDrive) Интересно, через какое время он последний сайтмап скушает. Так и не хочет он его считывать, хотя пишет, что ошибок нет, зато новый сайт, который клею к домену второго уровня, скушал всего за 5 дней. Цитата Этот файл Sitemap был отправлен 12 мая 2013 г. и обработан 17 мая 2013 г.. Может он все сайтмапы с отличным от sitemap.xml названием столько времени обрабатывает? Есть у кого проблемы сайтмапов с нестандартным названием? |
Проблема решена. С уважением
Сообщение отредактировал maloir - Пятница, 24 Май 2013, 00:52:51
|
Цитата (Vladneo) Что прописать в таком случае в robots.txt ??? <…> sitemap_index.xml либо <…> sitemap1.xml Можно делать и так, и эдак — оба варианта допустимы, но… В подзаголовке „Как указать местоположение файла Sitemap в файле robots.txt” раздела „Уведомления для сканеров поисковых систем” статьи „Протокол: XML-формат файла Sitemap” конторы „SiteMaps.Org” авторитетно заявлено: „При наличии файла индекса Sitemap можно включить местоположение только этого файла. Перечислять каждый отдельный файл Sitemap, указанный в файле индекса, не нужно.” Здесь под одиноким словом „включить” имеется в виду „включить в файл „robots.txt””. Я так и поступил. Вот мой „robots.txt”: User-agent: * Sitemap: http://ИмяСайта.narod.ru/sitemap_index.xml Добавлено (28 Май 2013, 17:37:31) Цитата (prommaterials) То есть ОНО и роботсы заменяет на стандартные?? Хоть „robots.txt” у нас пока не забрали, но своих клиентов юкозовцы огородили красными флажками тесно. Притом не потому, что это необходимо, а просто исходя из некоей своей прихоти. Нравится им роль виртуальных божков, похоже. |
Паэл, системный robots.txt СЕО-оптимизирован именно под нашу систему. Там нет ни одной директивы взятой с потолка. И подставляется он автоматически из тех соображений, что абсолютное большинство пользователей не разбирается как его правильно написать. Однако, для любителей всё делать своими руками оставлена возможность закачать свой robots.txt Так что вы абсолютно свободны в своём выборе. Есть знания - лепите свой. нет знаний - используете сделанный профессионалами.
Отправляя сообщение о помощи, приводите ссылку на свой сайт. Это не считается рекламой, зато снимает массу вопросов.
|
Цитата (Selena) абсолютное большинство пользователей не разбирается как его правильно написать. Хотя... нижеследующая тирада, скорее всего, не к Вам. Просто думается, что с одной стороны наличие автоматически подставляемого роботса - да - позволяет немного улучшить позиции конкретного сайта в выдаче и тем самым вроде бы двигает вверх и Юкоз в целом. С другой же стороны, пока пользователи Юкоза будут находиться на том образовательном уровне, что они не в состоянии написать ручками такую элементарнейшую вещь, как роботс - остаётся крайне низким общий уровень...гм... сознания таких пользователей и, как следствие, уровень доверия и отношения опять же к Юкозу в целом. На Народе часто размещались г-но/сайты, да. НО(!) не потому, что их владельцы были г-но/пользователями, а с целью раскрутки и продвижения основных сайтов. А что мы имеем на Юкозе? Есть приличные сайты, но есть и очень много действительно стандартного г-на, склёпанного по принципу "у меня есть свой собственный сайт и я этим безумно горжусь". Вот Вы же примерно представляете себе эмоциональность и одновременную краткость ответа на вопрос, заданные более-менее продвинутым в интернете людям об их мнении о Юкозе как таковом? ...Вот такая вот дилемма... И с этим, наверное, уже пора что-то делать, раз мы тут все теперь повязаны общей цепью... Поэтому мне кажется, что позиция Яндекса и Народа (как подразделения Яндекса) была в этом плане весьма поучительной: нужно поднимать уровень своих пользователей, если они того хотят. Как следствие этого - поднятие так сказать авторитета хостера, в данном случае Юкоза. Запутанно, наверное, сказал, но СМЫСЛ моего посыла ведь понятен? Есть такая притча про то, как накормить голодного, помните? Есть варианты дать ему рыбки, а есть вариант - удочку. Наверное, более умно дать удочку, не так ли? То есть научить хотя бы писать свой роботс вместо автоматической подстановки стандартного. Свобода слова допустима на страницах сайтов, посвящённых свободе слова. ©Miss_Esq
употребление -тся и -ться в глаголах |
| |||