• Страница 1 из 2
  • 1
  • 2
  • »
Модератор форума: dotbot  
Сообщество uCoz » Архивариус » Корзина » Дубли страниц сайта в гугле
Дубли страниц сайта в гугле
meyson1770
Сообщений: 44
Репутация: 0

Сообщение # 1 | 16:08:14
Здравствуйте, пользователи форума. У меня в гугле стали появлятся дубли страниц. Например:
anime-tut.ru/load/manga/manga_onlajn/znakomstvo_so_zlom_hajimete_no_aku/23-1-0-21 (это первый вариант странички в гугле)
и
anime-tut.ru/load/23-1-0-21 (это та же страница только с укороченным адресом без чпу)
И как мне быть в такой ситуации? И как мне сделать в роботсе чтобы выдавалить в выдачу гугла только url с ЧПУ? Очень прошу вашей помощи. Иначе из-за таких багов в системе придется уходить с uCoz и идти на другие движки.
Сообщение отредактировал meyson1770 - Суббота, 21 Апр 2012, 16:09:01
true3071
Сообщений: 435
Репутация: 71
Уровень замечаний:

Сообщение # 2 | 17:17:26
понизь ведь рейтинг ненужных страниц

тема обсуждалась
meyson1770
Сообщений: 44
Репутация: 0

Сообщение # 3 | 17:56:52
true3071, мне каждую ссылочку вручную понижать? Особенно когда на сайте более 1000 страниц? Это уж баги uCoz пусть исправляют. Мне мое время дороже.

Добавлено (21-Апр-2012, 17:56:52)
---------------------------------------------
true3071, и дайте пожалуйста тему, где это уже обсуждалось. Просто uCoz в посл. время и так не блещет ничем, а тут еще такие баги появились.

true3071
Сообщений: 435
Репутация: 71
Уровень замечаний:

Сообщение # 4 | 18:19:34
это действительно из-за работы динамического модуля //forum.ucoz.ru/forum/31-39550-1
meyson1770
Сообщений: 44
Репутация: 0

Сообщение # 5 | 18:55:57
true3071, и когда исправят такие проблемы? Ведь на других старых моих сайтах таких проблем нету. А тут решил сделать сайтик, а тут такие проблемы с дублями. В индексе висит и дубль и оригинал. Мне такое уж точно не надо. Или uCoz исправляет эту проблему в течении месяца или я перенесу сайт на dle или другие популярные движки. И ваш новый способ добавки нового материала в разные категории тоже тупой до ужаса. Ведь идет сразу множество дублей...

Добавлено (21-Апр-2012, 18:55:57)
---------------------------------------------
За эти 2 года uCoz кроме увеличения кол-во рекламы, походу вообще об улучшениях своего проекта не думает. А другие движки только улучаются и улучшаются. Вы уж подумайте над нормальными нововведениями. Например тот же wotmark со своей картинкой месте простого добавления адрреса сайта. То это пока на php только реализовано и то криво.

true3071
Сообщений: 435
Репутация: 71
Уровень замечаний:

Сообщение # 6 | 21:16:05
Quote (meyson1770)
и когда исправят такие проблемы?


специфика движка уже не оправдывает себя

все меньще людей используют его для профессиональных целей

а как то окупаться нужно

это идеальный учебный движок

Добавлено (21-Апр-2012, 20:16:30)
---------------------------------------------
я не торгаш-в хорошем смысле
не знаю как без вложений получить реальную прибыль
поэтому и торчу здесь

у меня вообще цель учебная была

я на этот то форум пришел через год после открытия сайта

и скоро уйду

Добавлено (21-Апр-2012, 21:16:05)
---------------------------------------------
не обратил внимание что реклама спецом гоняется изготовленная малолетками и граничащая с идиотизмом?

такую рекламу невозможно не отключить норм человеку

чтобы мозг не вскипел

человек и так оплатит за хост снятием рекламы
но такой рекламный изврат это неуважение к себе хостером
Сообщение отредактировал true3071 - Суббота, 21 Апр 2012, 21:16:21
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 7 | 00:24:08
meyson1770, скажите, что нужно исправлять юкозу?
перейдите по этой ссылке
http://anime-tut.ru/load/23-1-0-21 и посмотрите в адресную строку браузера после перехода. вы увидите там http://anime-tut.ru/load....-1-0-21 а это значит, что редирект работает. гугл правильно понимает такой редирект и со временем все левые ссылки должны отвалиться из индекса
что ещё исправлять?
зачем вы написали в роботтексте указание для яндекса отдельно и для всех роботов отдельно. это логическое несоответствие. судя по тому что прописано, то писали вы указание для яндекса ради директивы хост и это было ошибкой. дело в том, что директиву хост можно прописывать в общее указание и яндекс её возьмет по-любому. роботс у вас неверный

Quote
<noindex><div rel="nofollow">
вообще-то нельзя копирайт заключать в какие-либо теги. но даже не в этом дело. дело в том, что rel="nofollow" прописывается только в описании ссылки, но никак не в дивы. и это не все ваши ошибки.

если вы перейдете на любую шаблонную систему вы все равно будете встречаться с феноменом дублей.
вы меняли настройки сайта в смысле чпу? то есть ставили без чпу, а потом подключали с чпу и наоборот?
и я вам уже говорила, что длинные адреса - это плохо. посмотрите на ссылку на свой сайт с чпу. мозила например не берет такую длину и режет. проверьте страницы с нетаким длинным адресом. там должно быть все в порядке по идее

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
meyson1770
Сообщений: 44
Репутация: 0

Сообщение # 8 | 23:38:40
webanet, при грамотной оптимизации на любой cms не будет дублей. У меня прежде некогда не было дублей на всех cms и движках с которыми я работал. Уже 3 неделю не уходят с гугла ссылки с укороченным адресом. И таких дублей очень не мало (почти каждый файл). Я уж точно думаю гугл не рад этому. Чпу я сразу ставил. Почему же на моих других uCoz сайтах такой проблемы нету, а на этом появилась? Возможно ли это исправить? Иначе у меня не хватит терпения и перееду на другой движок. Так как такие серьезные дубли страниц, мне подавна не надо.

Добавлено (23-Апр-2012, 23:38:40)
---------------------------------------------
И еще начали проявлятся дубли каталогов
1) Без сплеша в конце например load
2) C сплешем load/
Как такое закрыть в роботсе, чтобы не закрыть весь каталог к индексации?

Сообщение отредактировал meyson1770 - Понедельник, 23 Апр 2012, 23:35:50
true3071
Сообщений: 435
Репутация: 71
Уровень замечаний:

Сообщение # 9 | 00:43:47
да не переживай ты

это специфика динамического движка

их поиск плохо догоняет - не переваривает путем
-------
это не юкоз это все движки

и дле и джумла

а юкоз хоть защищен от взлома лучше
---------
не будет дублей только на отдельных страницах
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 10 | 01:04:18
meyson1770, я же дала вам ссылку на страницу с коротким адресом. там идет редирект. гугл склеит. как давно началась индексация сайта и по новому адресу тоже? как давно сделан сам сайт?

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
meyson1770
Сообщений: 44
Репутация: 0

Сообщение # 11 | 14:25:44
webanet, 20 дней назад я прикрутил домен. А сайт уже давно был. Просто валялся у меня без надобности. Ну буду надеется на то что склеит.
Мишка2044
Сообщений: 3
Репутация: 0

Сообщение # 12 | 04:19:28
Здравствуйте, у меня Гугл начал индексировать странно. Раньше такого не было, все началось сегодня.

/news/2012-04-25-332-987-
/news/2012-04-25-332

Почему-то индексирует обе. Немножко по копался и нашел страницу /news/2012-04-25-332-987- в поисковике. В стандартном варианте она выглядит так /news/2012-04-25-332, но и по второму варианту и по любому другому доступна.
Shеriff
Сообщений: 3187
Репутация: 2662

Сообщение # 13 | 18:18:47
Мишка2044, для того, чтобы закрыть все страницы, которые заканчиваются на -
можно такой строчкой в роботс.тхт:

Code
Disallow: /*-$

Профессиональный сервис опросов WebAsk
Мишка2044
Сообщений: 3
Репутация: 0

Сообщение # 14 | 18:09:00
Я конечно не пробовал, но это вряд ли поможет. Пришел к выводу, что вина в Гугле. Ничего страшного, переходят и по таким ссылкам(с "-987-" на конце).
Он индексирует все подряд, вся капча в поиске, точнее проиндексирована (пока что ~130 картинок). robots.txt стандартный.
welari
Сообщений: 1
Репутация: 0

Сообщение # 15 | 09:01:39
нужно ли закрывать в robots.txt pda-версию сайта? Не будет ли ее наличие восприниматься как дублирование контента?
Сообщество uCoz » Архивариус » Корзина » Дубли страниц сайта в гугле
  • Страница 1 из 2
  • 1
  • 2
  • »
Поиск: