• Страница 1 из 2
  • 1
  • 2
  • »
Модератор форума: Yuri_G  
Сообщество uCoz » Вебмастеру » Раскрутка сайта » SEO » Дублирование страниц
Дублирование страниц
Coder
Сообщений: 138
Репутация: 76

Сообщение # 1 | 16:16:35
Собственно, одна страница сайта имеет две страницы в кэше Гугла



И их количество, начиная с так называемого реблида дисков сервера, неуклонно растет - уже перевалило отметку в 1,5 тысячи. Дубли поисковые системы не любят, так что просьба к программистам устранить этот баг.

Сервер 27

Добавлено (01 Мар 2014, 16:16:35)
---------------------------------------------
Или я не туда написал??. Или это не решаемо)))

Прикрепления: 3120007.jpg (46.1 Kb)
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 2 | 16:18:51
Coder, часть проблем можно снять так Disallow: /*-$
другую каноникалами. и это обсуждалось уже

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
Coder
Сообщений: 138
Репутация: 76

Сообщение # 3 | 17:08:48
Да я уже устал баги вылавливать webanet, только избавился от разных дублей контента

Disallow: /*&*
Disallow: /*?*
Disallow: /go?*

как вылезли новые,, неужто программисты не могут просто подправить свои коды, а не заморачивать нас. Кстати, как правильно закрыть дубли к примеру

/news/marsianskij_zond_mro_sfotografiroval_marsokhod_curiosity/2014-01-09-2788-987
/news/marsianskij_zond_mro_sfotografiroval_marsokhod_curiosity/2014-01-09-2788
webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 4 | 17:15:39
Coder,
Цитата
Disallow: /go?*
а это зачем?

Цитата
-987


пробуйте сначала так Disallow: /*-$

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
Coder
Сообщений: 138
Репутация: 76

Сообщение # 5 | 18:56:37
Цитата webanet ()
Coder,
Цитата
Disallow: /go?*
а это зачем?

Закрывает страницы проксирования с переходом типа: /go?http://imageshost.ru/ - сама страница оригинала в поиске, а промежуточная убирается - я сам удивился)))

Цитата webanet ()
пробуйте сначала так Disallow: /*-$


Мне надо точно, и что то я честно сомневаюсь что вот это поможет... но попробую, разве принцип отклонения не методом исключения похожего????
nightflyer
Сообщений: 44
Репутация: 9

Сообщение # 6 | 20:03:15
Webanet у меня та же ерунда, появились дубли и траф с гугла прекратился, сайт был на первой строчке, теперь на 30. Объясните как можно избавится от дублей типа
/publ/shred/5-1-0-6
/publ/5-1-0-6
Куда что прописывать? Каноникал не помогает нифига.

Coder
Сообщений: 138
Репутация: 76

Сообщение # 7 | 00:18:37
Подниму тему: А воз и поныне там. Вполне понятно, что это ошибки системы, толку нет как то запрещать в роботсе, ибо завтра вылезут дубли с какой нибудь еще цифрой 1001 например...Ау!!!!! инженеры системы, приведите в порядок свои коды
Vintash
Сообщений: 379
Репутация: 172

Сообщение # 8 | 10:58:56
Coder, системные дубли практически ни на что не влияют. Почему так переживаете?

The Cake Is a Lie
Coder
Сообщений: 138
Репутация: 76

Сообщение # 9 | 11:02:30
Цитата
Дубликаты контента - одна из основных проблем низкого ранжирования сайта в поисковых системах. К данной проблеме приводит наличие на сайте
страниц, которые полностью или частично идентичны друг другу. Естественно для поисковых систем наличие на сайте мусорных страниц представляет
серьёзную проблему, так как приходится тратить на их обработку серверные
мощности. Поисковым системам нет смысла тратить физические ресурсы на
индексацию такого бесполезного контента. Поэтому они борются с такими
сайтами, накладывая на них фильтр, либо занижает в ранжировании, что
приводит к низким позициям по продвигаемым запросам.

Я бы не сказал, что не влияют, их же роботы "кушают"
Сообщение отредактировал Coder - Суббота, 22 Мар 2014, 11:03:32
Miss_Esq
Сообщений: 13859
Репутация: 4159
Уровень замечаний:

Сообщение # 10 | 11:16:55
Coder,

/news/marsianskij_zond_mro_sfotografiroval_marsokhod_curiosity/2014-01-09-2788-987

запретите

Disallow: /news/*/*-*-*-*-*

Vintash
Сообщений: 379
Репутация: 172

Сообщение # 11 | 11:49:05
Coder, поисковые роботы нормально относятся к системным дублям ucoz, т.к. научились различать где дубль случайный (как в нашем случае), а где намеренный. Я бы не стал на вашем месте сильно заморачиваться по поводу копий страниц. Кстати webanet думает по этому поводу тоже самое.

Добавлено (22 Мар 2014, 11:49:05)
---------------------------------------------
Цитата Coder ()
Я бы не сказал, что не влияют, их же роботы "кушают"

Если даже и кушают, то потом просто приравнивают их к соплям.

The Cake Is a Lie
Сообщение отредактировал Vintash - Суббота, 22 Мар 2014, 11:49:21
Coder
Сообщений: 138
Репутация: 76

Сообщение # 12 | 12:41:34
Vintash, вы говорите прямо как представитель компании Яндекс или Гугл. Увы , в свое время на форуме гугла мне дали ясно понять что вот такое мягко сказать не приветствуется.

Цитата Miss_Esq ()
Disallow: /news/*/*-*-*-*-*
Боюсь, что это вообще запретит индексацию раздела....
Miss_Esq
Сообщений: 13859
Репутация: 4159
Уровень замечаний:

Сообщение # 13 | 13:19:14
Coder, Запретит конкретно типа там где 5 групп цифр и ЧПУ в новостях

/news/marsianskij_zond_mro_sfotografiroval_marsokhod_curiosity/2014-01-09-2788-987

webanet
Сообщений: 24067
Репутация: 4985

Сообщение # 14 | 20:30:09
Coder,
Цитата
Дубликаты контента - одна из основных проблем низкого ранжирования сайта в поисковых системах. К данной проблеме приводит наличие на сайте
страниц, которые полностью или частично идентичны друг другу. Естественно для поисковых систем наличие на сайте мусорных страниц представляет
серьёзную проблему, так как приходится тратить на их обработку серверные
мощности. Поисковым системам нет смысла тратить физические ресурсы на
индексацию такого бесполезного контента. Поэтому они борются с такими
сайтами, накладывая на них фильтр, либо занижает в ранжировании, что
приводит к низким позициям по продвигаемым запросам.
это творчество точно не принадлежит метту каттсу. скорее всего это творчество сеошника домашнего разлива.

Цитата
в свое время на форуме гугла мне дали ясно понять что вот такое мягко сказать не приветствуется.
вам отвечали хелперы гугла или народное ополчение?

я вам про гугл точно скажу. гугл скачивает сайт полностью без остатка. физически приостановить этот процесс могут только настройки сервера с которого гугл берет сайт. и проблем с серверными мощностями и физическими ресурсами у гугла при этом точно нет. и не предвидеться.
точные копии - дубли, которые генерят все без исключения шаблонные cms могут помешать только сеошникам в искусственных или полуискусственных методах продвижения. ну или сапо-барыгам. провал может случиться, если определенную страницу накачивают ссылочным, а робот возьмет и определит каноническим не тот урл по которому идет накачка.
самый эффективный метод правильной склейки - это 301 редирект. роботс, каноникалы, мета-теги и прочее вооружение не гарантирует того, что в индексе останутся именно те страницы, которые вам нужны
мой вам совет. пойдите в гугл и там спросите что говорит господин мэтт каттс про дубли и вообще про жизнь на земле.

из всех неприятностей, которые вы сами себе придумываете действительно относительной неприятностью могут быть ссылки вида

Код
/news/marsianskij_zond_mro_sfotografiroval_marsokhod_curiosity/2014-01-09-2788-987


то есть страница материала и то если к ней прописано описание. эта проблема возможно будет решена на системном уровне
по всему остальному. на страницах материала и комментария во избежании можно решать проблему каноникалом. в соседней теме есть решение

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
Coder
Сообщений: 138
Репутация: 76

Сообщение # 15 | 11:38:47
Miss_Esq, простите за мой скептицизм, но это правило действительно может сработать, поставил, посмотрим на результаты.

webanet, я общался конечно не с Меттом Каттсом, а с представителями русской версией гугла. (ранее сайт находился под непонятными мне санкциям), что усвоил, то и говорю))
Сообщество uCoz » Вебмастеру » Раскрутка сайта » SEO » Дублирование страниц
  • Страница 1 из 2
  • 1
  • 2
  • »
Поиск: