Модератор форума: Yuri_G |
Сообщество uCoz Вебмастеру Раскрутка сайта SEO Дублирование страниц |
Дублирование страниц |
Собственно, одна страница сайта имеет две страницы в кэше Гугла
![]() И их количество, начиная с так называемого реблида дисков сервера, неуклонно растет - уже перевалило отметку в 1,5 тысячи. Дубли поисковые системы не любят, так что просьба к программистам устранить этот баг. Сервер 27 Добавлено (01 Мар 2014, 16:16:35) Прикрепления:
3120007.jpg
(46.1 Kb)
|
Coder, часть проблем можно снять так Disallow: /*-$
другую каноникалами. и это обсуждалось уже |
Да я уже устал баги вылавливать webanet, только избавился от разных дублей контента
Disallow: /*&* Disallow: /*?* Disallow: /go?* как вылезли новые,, неужто программисты не могут просто подправить свои коды, а не заморачивать нас. Кстати, как правильно закрыть дубли к примеру /news/marsianskij_zond_mro_sfotografiroval_marsokhod_curiosity/2014-01-09-2788-987 /news/marsianskij_zond_mro_sfotografiroval_marsokhod_curiosity/2014-01-09-2788 |
Coder,
Цитата Disallow: /go?* Цитата -987 пробуйте сначала так Disallow: /*-$ |
Закрывает страницы проксирования с переходом типа: /go?http://imageshost.ru/ - сама страница оригинала в поиске, а промежуточная убирается - я сам удивился))) Мне надо точно, и что то я честно сомневаюсь что вот это поможет... но попробую, разве принцип отклонения не методом исключения похожего???? |
Webanet у меня та же ерунда, появились дубли и траф с гугла прекратился, сайт был на первой строчке, теперь на 30. Объясните как можно избавится от дублей типа
/publ/shred/5-1-0-6 /publ/5-1-0-6 Куда что прописывать? Каноникал не помогает нифига. |
Цитата Дубликаты контента - одна из основных проблем низкого ранжирования сайта в поисковых системах. К данной проблеме приводит наличие на сайте страниц, которые полностью или частично идентичны друг другу. Естественно для поисковых систем наличие на сайте мусорных страниц представляет серьёзную проблему, так как приходится тратить на их обработку серверные мощности. Поисковым системам нет смысла тратить физические ресурсы на индексацию такого бесполезного контента. Поэтому они борются с такими сайтами, накладывая на них фильтр, либо занижает в ранжировании, что приводит к низким позициям по продвигаемым запросам. Я бы не сказал, что не влияют, их же роботы "кушают" Сообщение отредактировал Coder - Суббота, 22 Мар 2014, 11:03:32
|
Coder,
/news/marsianskij_zond_mro_sfotografiroval_marsokhod_curiosity/2014-01-09-2788-987 запретите Disallow: /news/*/*-*-*-*-* |
Coder, поисковые роботы нормально относятся к системным дублям ucoz, т.к. научились различать где дубль случайный (как в нашем случае), а где намеренный. Я бы не стал на вашем месте сильно заморачиваться по поводу копий страниц. Кстати webanet думает по этому поводу тоже самое.
Добавлено (22 Мар 2014, 11:49:05) --------------------------------------------- Если даже и кушают, то потом просто приравнивают их к соплям. The Cake Is a Lie
Сообщение отредактировал Vintash - Суббота, 22 Мар 2014, 11:49:21
|
|
Coder, Запретит конкретно типа там где 5 групп цифр и ЧПУ в новостях
/news/marsianskij_zond_mro_sfotografiroval_marsokhod_curiosity/2014-01-09-2788-987 |
Coder,
Цитата Дубликаты контента - одна из основных проблем низкого ранжирования сайта в поисковых системах. К данной проблеме приводит наличие на сайте страниц, которые полностью или частично идентичны друг другу. Естественно для поисковых систем наличие на сайте мусорных страниц представляет серьёзную проблему, так как приходится тратить на их обработку серверные мощности. Поисковым системам нет смысла тратить физические ресурсы на индексацию такого бесполезного контента. Поэтому они борются с такими сайтами, накладывая на них фильтр, либо занижает в ранжировании, что приводит к низким позициям по продвигаемым запросам. Цитата в свое время на форуме гугла мне дали ясно понять что вот такое мягко сказать не приветствуется. я вам про гугл точно скажу. гугл скачивает сайт полностью без остатка. физически приостановить этот процесс могут только настройки сервера с которого гугл берет сайт. и проблем с серверными мощностями и физическими ресурсами у гугла при этом точно нет. и не предвидеться. точные копии - дубли, которые генерят все без исключения шаблонные cms могут помешать только сеошникам в искусственных или полуискусственных методах продвижения. ну или сапо-барыгам. провал может случиться, если определенную страницу накачивают ссылочным, а робот возьмет и определит каноническим не тот урл по которому идет накачка. самый эффективный метод правильной склейки - это 301 редирект. роботс, каноникалы, мета-теги и прочее вооружение не гарантирует того, что в индексе останутся именно те страницы, которые вам нужны мой вам совет. пойдите в гугл и там спросите что говорит господин мэтт каттс про дубли и вообще про жизнь на земле. из всех неприятностей, которые вы сами себе придумываете действительно относительной неприятностью могут быть ссылки вида Код /news/marsianskij_zond_mro_sfotografiroval_marsokhod_curiosity/2014-01-09-2788-987 то есть страница материала и то если к ней прописано описание. эта проблема возможно будет решена на системном уровне по всему остальному. на страницах материала и комментария во избежании можно решать проблему каноникалом. в соседней теме есть решение |
Miss_Esq, простите за мой скептицизм, но это правило действительно может сработать, поставил, посмотрим на результаты.
webanet, я общался конечно не с Меттом Каттсом, а с представителями русской версией гугла. (ранее сайт находился под непонятными мне санкциям), что усвоил, то и говорю)) |
| |||