Внимание! Данный раздел закрыт и доступен только для чтения в связи с запуском нового проекта uВопросы, на котором Вы можете найти ответ или задать любой интересующий вопрос по системе uCoz. Задавайте вопросы, ищите ответы и помогайте найти ответы другим пользователям системы! Получайте баллы и открывайте новые достижения. Подробнее в блоге...

Перейти на новый сайт помощи по uCoz


Страница 1 из 11
Архив - только для чтения
Модератор форума: Shеriff, JonMagon, Yuri_G 
Сообщество uCoz » Архивариус » Вопросы новичков (первые шаги в системе) » Как закрыть все вшешние ссылки (все ссылки через нофаллоу)
Как закрыть все вшешние ссылки
stati-dlya-saita
Сообщений: 48
Репутация: -4

Сообщение # 1 | 15:59:13
Всем привет. У меня такой вопрос. Как можно автоматически закрыть все внешние ссылки в статьяхх? То есть, вручную добавлять к каждой ссылке rel="nofollow нереально. Если поставить мета тег <meta name=“robots” content=“index, nofollow”>, то ссылки не будут закрытыми.
Подскажите JavaScript, который закроет автоматически все ссылки в rel="nofollow
Спасибо
Yuri_G
Модератор форума
Сообщений: 4184
Репутация: 896

Сообщение # 2 | 17:02:22
stati-dlya-saita, прочтите материал - http://forum.ucoz.ru/forum/33-34620-1 а скрипт заказываем на - http://partner.ucoz.ru/board

Помогу мягко перейти на SSL, отредактировать базы данных, пишите на - luk4196@ya.ru
stati-dlya-saita
Сообщений: 48
Репутация: -4

Сообщение # 3 | 15:22:01
Цитата Ucoz_fan ()
stati-dlya-saita, прочтите материал - http://forum.ucoz.ru/forum/33-34620-1 а скрипт заказываем на - http://partner.ucoz.ru/board
Я думал, что есть функции самого укоз. Кроме того, думал, что мне подскажут простой скрипт для укоз. Здесь же не биржа фриланс, правда ведь?
А заказать скрипт я могу на http://freelance/ или на https://www.fl/ любой скрипт - там с руками оторвут, только давай что-нибудь заказывай.
Yuri_G
Модератор форума
Сообщений: 4184
Репутация: 896

Сообщение # 4 | 15:28:19
stati-dlya-saita,

Цитата
Я думал, что есть функции самого укоз
увы, нет такого функционала
вас никто не принуждает заказывать, ждите может кто другой вам что-то подскажет.

Помогу мягко перейти на SSL, отредактировать базы данных, пишите на - luk4196@ya.ru
stati-dlya-saita
Сообщений: 48
Репутация: -4

Сообщение # 5 | 16:25:04
Нашел вот такой скрипт, автор уверяет, что он должен работать. Но он почему-то у меня не работает. Может, я его неправильно вставляю?
Код
<script type="text/javascript">
var wlist = [
"javascript:",
"http://dlya-nas-lyubimyh.ru/"
];

function addLoadEvent(func) {
var oldonload = window.onload;
if (typeof window.onload != 'function') {
window.onload = func;
} else {
window.onload = function() {
if (oldonload) {
oldonload();
}
func();
}
}
}

function LinksExt() {
var tags = document.all?document.all:document.getElementsByTagName("*");

function test(str) {
for (var url in wlist)
if( str.indexOf(wlist[url])==0 )
return 1;
return 0;
}

for (var i=0; i if( tags[i].nodeName == "A" ) {
var link = tags;
if ( link.href && !test(link.href) ) {
link.rel="nofollow";
link.outerHTML =
"<!--noindex-->" +
link.outerHTML +
"<!--/noindex-->";
}
}
}

addLoadEvent(LinksExt);
</script>


Добавлено (19 Ноя 2014, 16:25:04)
---------------------------------------------
<meta name=“robots” content=“index, nofollow”> закрывает ВСЕ ссылки на странице для поисковиков. А мне надо закрыть только в ТЕКСТЕ - $MESSAGE$
Ну подскажите уже, в самом деле. Есть же спецы для укоза.
webanet
Личный менеджер
Сообщений: 22759
Репутация: 4846

Сообщение # 6 | 16:34:22
stati-dlya-saita,
Цитата
Подскажите JavaScript, который закроет автоматически все ссылки в rel="nofollow
Спасибо
может скрипт и закроет ссылки, но поисковые системы не исполняют скрипты. в этом будет проблема

если в статьях, то надо было давно пользоваться функцией проксирования. функция проксирования + строчка в роботсе Disallow: */go?
даст вам нужный надежный результат

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
stati-dlya-saita
Сообщений: 48
Репутация: -4

Сообщение # 7 | 16:54:52
Цитата webanet ()
может скрипт и закроет ссылки, но поисковые системы не исполняют скрипты. в этом будет проблема если в статьях, то надо было давно пользоваться функцией проксирования. функция проксирования + строчка в роботсе Disallow: */go?
даст вам нужный надежный результат

Вебанет. Ну...как бы вам сказать прямо. Когда-то ссылки нужны были прямыми. А почему вы думаете, что поисковые системы не исполнят скрипт?
webanet
Личный менеджер
Сообщений: 22759
Репутация: 4846

Сообщение # 8 | 17:05:09
stati-dlya-saita, потому что я знаю, что они их не исполняют. поисковые системы не браузеры. вы должны это понимать и видят они код как вы видите его из исходника.
скрипты обрабатываются, но не исполняются.

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
stati-dlya-saita
Сообщений: 48
Репутация: -4

Сообщение # 9 | 17:12:35
webanet, а можете дать дельный совет? Если я перед апом тиц (где-то 25 - 28 ноября) вставлю на странице материала и комментариев к нему мета тег <meta name=“robots” content=“index, nofollow”>, то после индексации Яндекс будет считать внешние ссылки на странице закрытыми еще месяц, до следующей индексации? Спасибо заранее за ответ :)
webanet
Личный менеджер
Сообщений: 22759
Репутация: 4846

Сообщение # 10 | 17:22:12
stati-dlya-saita, теперь поняла к чему ваши вопросы. ап тиц готовится не за пару дней. перед самим апом можете уже не напрягаться. и стоит прочитать ещё раз про тиц https://help.yandex.ru/catalogue/citation-index/tic-about.xml только внимательно. просто прочитайте
Цитата
Яндекс будет считать внешние ссылки на странице закрытыми еще месяц, до следующей индексации?
нет. до следующего обхода всего навего. и очень не рекомендую сильно играть этими значениями туда-сюда. я про мета-тег и атрибуты ссылки

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
stati-dlya-saita
Сообщений: 48
Репутация: -4

Сообщение # 11 | 17:33:07
webanet, я же не от хорошей жизни "играю". Так получилось, что сайты в агс попали. Неизвестно, от чего. Но внешние ссылки наверняка были одной из причин, хотя ресурсы качественные и посещаемость хорошая.
ТИЦ обнулился и новые статьи не попадают в индекс - классический агс-40. Техподдержка яндекса словами робота-платона написала стандартную отписку про некачественный сайт. Когда стал дальше писать, вроде что-то человеческое вылезло и ответило уклончиво, что сайт использует не совсем корректную оптимизацию. Вот я и пытаюсь что-то делать.
Убрал уже ключи и описания полностью (meta name="keyword" content="" meta name="description" content=" "), убрал публикацию автоматическую заголовков статей из вконтакте, фейсбука, твиттера и других агрегаторов, вот сейчас пытаюсь закрыть внешние ссылки - их действительно, слишком много - 1500 на 2500 проиндексированных страниц на одном из сайтов.
Так что вот. Не мы такие - жизнь такая. :)
webanet
Личный менеджер
Сообщений: 22759
Репутация: 4846

Сообщение # 12 | 18:10:03
stati-dlya-saita,
Цитата
Вот я и пытаюсь что-то делать.
это смотреть сайты надо. так заочно что-то сказать невозможно. но мета-тегами и закрытием ссылок вы делу не поможете, если уже получили агс и подобный ответ платонов

ТУТ можно оставить своё мнение по любому вопросу
https://webanetlabs.net/
stati-dlya-saita
Сообщений: 48
Репутация: -4

Сообщение # 13 | 18:24:13
Да что сайты смотреть. Много страниц, много внешних ссылок, статьи уникальные с фото.... Из-под агс в первый ап никто не выходит, но робот уже берет на заметку. Думаю, снести их к чертовой матери но жалко целый год занимался, писал статьи, обрабатывал фото и тд.
Яндексу неоднократно писал про дорвеи, на которых тексты с моих сайтов автоматически генерированы - ну и что? Ответ платонов стандартный "мы не правоохранительные органы, а всего лишь зеркало интернета...". И до сих пор на первых местах висят в поиске (уже полгода) откровенные дорвеи, где 100% контента автоматически сгенерировано генератором дорвеев с других сайтов. И тиц у них за сотню, и страниц в поиске - копипаста - сотни тысяч. И ничего. Я так думаю, сами яндексовцы делают доры и зарабатывают на них. Раньше писали - "жизнь доров - три месяца максимум, пока высокотехнологичный яндекс из не найдет и не отправит в фильтр". Я давал конкретные адреса конкретных доров - и ничего. Зато нормальные сайты яндекс отправляет в фильтр как только посещаемость перешагивает 1000 уников в сутки на протяжении месяца. Начинаются непонятные заскоки и постепенное понижение - дальше увеличение посещаемости не идет.
Пресловутый тиц - это закупленные на гогетлинкс внешние ссылки. Все об этом знают, но продолжают упорно твердить, что тиц - это когда добрый вебмастер ставит прямую ссылку на совершенно незнакомый сайт, потому что этот самый сайт хороший... Единственное, где такое возможно - это жж - и то только с платных аккаунтов. Все. Ни один вебмастер не поставит ссылку на другой сайт, если он не знает этого человека - владельца сайта. тиц повышается только покупкой платных ссылок.
Яндекс - это помойка, где выкидываются совсем не по запросу интернет магазины и накупившие кучу ссылок на ггл говносайты самих платонов.
Сообщество uCoz » Архивариус » Вопросы новичков (первые шаги в системе) » Как закрыть все вшешние ссылки (все ссылки через нофаллоу)
Страница 1 из 11
Поиск: