Внимание! Данный раздел закрыт и доступен только для чтения в связи с запуском нового проекта uВопросы, на котором Вы можете найти ответ или задать любой интересующий вопрос по системе uCoz. Задавайте вопросы, ищите ответы и помогайте найти ответы другим пользователям системы! Получайте баллы и открывайте новые достижения. Подробнее в блоге...
|
Архив - только для чтения |
Модератор форума: Shеriff, JonMagon, Yuri_G |
Сообщество uCoz Архивариус Вопросы новичков (первые шаги в системе) Как закрыть все вшешние ссылки (все ссылки через нофаллоу) |
Как закрыть все вшешние ссылки |
Всем привет. У меня такой вопрос. Как можно автоматически закрыть все внешние ссылки в статьяхх? То есть, вручную добавлять к каждой ссылке rel="nofollow нереально. Если поставить мета тег <meta name=“robots” content=“index, nofollow”>, то ссылки не будут закрытыми.
Подскажите JavaScript, который закроет автоматически все ссылки в rel="nofollow Спасибо |
stati-dlya-saita, прочтите материал - //forum.ucoz.ru/forum/33-34620-1 а скрипт заказываем на - http://partner.ucoz.ru/board
|
stati-dlya-saita, прочтите материал - //forum.ucoz.ru/forum/33-34620-1 а скрипт заказываем на - http://partner.ucoz.ru/board А заказать скрипт я могу на http://freelance/ или на https://www.fl/ любой скрипт - там с руками оторвут, только давай что-нибудь заказывай. |
stati-dlya-saita,
Цитата Я думал, что есть функции самого укоз вас никто не принуждает заказывать, ждите может кто другой вам что-то подскажет. |
Нашел вот такой скрипт, автор уверяет, что он должен работать. Но он почему-то у меня не работает. Может, я его неправильно вставляю?
Код <script type="text/javascript"> var wlist = [ "javascript:", "http://dlya-nas-lyubimyh.ru/" ]; function addLoadEvent(func) { var oldonload = window.onload; if (typeof window.onload != 'function') { window.onload = func; } else { window.onload = function() { if (oldonload) { oldonload(); } func(); } } } function LinksExt() { var tags = document.all?document.all:document.getElementsByTagName("*"); function test(str) { for (var url in wlist) if( str.indexOf(wlist[url])==0 ) return 1; return 0; } for (var i=0; i if( tags[i].nodeName == "A" ) { var link = tags; if ( link.href && !test(link.href) ) { link.rel="nofollow"; link.outerHTML = "<!--noindex-->" + link.outerHTML + "<!--/noindex-->"; } } } addLoadEvent(LinksExt); </script> Добавлено (19 Ноя 2014, 16:25:04) --------------------------------------------- <meta name=“robots” content=“index, nofollow”> закрывает ВСЕ ссылки на странице для поисковиков. А мне надо закрыть только в ТЕКСТЕ - $MESSAGE$ Ну подскажите уже, в самом деле. Есть же спецы для укоза. |
stati-dlya-saita,
Цитата Подскажите JavaScript, который закроет автоматически все ссылки в rel="nofollow Спасибо если в статьях, то надо было давно пользоваться функцией проксирования. функция проксирования + строчка в роботсе Disallow: */go? даст вам нужный надежный результат |
может скрипт и закроет ссылки, но поисковые системы не исполняют скрипты. в этом будет проблема если в статьях, то надо было давно пользоваться функцией проксирования. функция проксирования + строчка в роботсе Disallow: */go? даст вам нужный надежный результат Вебанет. Ну...как бы вам сказать прямо. Когда-то ссылки нужны были прямыми. А почему вы думаете, что поисковые системы не исполнят скрипт? |
stati-dlya-saita, потому что я знаю, что они их не исполняют. поисковые системы не браузеры. вы должны это понимать и видят они код как вы видите его из исходника.
скрипты обрабатываются, но не исполняются. |
webanet, а можете дать дельный совет? Если я перед апом тиц (где-то 25 - 28 ноября) вставлю на странице материала и комментариев к нему мета тег <meta name=“robots” content=“index, nofollow”>, то после индексации Яндекс будет считать внешние ссылки на странице закрытыми еще месяц, до следующей индексации? Спасибо заранее за ответ :) |
stati-dlya-saita, теперь поняла к чему ваши вопросы. ап тиц готовится не за пару дней. перед самим апом можете уже не напрягаться. и стоит прочитать ещё раз про тиц https://help.yandex.ru/catalogue/citation-index/tic-about.xml только внимательно. просто прочитайте
Цитата Яндекс будет считать внешние ссылки на странице закрытыми еще месяц, до следующей индексации? |
webanet, я же не от хорошей жизни "играю". Так получилось, что сайты в агс попали. Неизвестно, от чего. Но внешние ссылки наверняка были одной из причин, хотя ресурсы качественные и посещаемость хорошая.
ТИЦ обнулился и новые статьи не попадают в индекс - классический агс-40. Техподдержка яндекса словами робота-платона написала стандартную отписку про некачественный сайт. Когда стал дальше писать, вроде что-то человеческое вылезло и ответило уклончиво, что сайт использует не совсем корректную оптимизацию. Вот я и пытаюсь что-то делать. Убрал уже ключи и описания полностью (meta name="keyword" content="" meta name="description" content=" "), убрал публикацию автоматическую заголовков статей из вконтакте, фейсбука, твиттера и других агрегаторов, вот сейчас пытаюсь закрыть внешние ссылки - их действительно, слишком много - 1500 на 2500 проиндексированных страниц на одном из сайтов. Так что вот. Не мы такие - жизнь такая. :) |
stati-dlya-saita,
Цитата Вот я и пытаюсь что-то делать. |
Да что сайты смотреть. Много страниц, много внешних ссылок, статьи уникальные с фото.... Из-под агс в первый ап никто не выходит, но робот уже берет на заметку. Думаю, снести их к чертовой матери но жалко целый год занимался, писал статьи, обрабатывал фото и тд.
Яндексу неоднократно писал про дорвеи, на которых тексты с моих сайтов автоматически генерированы - ну и что? Ответ платонов стандартный "мы не правоохранительные органы, а всего лишь зеркало интернета...". И до сих пор на первых местах висят в поиске (уже полгода) откровенные дорвеи, где 100% контента автоматически сгенерировано генератором дорвеев с других сайтов. И тиц у них за сотню, и страниц в поиске - копипаста - сотни тысяч. И ничего. Я так думаю, сами яндексовцы делают доры и зарабатывают на них. Раньше писали - "жизнь доров - три месяца максимум, пока высокотехнологичный яндекс из не найдет и не отправит в фильтр". Я давал конкретные адреса конкретных доров - и ничего. Зато нормальные сайты яндекс отправляет в фильтр как только посещаемость перешагивает 1000 уников в сутки на протяжении месяца. Начинаются непонятные заскоки и постепенное понижение - дальше увеличение посещаемости не идет. Пресловутый тиц - это закупленные на гогетлинкс внешние ссылки. Все об этом знают, но продолжают упорно твердить, что тиц - это когда добрый вебмастер ставит прямую ссылку на совершенно незнакомый сайт, потому что этот самый сайт хороший... Единственное, где такое возможно - это жж - и то только с платных аккаунтов. Все. Ни один вебмастер не поставит ссылку на другой сайт, если он не знает этого человека - владельца сайта. тиц повышается только покупкой платных ссылок. Яндекс - это помойка, где выкидываются совсем не по запросу интернет магазины и накупившие кучу ссылок на ггл говносайты самих платонов. |
| |||
| |||