Надёжное скрытие внешних ссылок
Хотелось бы поделиться с сообществом полезной находкой, а заодно вновь поднять вопрос касательно SEO.
Не секрет, что попытки избежать фильтров и потерь веса своего сайта, путем применения тегов типа noindex, или редиректа через внутренюю страницу, особой пользы уже не приносят. Порой хочется вообще избежать каких бы то нибыло внешних ссылок, но сделать это обычно затруднительно. Также, лично для меня всегда встаёт вопрос о справедливости — если я к примеру использую чей-то материал, то моя совесть говорит мне о том, что источник этого материала по праву заслуживает свою долю трафика. Я хотел бы, что бы и к моим авторским материалам относились также, поэтому справедливо будет и самому следовать тому же правилу. Но что касается разделов типа форумов, блогов, то там хотелось бы все внешние ссылки надёжно закрыть. Нашлось одно интересное решение, которое, скорее всего пока успешно работает. Источник решения находится здесь.
Данный метод прекрасно работает вместе с методом открытия внешних ссылок в новом окне.
Осталось только приспособить всё для Tickets, и можно ненадолго успокоиться
Не секрет, что попытки избежать фильтров и потерь веса своего сайта, путем применения тегов типа noindex, или редиректа через внутренюю страницу, особой пользы уже не приносят. Порой хочется вообще избежать каких бы то нибыло внешних ссылок, но сделать это обычно затруднительно. Также, лично для меня всегда встаёт вопрос о справедливости — если я к примеру использую чей-то материал, то моя совесть говорит мне о том, что источник этого материала по праву заслуживает свою долю трафика. Я хотел бы, что бы и к моим авторским материалам относились также, поэтому справедливо будет и самому следовать тому же правилу. Но что касается разделов типа форумов, блогов, то там хотелось бы все внешние ссылки надёжно закрыть. Нашлось одно интересное решение, которое, скорее всего пока успешно работает. Источник решения находится здесь.
Итак, что нам нужно для применения данного метода. Во-первых, подключенную библиотеку jQuery версии не ниже 1.7, во-вторых, HTML5, но можно и без него, просто HTML валидатор будет ругаться на ошибки на странице, но всё будет работать. Ну и в-третьих, чуточку мозга и терпения чтобы всё это подключить ). Для того что бы у нас всё работало, подключаем перед закрывающим тегом body следующего вида скрипт:
<script>$('.hidden').replaceWith(function(){return'<a href="'+$(this).data('link')+'">'+$(this).html()+'</a>';})</script>
А ссылка будет маскироваться таким вот видом:
<span class="hidden" data-link="http://site.ru">внешняя ссылка</span>
После полной загрузки страницы, js скрипт обработчик преобразует код замаскированной ссылки в нормального вида код. Ссылка становится кликабельной. А вот поисковики видят только анкор ссылки, который воспринимают как простой текст, выделенный тегом . Данный способ на 100% закрывает ссылки от индексации поисковыми ботами и поэтому утечки веса не происходит, да и сайт не засоряется разными ссылками. Можно закрывать не только внешние ссылки, но и внутренние, а также графические ссылки.
Данный метод прекрасно работает вместе с методом открытия внешних ссылок в новом окне.
Осталось только приспособить всё для Tickets, и можно ненадолго успокоиться
Комментарии: 15
Если бы я был Яндексом, я бы добавлял странице «вес», если на ней есть ссылки, по которым люди действительно переходят. Ведь такие ссылки ПОЛЕЗНЫЕ, значит, страница для пользователя ПОЛЕЗНАЯ…
Но это уже холивар))
Но это уже холивар))
Да, но возникает проблема. Я захочу продвинуть страницу, накопирую туда «полезных ссылок» и получу за чужой счёт вес. Хотя остальной контент этой страницы может быть очень даже плох.
Но это уже холивар))
Но это уже холивар))
А так не прокатит? Без подмены тегов во всём документе.
<a href="#" onclick="document.location.href='http://ya.ru'">Внешняя ссылка</a>
* Год ещё не означает отсутствие актуальности метода. Здесь очевидно нужна практика (как критерий истины), или комментарий гуло (яндекс) специалиста.
* То что гугл читает JavaScripts не говорит о том, что гугл трактует код как активную внешнюю ссылку, и при этом осуществляет соответствующие внешней ссылке действия по отбору веса и т.п… Здесь очевидно нужна практика (как критерий истины), или комментарий гуло (яндекс) специалиста.
* Можете указать на «небоян»?
* То что гугл читает JavaScripts не говорит о том, что гугл трактует код как активную внешнюю ссылку, и при этом осуществляет соответствующие внешней ссылке действия по отбору веса и т.п… Здесь очевидно нужна практика (как критерий истины), или комментарий гуло (яндекс) специалиста.
* Можете указать на «небоян»?
легко, rel=nofollow до сих пор рулит или если хочется с мазохизмом, то вот это:
<script>$('.hidden').replaceWith(function(){return'<a href="'+$(this).data('link')+'">'+$(this).html()+'</a>';})</script>
выносим во внешний файл, который закрываем от индексации в robots.txt Здесь очевидно нужна практика (как критерий истины), или комментарий гуло (яндекс) специалиста.Издеваешься? Так они тебе и сказали. Вообще-то такой подход сокрытия ссылок может быть расценен, как клоакинг.
Но это уже холивар))
Вот именно, клоакинг уже давно каким-то образом вычисляется, а также другие методы обмана ПС с использованием js и css. А это говорит о том, что поисковики видят страницу такой какая она предстаёт перед посетителями. Следовательно, все эти уловки палятся. Не в первый апдейт, так в десятый. Если учесть, что сайт не сразу по всем возможным проверкам прогоняется.
ну что тогда, остаётся отказаться от активных ссылок что ли?)
Я согласен с этим комментом выше:
Если бы я был Яндексом, я бы добавлял странице «вес», если на ней есть ссылки, по которым люди действительно переходят. Ведь такие ссылки ПОЛЕЗНЫЕ, значит, страница для пользователя ПОЛЕЗНАЯ…Да и вообще, ссылочное всё больше отходит на второй план. Минусинск недавно вышел. Поэтому, стоит ли вообще заморачиваться? Если ссылки не спамные, так и бояться по сути нечего. Времена когда лишняя ссылка на сайте на что-то влияла мне кажется уже в прошлом… Если у сайта хорошие поведенческие, и по ссылкам ходят, то сайт полезен, а если полезен, то и ранжировать его надо выше.
Бывают разные ситуации. Например, есть агрегатор новостей, где подбираются статьи по всему инету. Материалы очень интересные во всех отношениях, и естественно ставится ссылка на первоисточник (для продажи ссылок не используется). Ссылок в итоге сотни и сотни, и Яндекс недолго думая ставит фильтр АГС на этот агрегатор. Возникает естественное желание что-то с этим сделать. Правда вопрос справедливости обойти не удаётся)
Вот Яндекс пишет, что робот не переходит по ссылкам, реализованным с помощью JavaScript или Flash. Хотя не означает, что не рассматривает такие ссылки в целях применения фильтра… Но честно говоря есть сомнения по поводу клоакинга. Во первых объём подмены уж очень несущественен, доли можно сказать процента. Во вторых есть виды контекстной рекламы, где успешно используются скрипты. Хотя необходимо признать, что ПС очень строги ко всему, что связано со ссылками.
Кстати, заглушка на 404 по мнению Яндекса зло, дубли страниц зло ( вопрос который уже неоднократно здесь обсуждался)
Кстати, заглушка на 404 по мнению Яндекса зло, дубли страниц зло ( вопрос который уже неоднократно здесь обсуждался)
На данный момент ссылочное практически не играет роли, если только не участвует в спаме. Закрывая ссылки любым методом можно только подставиться, так как ПС видит не сколько ссылку, сколько переход посетителя, и не находя ссылку может наложить «порчу». Самое выгодное делать качественные сайты, действительно интересные пользователю и тогда не важно, сколько у вас ссылок.
То есть SEO уже давно не то, что было раньше, совсем другая философия.
То есть SEO уже давно не то, что было раньше, совсем другая философия.
В яблочко! По всем пунктам :-)
касательно СЕОSEO. Fixed.
Авторизуйтесь или зарегистрируйтесь, чтобы оставлять комментарии.