Надёжное скрытие внешних ссылок

Хотелось бы поделиться с сообществом полезной находкой, а заодно вновь поднять вопрос касательно SEO.

Не секрет, что попытки избежать фильтров и потерь веса своего сайта, путем применения тегов типа noindex, или редиректа через внутренюю страницу, особой пользы уже не приносят. Порой хочется вообще избежать каких бы то нибыло внешних ссылок, но сделать это обычно затруднительно. Также, лично для меня всегда встаёт вопрос о справедливости — если я к примеру использую чей-то материал, то моя совесть говорит мне о том, что источник этого материала по праву заслуживает свою долю трафика. Я хотел бы, что бы и к моим авторским материалам относились также, поэтому справедливо будет и самому следовать тому же правилу. Но что касается разделов типа форумов, блогов, то там хотелось бы все внешние ссылки надёжно закрыть. Нашлось одно интересное решение, которое, скорее всего пока успешно работает. Источник решения находится здесь.

Итак, что нам нужно для применения данного метода. Во-первых, подключенную библиотеку jQuery версии не ниже 1.7, во-вторых, HTML5, но можно и без него, просто HTML валидатор будет ругаться на ошибки на странице, но всё будет работать. Ну и в-третьих, чуточку мозга и терпения чтобы всё это подключить ). Для того что бы у нас всё работало, подключаем перед закрывающим тегом body следующего вида скрипт:

<script>$('.hidden').replaceWith(function(){return'<a href="'+$(this).data('link')+'">'+$(this).html()+'</a>';})</script>

А ссылка будет маскироваться таким вот видом:

<span class="hidden" data-link="http://site.ru">внешняя ссылка</span>

После полной загрузки страницы, js скрипт обработчик преобразует код замаскированной ссылки в нормального вида код. Ссылка становится кликабельной. А вот поисковики видят только анкор ссылки, который воспринимают как простой текст, выделенный тегом . Данный способ на 100% закрывает ссылки от индексации поисковыми ботами и поэтому утечки веса не происходит, да и сайт не засоряется разными ссылками. Можно закрывать не только внешние ссылки, но и внутренние, а также графические ссылки.

Данный метод прекрасно работает вместе с методом открытия внешних ссылок в новом окне.
Осталось только приспособить всё для Tickets, и можно ненадолго успокоиться
Александр Н
12 июня 2015, 10:22
modx.pro
3
3 676
-2

Комментарии: 15

Илья Уткин
12 июня 2015, 13:52
+1
Если бы я был Яндексом, я бы добавлял странице «вес», если на ней есть ссылки, по которым люди действительно переходят. Ведь такие ссылки ПОЛЕЗНЫЕ, значит, страница для пользователя ПОЛЕЗНАЯ…

Но это уже холивар))
    An Si
    12 июня 2015, 14:14
    0
    Да, но возникает проблема. Я захочу продвинуть страницу, накопирую туда «полезных ссылок» и получу за чужой счёт вес. Хотя остальной контент этой страницы может быть очень даже плох.

    Но это уже холивар))
    An Si
    12 июня 2015, 14:11
    0
    А так не прокатит? Без подмены тегов во всём документе.
    <a href="#" onclick="document.location.href='http://ya.ru'">Внешняя ссылка</a>
      Михаил Божко
      12 июня 2015, 14:25
      0
      Уберите этот боян 2013 года.
      Google уже давно читает JavaScripts.
      ain.ua/2015/05/13/579922
        Александр Н
        12 июня 2015, 14:36
        0
        * Год ещё не означает отсутствие актуальности метода. Здесь очевидно нужна практика (как критерий истины), или комментарий гуло (яндекс) специалиста.
        * То что гугл читает JavaScripts не говорит о том, что гугл трактует код как активную внешнюю ссылку, и при этом осуществляет соответствующие внешней ссылке действия по отбору веса и т.п… Здесь очевидно нужна практика (как критерий истины), или комментарий гуло (яндекс) специалиста.
        * Можете указать на «небоян»?
          Михаил Божко
          12 июня 2015, 14:43
          0
          легко, rel=nofollow до сих пор рулит или если хочется с мазохизмом, то вот это:
          <script>$('.hidden').replaceWith(function(){return'<a href="'+$(this).data('link')+'">'+$(this).html()+'</a>';})</script>
          выносим во внешний файл, который закрываем от индексации в robots.txt
            Михаил Божко
            12 июня 2015, 14:46
            0
            Здесь очевидно нужна практика (как критерий истины), или комментарий гуло (яндекс) специалиста.
            Издеваешься? Так они тебе и сказали. Вообще-то такой подход сокрытия ссылок может быть расценен, как клоакинг.

            Но это уже холивар))
              Николай
              12 июня 2015, 14:55
              0
              Вот именно, клоакинг уже давно каким-то образом вычисляется, а также другие методы обмана ПС с использованием js и css. А это говорит о том, что поисковики видят страницу такой какая она предстаёт перед посетителями. Следовательно, все эти уловки палятся. Не в первый апдейт, так в десятый. Если учесть, что сайт не сразу по всем возможным проверкам прогоняется.
                Александр Н
                12 июня 2015, 15:18
                0
                ну что тогда, остаётся отказаться от активных ссылок что ли?)
                  Николай
                  12 июня 2015, 15:26
                  0
                  Я согласен с этим комментом выше:

                  Если бы я был Яндексом, я бы добавлял странице «вес», если на ней есть ссылки, по которым люди действительно переходят. Ведь такие ссылки ПОЛЕЗНЫЕ, значит, страница для пользователя ПОЛЕЗНАЯ…
                  Да и вообще, ссылочное всё больше отходит на второй план. Минусинск недавно вышел. Поэтому, стоит ли вообще заморачиваться? Если ссылки не спамные, так и бояться по сути нечего. Времена когда лишняя ссылка на сайте на что-то влияла мне кажется уже в прошлом… Если у сайта хорошие поведенческие, и по ссылкам ходят, то сайт полезен, а если полезен, то и ранжировать его надо выше.
                    Александр Н
                    12 июня 2015, 15:35
                    0
                    Бывают разные ситуации. Например, есть агрегатор новостей, где подбираются статьи по всему инету. Материалы очень интересные во всех отношениях, и естественно ставится ссылка на первоисточник (для продажи ссылок не используется). Ссылок в итоге сотни и сотни, и Яндекс недолго думая ставит фильтр АГС на этот агрегатор. Возникает естественное желание что-то с этим сделать. Правда вопрос справедливости обойти не удаётся)
                  Александр Н
                  12 июня 2015, 15:31
                  0
                  Вот Яндекс пишет, что робот не переходит по ссылкам, реализованным с помощью JavaScript или Flash. Хотя не означает, что не рассматривает такие ссылки в целях применения фильтра… Но честно говоря есть сомнения по поводу клоакинга. Во первых объём подмены уж очень несущественен, доли можно сказать процента. Во вторых есть виды контекстной рекламы, где успешно используются скрипты. Хотя необходимо признать, что ПС очень строги ко всему, что связано со ссылками.

                  Кстати, заглушка на 404 по мнению Яндекса зло, дубли страниц зло ( вопрос который уже неоднократно здесь обсуждался)
            Перетягин Илья
            12 июня 2015, 18:46
            +1
            На данный момент ссылочное практически не играет роли, если только не участвует в спаме. Закрывая ссылки любым методом можно только подставиться, так как ПС видит не сколько ссылку, сколько переход посетителя, и не находя ссылку может наложить «порчу». Самое выгодное делать качественные сайты, действительно интересные пользователю и тогда не важно, сколько у вас ссылок.

            То есть SEO уже давно не то, что было раньше, совсем другая философия.
            Алексей Карташов
            12 июня 2015, 21:03
            0
            касательно СЕО
            SEO. Fixed.
              Авторизуйтесь или зарегистрируйтесь, чтобы оставлять комментарии.
              15