Как защитить сайт от скачивания
Доброго времени суток!
Подскажите пожалуйста как защитить сайт от скачивания, то есть html/css/js можно ли как то зашифровать или вроде того. Видел сайты которые не можно было скачать с помощью wget, может кто знает как реализовать?
Подскажите пожалуйста как защитить сайт от скачивания, то есть html/css/js можно ли как то зашифровать или вроде того. Видел сайты которые не можно было скачать с помощью wget, может кто знает как реализовать?
Комментарии: 12
У меня один вопрос — зачем? Google не зашифрован, но что-то не видно успешных копий.
Да легко. Нужно просто закрыть доступ к сайту из Интернета.
Вы это серьезно? Чтобы пользователь увидел вашу страничку, он должен скачать ваши html, css, js, картинки. Если вам это не нужно, то совет как это исправить я уже дал.
Вы это серьезно? Чтобы пользователь увидел вашу страничку, он должен скачать ваши html, css, js, картинки. Если вам это не нужно, то совет как это исправить я уже дал.
А можно ссылку на сайт, который нельзя скачать с помощью wget?
Подозреваю через wget нельзя скачать сайты построенные на клиент сайд рендеренге :)
Человек сделал свой сайт, для себя, как банковскую ячейку и не хочет чтобы кто-то посторонний его смотрел. У человека проблема, а вы смеетесь! :)
Хах) Вы скорее всего не до конца поняли или не видели сайты, которые защищены от скачивания.
Пример: Есть 1 сайт. Я пытаюсь выкачать его с помощью wget — не выкачался.
Есть мой сайт. Я пытаюсь выкачать его с помощью wget — выкачались все станицы.
Пример: Есть 1 сайт. Я пытаюсь выкачать его с помощью wget — не выкачался.
Есть мой сайт. Я пытаюсь выкачать его с помощью wget — выкачались все станицы.
Наверное обычный запрос делаете:
А у wget куча параметров, которые позволяют обойти разные способы защиты.
wget -r -k -l 7 -p -E -nc http://site.com/
А у wget куча параметров, которые позволяют обойти разные способы защиты.
А-а, так вам нужны закрытые каталоги? доступ к базе? конфиги и разные вкусности? :) Тогда у вас проблема с безопасностью. Вам надо было спрашивать — «Как закалить сайт на modx?»
Вот здесь посмотрите Hardening Your MODX Site
Вот здесь посмотрите Hardening Your MODX Site
Спасибо, Вадим!)
Полностью защитить в принципе не возможно, но от автоботов защититься вполне реально:
— проверка заголовков, реферрера
— бан ботов по ip — {irony}яндекс, гугл и т.п. несложно найти в паблике{/irony}
— проверка ip по спамбазам (но учитывайте, что отсеете приличную часть мобильного траффика — я сам сижу на свистках билайн/теле2 — очень часто гугл капчу выдает, а бывает вообще не пускает — а ip/подсети в спамбазах типа спамхаус)
— частота просмотра страниц — если чаще, скажем секунды или пары — ip в бан на часок, пяток банов — перманент
Разумеется использовать все возможные защиты «от дурака» — типа запрета выделения/копирования (все предыдущее в принципе тоже своего рода защита от дурака). Далее:
Чтобы сложнее было анализировать скаченный фронтенд — минимизация и обфускация кода — html вытягиваем в одну строку, css собираем в один файл и тоже в одну строку, js — аналогично + делаем обфускацию. Можно еще глубже — сделать обфускацию css — я такого правда еще ни разу не видел примерно с 2003-5 — в те года я писал уже сразу с обфускацией (кстати, в поддержку бывает попадается подобное:)
— проверка заголовков, реферрера
— бан ботов по ip — {irony}яндекс, гугл и т.п. несложно найти в паблике{/irony}
— проверка ip по спамбазам (но учитывайте, что отсеете приличную часть мобильного траффика — я сам сижу на свистках билайн/теле2 — очень часто гугл капчу выдает, а бывает вообще не пускает — а ip/подсети в спамбазах типа спамхаус)
— частота просмотра страниц — если чаще, скажем секунды или пары — ip в бан на часок, пяток банов — перманент
Разумеется использовать все возможные защиты «от дурака» — типа запрета выделения/копирования (все предыдущее в принципе тоже своего рода защита от дурака). Далее:
Чтобы сложнее было анализировать скаченный фронтенд — минимизация и обфускация кода — html вытягиваем в одну строку, css собираем в один файл и тоже в одну строку, js — аналогично + делаем обфускацию. Можно еще глубже — сделать обфускацию css — я такого правда еще ни разу не видел примерно с 2003-5 — в те года я писал уже сразу с обфускацией (кстати, в поддержку бывает попадается подобное:)
.h{font-size:12px;color:#777}
.i{position:absolute;top:150px;left:20px;font-size:14px;color:#333;background:#fff}
Ребята, попадалось кому подобное, или может сами грешили? частота просмотра страниц — если чаще, скажем секунды или пары — ip в бан на часок, пяток банов — перманентЭто рецепт как из индекса поисковиков выпасть? Тогда можно просто на локалхосте собрать сайт и никому не показывать.
html вытягиваем в одну строку, css собираем в один файл и тоже в одну строку, js — аналогичноwww.google.ru/search?ie=UTF-8&hl=ru&q=beautifier&gws_rd=ssl#newwindow=1&safe=off&hl=ru&q=html+beautifier
Вы вопрос читали? Индекс поисковиков там вроде не особо интересует… Кстати, такой момент — у яндекса в панели вебмастера давно уже можно просто добавить уникальный текст (насчет гугла — не знаю). Вы эту ссылку к чему приложили?
html2line — вроде как есть (могу свою версию дать — трет лишние пробелы между блоками, и в xml)
css и js — на выбор — MinifyX, grunt, gulp и т.д
И еще момент — гугл (насчет яндекса не могу сказать) индексирует закрытое содержимое — например у вас сайт запаролен — сообщаете в вебмастере пароль и индексирует содержимое.
html2line — вроде как есть (могу свою версию дать — трет лишние пробелы между блоками, и в xml)
css и js — на выбор — MinifyX, grunt, gulp и т.д
И еще момент — гугл (насчет яндекса не могу сказать) индексирует закрытое содержимое — например у вас сайт запаролен — сообщаете в вебмастере пароль и индексирует содержимое.
Авторизуйтесь или зарегистрируйтесь, чтобы оставлять комментарии.