Алексей Карташов

Алексей Карташов

С нами с 04 февраля 2013; Место в рейтинге пользователей: #58
Алексей Карташов
25 марта 2015, 22:24
+2
Пфф, как же меня это умиляет.

Человек задал чёткий вопрос — как сделать автоматические редиректы. Я дал ответ + несколько других советов и готовых решений. Все довольны.
А нет, не все. Ты зачем-то начал холивары разводить.
Весь твой комментарий — это то самое стереотипное представление о помощи на русскоязычном форуме — вместо того, чтобы дать ответ, люди начинают обсуждать, что он всё делает не так, что каждый сделал бы лучше, да и вообще все вокруг тупые.
Не надо так.

Но, всё же, давай пройдёмся по твоим замечаниям.

Я вот по любому запросу могу найти сайты, которые просто болт клали на SEO, не шаманят ничего, но стоят выше других.
И я могу. И кто угодно может. Однако эта твоя фраза всего лишь показатель того, что в теме ты, мягко скажем, не разбираешься. Зато судить берёшься.

Вы думаете, если поисковики от ссылок отказались, то найти одинаковые страницы и склеить их они не способны?
Они настолько тупые, что не могут понять что страница со слешем в конце и без слеша — не одна и та же?
И да, и нет. Но к этому мы ещё вернёмся.

Или вот вы предлагаете убрать />. Зачем его убирать? На что это влияет?
Я так полагаю, что речь идёт о теге base? Если нет, то пропускаем этот пункт. А если да…
А ничего, что в этом же абзаце причины и расписаны? Или мне два раза для тебя повторить, чтобы лучше дошло?
Да, и замечу, что причины вполне себе объективные, а не ради какого-то там seo-шаманствва.

Может быть еще с логотипа убирать ссылки?
Передёргиваете, молодой человек.

Насколько мне известно,
Аааа! Ну вот с этого и надо было начинать! Ты слышал звон, а вот где он — уточнить не догадался. Что, впрочем, опять же говорит о том, что опыта у тебя, опять же мягко скажем, маловато. А вот осуждать — так это в первых рядах.

сейчас поисковики настолько продвинулись, что могут легко читать css-файлы и понимать структуру страницы и оценивать юзабилити
Да, могут читать. Да, могут понимать структуру страницы (это вообще одно из первых, что поисковики научились делать, между прочим). Но оценка юзабилити в глобальном масштабе — это работа алгоритмическая, основанная на статистике, паттерны для которой задаёт армия ассесоров. Можно я не буду объяснять что это значит?

Но вернёмся в дубликатам.
Вы думаете, если поисковики от ссылок отказались,
Во-первых, отказались не поисковики, а Яндекс. Для гугла — закупай себе ссылки да не парься.
И в этом плане, Яндекс — красава, гугл — фу-фу-фу (и именно с маленькой буквы). Потому что ссылки — это анахронизм, который делает интернет тупее и отвратнее. Яндекс сделал огромнейший шаг вперёд. Этим он заставляет вебмастеров, редакторов и владельцев сайтов работать над контентом и сервисами, а не заниматься пустоголовой закупкой ссылок и войной бюджетов.

Во-вторых.
то найти одинаковые страницы и склеить их они не способны?
Они настолько тупые, что не могут понять что страница со слешем в конце и без слеша — не одна и та же?
Для начала нужно уяснить одну вещь, которую многие почему-то не понимают.
Адрес страницы — это PRIMARY key, если хотите. Уникальный ключ. Именно от урл поисковик всегда отталкивается в своих алгоритмах.

Но вопрос нужно поставить по-другому.
«Вы думаете, если вебмастера фреймворки освоили, то сделать так, чтобы одна страница открывалась по одному урлу они не способны? Они настолько тупые, что не могут понять что страница со слешем в конце и без слеша — не одна и та же?»

Чувствуешь разницу? Если вебмастерам это не нужно, то нахрена это нужно поисковику? В глобальном масштабе ты представляешь какой это объём машино-часов, дата-центров, сжигание электроэнергии и отапливание космоса? И нахрена? Чтобы подчищать за такими вот вебмастерами? Перестраивать свои индексы, пересчитывать показатели, вот это вот всё. Никому на хрен это не сдалось.

Но, опять же, это не говорит о том, что поисковики это не умеют. Просто не надо путать причину и следствие.
Конечно, бывают и исключения. Например, для той же википедии, или хабра, или тысяч, сотен тысяч других авторитетных разнотематических ресурсов, которые действительно создают контент и привносят что-то новое в свою отрасль и в информационное пространство в целом, поисковики, можно сказать, делают для таких сайтов исключения, пренебрегая многими факторами. В seo терминологии это называется «траст» (trust — доверие).
Кстати, это прямым образом относится теме сегодняшнего диалога на странице с вопросом Михаила — modx.pro — это трастовый ресурс в своей отрасли, который действительно создаёт контент, которым люди действительно пользуются и находят на нём ответы на свои вопросы. Вот и вся магия.

А остальные 90% сайтов (миллиарды, миллиарды сайтов) мира — это поток информационного говна, которое копируют друг у друга, переписывают и копируют, которое реально ничего нового не привносит.

А самое забавное — ещё не могут и урлы нормально настроить. Вот ведь какая ирония.
Зато считают, что поисковик вместо них напрячься должен.
А нафига оно им надо?
Алексей Карташов
25 марта 2015, 18:55
0
Только не увидел редиректа с https на http
Я с https ещё не разбирался — надобности не было. А просто так ковыряться — времени жалко.
Но в загашнике лежит относительно недавняя статься на эту тему. Делюсь :)

Было бы интересно взглянуть на галп файл
Вот репозиторий — специально по вашей просьбе выкатил).
Но учтите, я писал только описание установки, но там нету ни слова про структуру каталогов, какие команды вводить, описание всех этих команд, что за чем идёт, каков порядок, описание логики работы critical-css, которого нет вообще практически ни у кого в мире.
+ там в комплекте идут часто используемые мной js-плагины (в том числе, которые я сам писал для себя), у которых стили интегрированы в sass-структуру каталогов.

Без какого-либо описания сами вы там вряд ли разберётесь. А описывать сейчас всё это мне не хочется, извините)

до этого сидел на гранте.
Вот та же история. Грант меня просто вымораживал своей тупостью и тормознутостью. Он мне sass компилировал по 10-13 секунд. Это просто ад какой-то был. Воистину, gulp — это глоток свежего воздуха.
Алексей Карташов
25 марта 2015, 18:07
+1
Наверное, Яндекс молниеносно нас переиндексировал и убрал все дубли, ага.
На счёт переиндексации я тоже уверен на 99%, что её не было.
Но здесь есть другие факторы. Если я их буду расписывать, то ты снова скажешь, что seo — это шаманство xD

Никогда в этом и не сомневался. А ты утверждаешь, что он передаёт контент страниц?
Если ты об этом случае — то там дырявые сайты, которые отдавали поисковику свой контент без авторизации.
Оу. Мой косяк. Признаю был не прав.
Но почему-то у меня прочно сидит в памяти картинка с раскрытым запросом в файрбаге одного из установленных счётчиков на каком-то сайте, у которого в теле запроса был контент всей страницы. Хз, почему в своей голове я связал это с метрикой. Но, повторюсь, ошибку признаю, ушёл в угол)

Но, справедливости ради, стоит отметить, что яндекс.браузер юзает технологии оперы.турбо, пропуская весь пользовательский траффик через себя. Чтобы этот траффик сжимать. Ага-ага.
Ставлю десятку, что по умолчанию эта функция в их браузере включена.
Понятное дело, что с https это не прокатит, но ведь и https-сайтов в рунете не так много.

Ну а по чему мне судить, по миллиону статей об оптимизации в интернетах? Я по-прежнему считаю SEO наукой вроде «битвы экстрасенсов».
«Нам кажется, что это работает так, щас мы вам настроим сайт. Ой, Яндекс сменил алгоритм и все вылетели из топа, давайте денег, мы еще раз настроим. Ой, а они всё время меняются, платите нам ежемесячно».
Я не говорю, что все SEOшники такие, но вот такие — на виду.
Вот последняя фраза — ключевая.

Кстати, по поводу того, за что должен платить клиент.
Есть в ру-seo-мире такой персонаж как Арбайтен. Он эту тему раскрыл очень подробно.
К слову, читая его статьи, нужно быть готовым к тому, что он делает кучу грамматических ошибок, много матерится и, самое главное, — к тому, что он принципиально делит мир на белое и чёрное, не давая шанса другим цветам радуги. Делает он это специально, чтобы его позиция дошла до большего количества людей и провоцируя аудиторию на дискуссию.
Честное продвижение сайтов – единственное и неповторимое
Какая мотивация и премиальные у сеошников при продвижении клиентских сайтов
Самый эффективный вид продвижения сайта для клиента
Продвижение сайта за процент от продаж – вся правда
Продвижение сайта за процент с продаж – 2 часть
Продвижение сайта на процент от продаж – ищем совместное решение
Продвижение сайта за процент от продаж – Окончание

В конце концов, я хоть и поворчал, но после этого предложил рабочее решение. Даже проверил его, как обычно, на себе.
Я тоже предложил, только предлагал долго)

P.S. Я твоего комментария жду уже второй день. Опаздываешь!
Я же говорю, хотел пройти мимо, но не удержался))
Но спасибо! С этой фразы в голос смеялся xD
Алексей Карташов
25 марта 2015, 14:33
1
+2
Хотел пройти мимо, но я не удержался :)


Откуда вообще могут взяться дубли по url, если этих url нигде нет?
Вот прям в тему сегодняшняя статья:
habrahabr.ru/post/253943/
Нигде урлов на документы нет, но они всё-равно в индексе. Странно, да?)

Ссылки с сайтов — не единственный источник урлов для поисковых систем.

Была как-то пару лет назад история с метрикой примерно следующего содержания:
У какого-то крупного ресурса есть страницы закрытого раздела (типа личного кабинета). К этим страницам доступа без логина/пароля нет. Из вне отдавалась 403/401 (не суть).
Суть в том, что в индексе яндекса оказались тысячи страниц с личными кабинетами тысяч пользователей.

Т.е., понятное дело, что ссылки из выдачи яндекса вели на те самые закрытые разделы, которые для незалогиненного на этом сайте пользователя отдавали страницу входа (или типа того), но в кеше поисковика были полностью скопированные страницы личных кабинетов — с фио, адресами, историями покупок. Аааа! Вспомнил! Тема усугублялась тем, что то был не просто сайт, а магазин с интим-товарами xD
Тема ищется на хабре (мне лень искать, честно). Так вот, там, на хабре, начали копать и выяснилось, что в индекс попали только те из закрытых страниц, на которых была установлена яндекс.метрика. Оказывается яндекс молча решил отправлять в индекс то, что ему захочется, но вот всех остальных он об этом как-то забыл предупредить. На свои сервера он отправлял не просто урлы, а копии html, из-за чего случился тот самый казус.
После этой истории в настройках счётчика появилась опция включения запрета на индексацию: help.yandex.ru/metrika/code/stop-indexing.xml
К слову сказать, хитрожопый яндекс спрятал эту опцию в блоке «Дополнительно» (который в исходном состоянии «закрыт») и сделал её по умолчанию отключённой:

Что как бы намекает на то, что у тысяч, а может быть и у сотен тысяч пользователей, эта настройка останется выключенной и яндекс с чистой совестью продолжит индексировать то, что ему захочется.

А знаете, в чём прикол?
В том, что и на modx.pro, и на modstore.pro (в т.ч. в личном кабинете) — везде установлена метрика, у которой отключена эта настройка! Т.е. юридически вы разрешили яндексу индексацию личных кабинетов пользователей. Вот ведь какая ирония xD
Понятное дело, что яндекс с тех времён стал поумнее и страницы, которые не запрещено индексировать и при этом отдают 403/401/etc, — он в индекс не засунет.
Это, опять же, к слову о том, почему важны правильные коды ответов сервера и которые на том же fl.ru, скорей всего, были некорректно настроены из-за чего приватные документы и попали в индекс.

Однако это не говорит о том, что он эти данные не использует в своих бигдата и датамайнингах. К слову сказать, если ту настройку выключить, то всё-равно нет гарантии, что зыкрытые страницы не отправляются на сервера яндекса. В индекс-то они не попадут, да. Но вот данные о таких страницах яндекс может бережно складировать для дальнейшего анализа. Тут надо код метрики анализировать и пользовательское соглашение читать (чтобы быть уверенным либо нет), но кто это делает?

И вот в подтверждение моих слов — на modstore.pro метрике разрешено индексировать все страницы сайта. Но личный кабинет закрыт, все его страницы отдают 401 и поэтому этих страниц в индексе нет.
Кроме одной — страницы создания тикета в техподдержку modstore.pro/cabinet/tickets/ticket
Почему? Потому что она единственная из всех закрытых страниц отдаёт код 200 ОК. Поэтому и в индексе. Благо хоть в кеше лежит версия для неавторизованных пользователей, что вселяет надежду на то, что исходные коды html всё-таки не отправляются (хотя я бы не тешил себя иллюзиями).

Такая вот история.
Поэтому, +1 к источникам данных о страницах и их урлах для поисковиков.

Но есть и ещё один источник. Вы думаете гугл и яндекс пилят свои браузеры просто потому что могут? Ха!
Браузеры пилятся для абсолютно тех же целей — сбор максимально возможной информации о пользователях и сайтах. Вот только в браузерах никаких подобных настроек нет. Ну может быть есть что-то про отправку анонимной статистики, но я не проверял. Лиса — наше всё.

2. Если на сайте есть страницы, которые Яндекс исключил из поиска, наверное — он должен где-то их показывать? Не вижу
Конечно должен. И как раз в вебмастере и показывает. Но ты их не видишь, потому что на modx.pro неканонические урлы редиректят на канонические, к примеру modx.pro/topic редиректит на modx.pro/topic/
Поэтому у modx.pro дублей практически и нет.
Вась, но я давно уже понял — в контексте seo ты судишь обо всех сайтах на основе своих собственных показателей, что в корне неверно — выборка-то нерепрезентативна! xD
И если ты не сталкивался с подобными проблемами, это же не значит, что у других их нет, верно?)

Я не смог найти способ проверить наличие дублей, вообще.
Как-то ты плохо искал)
Все статьи в интернете больше походят на набор бабушкиных сплетен «зайдите в гугл, поищите так, а потом на яндекс, поищите эдак — видите, у вас разные результаты, значит у вас там где-то дубли!».
И как обычно передёргиваешь)
Смысл в том, что советы действенные, вот только ручками особо не анализируешься. Поэтому такие советы автоматизируются. Для гугла, например, нужно собрать всё страницы в основном индексе, потом все страницы из «соплей» (supplemented index).
Да, у гугла 2 индекса — основной, который и есть основная выдача и дополнительный, в котором содержатся проиндексированные, но по какой-то причине не попавшие в осной индекс, страницы. Например из-за того, что это дубликат)
А потом оба этих массива анализируются по нескольким параметрам и выявляются дубли.
Но это плохой метод, анализ следствия ткскзать, а не причины. Для полного анализа дублей используются XENU, PageWeight или онлайн сервисы.
Алексей Карташов
18 марта 2015, 00:05
+2
Я бы сделал каталог на отдельной установке, на отдельном домене. Чисто для администрирования товаров.
И какой-нибудь небольшой самописный парсер/граббер/api в виде мини-компонента, который бы по крону тянул с сайта-каталога данные по товарам/ценам/остаткам/изображениям, установил бы его на оба сайта.
Если всё происходит на одном сервере, то можно парсить товары не через curl, а напрямую из базы соседнего сайта-каталога.

Итого — 1 сайт-каталог, специально для администрирования товаров. И 2 других — со своими методами оплаты, чем угодно, но дерево товаров на которых идентичны и берутся из основного сайта по расписанию. Вроде логично
Алексей Карташов
20 февраля 2015, 21:13
+1
Меньше, ещё меньше вводных!
Сокращай вопрос, а то деталями прям завалил. Народ аж потерялся и не знает что ответить.

В идеале сократи до «Помогите!». Всё. Больше ничего писать не нужно. Этого будет достаточно, не будет такой перенасыщенности техническими нюансами и сразу найдётся тот, кто сможет тебе помочь.
</sarcasm>
Алексей Карташов
15 февраля 2015, 19:40
0
Не, руки не дошли. Да и хз когда дойдут)
Просто пока они мне не нужны были, а понадобятся тогда, когда свой интернет-магазин делать буду. А этого в ближайших планах нету
Алексей Карташов
12 февраля 2015, 15:46
0
Так в том-то и дело, что верхнее меню — не ext-компонент. Это просто кусок dom'а. И собственных ext-методов не имеет.

А мне нужно-то было всего лишь добавлять/удалять классы у нужных пунктов меню, учитывая всякие всплытия, клики не по "li", а по "a" и прочие стандартные вещи и работа с dom для такого рода плагинчиков.
На jQ это проще пареной репы — всё api задокументировано (обожаю вот эту страницу), всё прозрачно, $() жрёт что угодно и ни где ничего не ломается. А на ext'е, в этом плане, всё гораздо печальнее.

Т.е. я хочу сказать, что ExtJs как фреймворк — мощный и функциональный. Но как библиотека для работы с dom:
целая куча всякого говна
:-)
Алексей Карташов
12 февраля 2015, 15:36
0
Не, я полностью согласен с тем, что Ext и jQ — решают разные задачи. Библиотека и фреймворк, всё-таки, вещи разного порядка.
Но для меня всё-равно остаётся загадкой — как можно строить не умея адекватно ориентироваться в построенном. Это же не просто — построил dom-дерево один раз и забыл. Динамика UI как никак должна подразумевать адекватное сопровождение постороенного дерева. Но нет.

Тем более при наличии могущественного $(), который существует уже лет 9, уж можно было сделать что-то аналогично универсальное.
Алексей Карташов
12 февраля 2015, 13:42
0
Да, это я в курсе. Поэтому и написал именно про работу с DOM. Селекторы, выборки — вот это всё.
Позволю себе процитировать:
Для того чтобы получить набор узлов DOM, в ExtJS используется не одна функция, а целая куча всякого говна. И результат этих функций — несколько разных объектов ExtJS, или наборы DOM-элементов. Еще одна особенность ExtJS — то что большинство объектов и методов имеют разные варианты написания. Иногда это просто синонимы, а иногда они методы и объекты с дополнительными параметрами и свойствами.

А меню не ext'овым разработчики сделали специально, кмк. Просто бывает так, что в каком-нибудь контроллере закралась ошибка и падает вся админка. Но меню при этом остаётся полностью рабочим, ибо к ExtJS'у это меню отношения не имеет.
Алексей Карташов
12 февраля 2015, 07:50
0
Время анимации подставляется напрямую в css, в transition. Все вендорные префиксы прописаны, так что не знаю почему у вас не заводится. У меня, вроде, менялось)
Указываете в секундах? Или милисекундах? Там можно дробные числа писать, хоть через точку, хоть через запятую.

Но вообще я эту опцию добавил просто чтобы было. По факту — она нахрен не нужна, ибо эта анимация — одна из причин, почему я и написал этот плагин. Хотя можно было бы оставить просто выключатель Да/Нет :)
Алексей Карташов
10 февраля 2015, 19:27
0
Дак можно жеж небольшой плагинчик сделать, который на OnManagerPageInit подключит кастомные css и js. В css отключить транзишны, а в js прописать раскрытие при клике. Потом плагин завернуть в пакет и добавить в репозиторий)
Алексей Карташов
08 февраля 2015, 13:14
0
Не за что!

Важно не только то, чтобы было понятно. Лучше всего, чтобы было чётко и по пунктам. Если что-то уже есть, то напишите об этом (к вопросу о карме). Чем точнее (без "остальное в личке" и "всякие мелочи") будет сформулировано тз, тем больше исполнителей смогут откликнуться.

Ну и удачи вам :-)
Алексей Карташов
08 февраля 2015, 04:27
+3
для зарегистрированных с кармой
Готового механиза кармы для modx (вроде?) нет. Что за карма в вашем понимании (для вашего сайта) должна быть? Как расчитывается? На основе чего? Функционал для неё уже есть или надо создавать? Ответов нет.

Информация состоит из множества слов и словосочетаний… Поиск осуществляется по всем параметрам
Каким параметрам? Нужно сохранять с фронта строковые данные с возможностью поиска по ним? Или производить синтаксический анализ текста, чтобы раскладывать по параметрам в нужные ячейки таблицы? Ответов нет.

И прочие мелочи ускоряющие улучшающие работу сайта=применение готовых решений.
Какие мелочи? Какие прочие? Как много их будет? Что ускорять? Что улучшать? Какие готовые решения? Для чего эти решения? Ответов нет.

основной вектор разработки на мой взгляд раскрыт полностью
Ни хрена он не раскрыт. Какой-то абстрактный сумбур.
Особенно доставило "прочие мелочи" и "Остальное при личном общении".
Аппетит придёт во время еды и за эту тридцатку в "личном общении" выяснится, что нужно сделать новый авито или экзист. Без внятного тз ставлю 72,8% вероятности, что так и будет.

Поэтому не удивляйтесь, что никто не откликнулся. Никто даже не захотел тратить времени, чтобы задать уточняющие вопросы, ибо это просто какой-то поток сознания.

p.s. и да, я не потенциальный исполнитель, поэтому отвечать на этот комментарий не обязательно.
Алексей Карташов
31 января 2015, 22:35
0
Ну тгда вообще супер)
Алексей Карташов
31 января 2015, 22:32
0
Чтобы попасть в админку, зайдите через phpmyadmin а свою базу, в таблице modx_site_plugins (вроде так называется) найдите это плагин, запомните его id, потом в таблице modx_pluginevents (тоже как-то так называется) удалите записи, у которых поле plugin_id равен id вашего плагина. И очистите кеш, удалив папку /core/cache.

А лучше лождитесь спать, отдыхайте, а завтра я вам точно скажу названия таблиц и столбцов. Где-то после обеда.

И завтра же подумаем как нормпльно завести это плагин на вашем сайте)
Алексей Карташов
30 января 2015, 16:03
+1
К слову сказать, в своё время наткнулся на статью, в которой проводили сравнение платёжных агрегаторов по всяким разным параметрам удобства для магазинов, в т.ч. размеры комиссий.

Так вот там PayAnyWay занял первое место. Уж не знаю на сколько тот обзор неаффилирован, ибо всеми агрегаторами не пользовался, приходится верить на слово.
seomagia.ru/article/money/payment-service.html

Кто может подтвердить — реально ли PayAnyWay настолько хорош?
Если да, то не понимаю, почему ваше дополнение не вызвало здесь никакого ажиотажа. Наоборот, должно быть довольно востребованым.