39 минут назад
— эта заготовка для создания ОДНОГО дополнения? Да
Или можно в рамках одного сайта разработать сразу 5 несвязанных друг с другом дополнений?Наверно...
mmxApp - разработка новых composer дополнений 6
Вчера в 20:52
Добрый день, подскажите, перестал работать плагин в Хроме и Эдж, а в Яндекс браузере работает. Что может быть?
modx + webp просто и надежно - автоматически 20
Вчера в 12:40
Если $data — массив с номером, товарами и датой, можно так:
<?php
$pdo = $modx->getService('pdoTools');
$data['count_products'] = count...
Как передать переменные внутрь чанка из сниппета и заполнить с помощью fenom? 1
28 апреля 2024, 22:59
Настроил всё по инструкции, но заказы в Сделки не попадают.
Анонс modB24CRM 18
28 апреля 2024, 20:45
хорошо, тогда уточню у клиента) но на будущее хотелось бы знать — как добавляется новый столбец? либо попросить добавить такой функционал)
[msOptionsPrice2] Как добавить свою колонку в Модификации? 6
28 апреля 2024, 01:36
Ответ оказался элементарным) Спасибо вам большое)
Настройка уровня вложенности ссылки в адресной строке 2
27 апреля 2024, 13:37
В системных настройках компонента вы указываете логин и пароль от API и все данные виджет берёт из вашего ЛК СДЭК. Дополнительная стоимость, которую м...
[msCdekWidget] Альтернативный калькулятор доставки СДЭК 19
27 апреля 2024, 00:53
Для второго (и последующих) контекста, то есть того, который имеет имя (key), отличное от web. Где там какой домен или поддомен, разницы нет. Как надо...
Как объединить два modx? 8
26 апреля 2024, 21:56
Понятно, изучать вкладки в migx…
Так то я пока освоил: создаем и заполняем таблицу с данными… Потом ее выводим…
Битый день гадаю: как сделать в migx-структуру с плавающими колонками.... 7
26 апреля 2024, 10:30
Вывожу файл на странице через посредника
8kbit.ru/assets/components/webdav/index.php?action=proxy&source=2&ctx=mgr&src=files/personal/nes/videos/Zoid...
[WebDAV] Медиа источник для облачных хранилищ 22
Человек задал чёткий вопрос — как сделать автоматические редиректы. Я дал ответ + несколько других советов и готовых решений. Все довольны.
А нет, не все. Ты зачем-то начал холивары разводить.
Весь твой комментарий — это то самое стереотипное представление о помощи на русскоязычном форуме — вместо того, чтобы дать ответ, люди начинают обсуждать, что он всё делает не так, что каждый сделал бы лучше, да и вообще все вокруг тупые.
Не надо так.
Но, всё же, давай пройдёмся по твоим замечаниям.
И я могу. И кто угодно может. Однако эта твоя фраза всего лишь показатель того, что в теме ты, мягко скажем, не разбираешься. Зато судить берёшься.
И да, и нет. Но к этому мы ещё вернёмся.
Я так полагаю, что речь идёт о теге base? Если нет, то пропускаем этот пункт. А если да…
А ничего, что в этом же абзаце причины и расписаны? Или мне два раза для тебя повторить, чтобы лучше дошло?
Да, и замечу, что причины вполне себе объективные, а не ради какого-то там seo-шаманствва.
Передёргиваете, молодой человек.
Аааа! Ну вот с этого и надо было начинать! Ты слышал звон, а вот где он — уточнить не догадался. Что, впрочем, опять же говорит о том, что опыта у тебя, опять же мягко скажем, маловато. А вот осуждать — так это в первых рядах.
Да, могут читать. Да, могут понимать структуру страницы (это вообще одно из первых, что поисковики научились делать, между прочим). Но оценка юзабилити в глобальном масштабе — это работа алгоритмическая, основанная на статистике, паттерны для которой задаёт армия ассесоров. Можно я не буду объяснять что это значит?
Но вернёмся в дубликатам.
Во-первых, отказались не поисковики, а Яндекс. Для гугла — закупай себе ссылки да не парься.
И в этом плане, Яндекс — красава, гугл — фу-фу-фу (и именно с маленькой буквы). Потому что ссылки — это анахронизм, который делает интернет тупее и отвратнее. Яндекс сделал огромнейший шаг вперёд. Этим он заставляет вебмастеров, редакторов и владельцев сайтов работать над контентом и сервисами, а не заниматься пустоголовой закупкой ссылок и войной бюджетов.
Во-вторых.
Для начала нужно уяснить одну вещь, которую многие почему-то не понимают.
Адрес страницы — это PRIMARY key, если хотите. Уникальный ключ. Именно от урл поисковик всегда отталкивается в своих алгоритмах.
Но вопрос нужно поставить по-другому.
«Вы думаете, если вебмастера фреймворки освоили, то сделать так, чтобы одна страница открывалась по одному урлу они не способны? Они настолько тупые, что не могут понять что страница со слешем в конце и без слеша — не одна и та же?»
Чувствуешь разницу? Если вебмастерам это не нужно, то нахрена это нужно поисковику? В глобальном масштабе ты представляешь какой это объём машино-часов, дата-центров, сжигание электроэнергии и отапливание космоса? И нахрена? Чтобы подчищать за такими вот вебмастерами? Перестраивать свои индексы, пересчитывать показатели, вот это вот всё. Никому на хрен это не сдалось.
Но, опять же, это не говорит о том, что поисковики это не умеют. Просто не надо путать причину и следствие.
Конечно, бывают и исключения. Например, для той же википедии, или хабра, или тысяч, сотен тысяч других авторитетных разнотематических ресурсов, которые действительно создают контент и привносят что-то новое в свою отрасль и в информационное пространство в целом, поисковики, можно сказать, делают для таких сайтов исключения, пренебрегая многими факторами. В seo терминологии это называется «траст» (trust — доверие).
Кстати, это прямым образом относится теме сегодняшнего диалога на странице с вопросом Михаила — modx.pro — это трастовый ресурс в своей отрасли, который действительно создаёт контент, которым люди действительно пользуются и находят на нём ответы на свои вопросы. Вот и вся магия.
А остальные 90% сайтов (миллиарды, миллиарды сайтов) мира — это поток информационного говна, которое копируют друг у друга, переписывают и копируют, которое реально ничего нового не привносит.
А самое забавное — ещё не могут и урлы нормально настроить. Вот ведь какая ирония.
Зато считают, что поисковик вместо них напрячься должен.
А нафига оно им надо?
Но в загашнике лежит относительно недавняя статься на эту тему. Делюсь :)
Вот репозиторий — специально по вашей просьбе выкатил).
Но учтите, я писал только описание установки, но там нету ни слова про структуру каталогов, какие команды вводить, описание всех этих команд, что за чем идёт, каков порядок, описание логики работы critical-css, которого нет вообще практически ни у кого в мире.
+ там в комплекте идут часто используемые мной js-плагины (в том числе, которые я сам писал для себя), у которых стили интегрированы в sass-структуру каталогов.
Без какого-либо описания сами вы там вряд ли разберётесь. А описывать сейчас всё это мне не хочется, извините)
Вот та же история. Грант меня просто вымораживал своей тупостью и тормознутостью. Он мне sass компилировал по 10-13 секунд. Это просто ад какой-то был. Воистину, gulp — это глоток свежего воздуха.
Но здесь есть другие факторы. Если я их буду расписывать, то ты снова скажешь, что seo — это шаманство xD
Оу. Мой косяк. Признаю был не прав.
Но почему-то у меня прочно сидит в памяти картинка с раскрытым запросом в файрбаге одного из установленных счётчиков на каком-то сайте, у которого в теле запроса был контент всей страницы. Хз, почему в своей голове я связал это с метрикой. Но, повторюсь, ошибку признаю, ушёл в угол)
Но, справедливости ради, стоит отметить, что яндекс.браузер юзает технологии оперы.турбо, пропуская весь пользовательский траффик через себя. Чтобы этот траффик сжимать. Ага-ага.
Ставлю десятку, что по умолчанию эта функция в их браузере включена.
Понятное дело, что с https это не прокатит, но ведь и https-сайтов в рунете не так много.
Вот последняя фраза — ключевая.
Кстати, по поводу того, за что должен платить клиент.
Есть в ру-seo-мире такой персонаж как Арбайтен. Он эту тему раскрыл очень подробно.
К слову, читая его статьи, нужно быть готовым к тому, что он делает кучу грамматических ошибок, много матерится и, самое главное, — к тому, что он принципиально делит мир на белое и чёрное, не давая шанса другим цветам радуги. Делает он это специально, чтобы его позиция дошла до большего количества людей и провоцируя аудиторию на дискуссию.
Честное продвижение сайтов – единственное и неповторимое
Какая мотивация и премиальные у сеошников при продвижении клиентских сайтов
Самый эффективный вид продвижения сайта для клиента
Продвижение сайта за процент от продаж – вся правда
Продвижение сайта за процент с продаж – 2 часть
Продвижение сайта на процент от продаж – ищем совместное решение
Продвижение сайта за процент от продаж – Окончание
Я тоже предложил, только предлагал долго)
Я же говорю, хотел пройти мимо, но не удержался))
Но спасибо! С этой фразы в голос смеялся xD
modx.pro/howto/5139-super-modx-strict-seo-accelerated-frontend/
Вот прям в тему сегодняшняя статья:
habrahabr.ru/post/253943/
Нигде урлов на документы нет, но они всё-равно в индексе. Странно, да?)
Ссылки с сайтов — не единственный источник урлов для поисковых систем.
Была как-то пару лет назад история с метрикой примерно следующего содержания:
У какого-то крупного ресурса есть страницы закрытого раздела (типа личного кабинета). К этим страницам доступа без логина/пароля нет. Из вне отдавалась 403/401 (не суть).
Суть в том, что в индексе яндекса оказались тысячи страниц с личными кабинетами тысяч пользователей.
Т.е., понятное дело, что ссылки из выдачи яндекса вели на те самые закрытые разделы, которые для незалогиненного на этом сайте пользователя отдавали страницу входа (или типа того), но в кеше поисковика были полностью скопированные страницы личных кабинетов — с фио, адресами, историями покупок. Аааа! Вспомнил! Тема усугублялась тем, что то был не просто сайт, а магазин с интим-товарами xD
Тема ищется на хабре (мне лень искать, честно). Так вот, там, на хабре, начали копать и выяснилось, что в индекс попали только те из закрытых страниц, на которых была установлена яндекс.метрика. Оказывается яндекс молча решил отправлять в индекс то, что ему захочется, но вот всех остальных он об этом как-то забыл предупредить. На свои сервера он отправлял не просто урлы, а копии html, из-за чего случился тот самый казус.
После этой истории в настройках счётчика появилась опция включения запрета на индексацию: help.yandex.ru/metrika/code/stop-indexing.xml
К слову сказать, хитрожопый яндекс спрятал эту опцию в блоке «Дополнительно» (который в исходном состоянии «закрыт») и сделал её по умолчанию отключённой:
Что как бы намекает на то, что у тысяч, а может быть и у сотен тысяч пользователей, эта настройка останется выключенной и яндекс с чистой совестью продолжит индексировать то, что ему захочется.
А знаете, в чём прикол?
В том, что и на modx.pro, и на modstore.pro (в т.ч. в личном кабинете) — везде установлена метрика, у которой отключена эта настройка! Т.е. юридически вы разрешили яндексу индексацию личных кабинетов пользователей. Вот ведь какая ирония xD
Понятное дело, что яндекс с тех времён стал поумнее и страницы, которые не запрещено индексировать и при этом отдают 403/401/etc, — он в индекс не засунет.
Это, опять же, к слову о том, почему важны правильные коды ответов сервера и которые на том же fl.ru, скорей всего, были некорректно настроены из-за чего приватные документы и попали в индекс.
Однако это не говорит о том, что он эти данные не использует в своих бигдата и датамайнингах. К слову сказать, если ту настройку выключить, то всё-равно нет гарантии, что зыкрытые страницы не отправляются на сервера яндекса. В индекс-то они не попадут, да. Но вот данные о таких страницах яндекс может бережно складировать для дальнейшего анализа. Тут надо код метрики анализировать и пользовательское соглашение читать (чтобы быть уверенным либо нет), но кто это делает?
И вот в подтверждение моих слов — на modstore.pro метрике разрешено индексировать все страницы сайта. Но личный кабинет закрыт, все его страницы отдают 401 и поэтому этих страниц в индексе нет.
Кроме одной — страницы создания тикета в техподдержку modstore.pro/cabinet/tickets/ticket
Почему? Потому что она единственная из всех закрытых страниц отдаёт код 200 ОК. Поэтому и в индексе. Благо хоть в кеше лежит версия для неавторизованных пользователей, что вселяет надежду на то, что исходные коды html всё-таки не отправляются (хотя я бы не тешил себя иллюзиями).
Такая вот история.
Поэтому, +1 к источникам данных о страницах и их урлах для поисковиков.
Но есть и ещё один источник. Вы думаете гугл и яндекс пилят свои браузеры просто потому что могут? Ха!
Браузеры пилятся для абсолютно тех же целей — сбор максимально возможной информации о пользователях и сайтах. Вот только в браузерах никаких подобных настроек нет. Ну может быть есть что-то про отправку анонимной статистики, но я не проверял. Лиса — наше всё.
Конечно должен. И как раз в вебмастере и показывает. Но ты их не видишь, потому что на modx.pro неканонические урлы редиректят на канонические, к примеру modx.pro/topic редиректит на modx.pro/topic/
Поэтому у modx.pro дублей практически и нет.
Вась, но я давно уже понял — в контексте seo ты судишь обо всех сайтах на основе своих собственных показателей, что в корне неверно — выборка-то нерепрезентативна! xD
И если ты не сталкивался с подобными проблемами, это же не значит, что у других их нет, верно?)
Как-то ты плохо искал)
И как обычно передёргиваешь)
Смысл в том, что советы действенные, вот только ручками особо не анализируешься. Поэтому такие советы автоматизируются. Для гугла, например, нужно собрать всё страницы в основном индексе, потом все страницы из «соплей» (supplemented index).
Да, у гугла 2 индекса — основной, который и есть основная выдача и дополнительный, в котором содержатся проиндексированные, но по какой-то причине не попавшие в осной индекс, страницы. Например из-за того, что это дубликат)
А потом оба этих массива анализируются по нескольким параметрам и выявляются дубли.
Но это плохой метод, анализ следствия ткскзать, а не причины. Для полного анализа дублей используются XENU, PageWeight или онлайн сервисы.
И какой-нибудь небольшой самописный парсер/граббер/api в виде мини-компонента, который бы по крону тянул с сайта-каталога данные по товарам/ценам/остаткам/изображениям, установил бы его на оба сайта.
Если всё происходит на одном сервере, то можно парсить товары не через curl, а напрямую из базы соседнего сайта-каталога.
Итого — 1 сайт-каталог, специально для администрирования товаров. И 2 других — со своими методами оплаты, чем угодно, но дерево товаров на которых идентичны и берутся из основного сайта по расписанию. Вроде логично
Сокращай вопрос, а то деталями прям завалил. Народ аж потерялся и не знает что ответить.
В идеале сократи до «Помогите!». Всё. Больше ничего писать не нужно. Этого будет достаточно, не будет такой перенасыщенности техническими нюансами и сразу найдётся тот, кто сможет тебе помочь.
Просто пока они мне не нужны были, а понадобятся тогда, когда свой интернет-магазин делать буду. А этого в ближайших планах нету
А мне нужно-то было всего лишь добавлять/удалять классы у нужных пунктов меню, учитывая всякие всплытия, клики не по "li", а по "a" и прочие стандартные вещи и работа с dom для такого рода плагинчиков.
На jQ это проще пареной репы — всё api задокументировано (обожаю вот эту страницу), всё прозрачно, $() жрёт что угодно и ни где ничего не ломается. А на ext'е, в этом плане, всё гораздо печальнее.
Т.е. я хочу сказать, что ExtJs как фреймворк — мощный и функциональный. Но как библиотека для работы с dom:
:-)
Но для меня всё-равно остаётся загадкой — как можно строить не умея адекватно ориентироваться в построенном. Это же не просто — построил dom-дерево один раз и забыл. Динамика UI как никак должна подразумевать адекватное сопровождение постороенного дерева. Но нет.
Тем более при наличии могущественного $(), который существует уже лет 9, уж можно было сделать что-то аналогично универсальное.
Позволю себе процитировать:
А меню не ext'овым разработчики сделали специально, кмк. Просто бывает так, что в каком-нибудь контроллере закралась ошибка и падает вся админка. Но меню при этом остаётся полностью рабочим, ибо к ExtJS'у это меню отношения не имеет.
Указываете в секундах? Или милисекундах? Там можно дробные числа писать, хоть через точку, хоть через запятую.
Но вообще я эту опцию добавил просто чтобы было. По факту — она нахрен не нужна, ибо эта анимация — одна из причин, почему я и написал этот плагин. Хотя можно было бы оставить просто выключатель Да/Нет :)
Важно не только то, чтобы было понятно. Лучше всего, чтобы было чётко и по пунктам. Если что-то уже есть, то напишите об этом (к вопросу о карме). Чем точнее (без "остальное в личке" и "всякие мелочи") будет сформулировано тз, тем больше исполнителей смогут откликнуться.
Ну и удачи вам :-)
Каким параметрам? Нужно сохранять с фронта строковые данные с возможностью поиска по ним? Или производить синтаксический анализ текста, чтобы раскладывать по параметрам в нужные ячейки таблицы? Ответов нет.
Какие мелочи? Какие прочие? Как много их будет? Что ускорять? Что улучшать? Какие готовые решения? Для чего эти решения? Ответов нет.
Ни хрена он не раскрыт. Какой-то абстрактный сумбур.
Особенно доставило "прочие мелочи" и "Остальное при личном общении".
Аппетит придёт во время еды и за эту тридцатку в "личном общении" выяснится, что нужно сделать новый авито или экзист. Без внятного тз ставлю 72,8% вероятности, что так и будет.
Поэтому не удивляйтесь, что никто не откликнулся. Никто даже не захотел тратить времени, чтобы задать уточняющие вопросы, ибо это просто какой-то поток сознания.
p.s. и да, я не потенциальный исполнитель, поэтому отвечать на этот комментарий не обязательно.
А лучше лождитесь спать, отдыхайте, а завтра я вам точно скажу названия таблиц и столбцов. Где-то после обеда.
И завтра же подумаем как нормпльно завести это плагин на вашем сайте)
Так вот там PayAnyWay занял первое место. Уж не знаю на сколько тот обзор неаффилирован, ибо всеми агрегаторами не пользовался, приходится верить на слово.
seomagia.ru/article/money/payment-service.html
Кто может подтвердить — реально ли PayAnyWay настолько хорош?
Если да, то не понимаю, почему ваше дополнение не вызвало здесь никакого ажиотажа. Наоборот, должно быть довольно востребованым.