3 часа назад
Я бы не стал сильно рассчитывать на бесплатность исходящего трафика. Давно пользуюсь бакетами на timeweb и за это время 3 раза то вводили оплату за тр...
Modhost и облачное хранилище S3 (timeweb cloud) 5
Вчера в 15:36
Добрый день! Не нашлось времени глянуть что там?
YaSmartCaptcha - защитите ваши формы от спама умной капчей от Яндекс 26
Вчера в 15:16
Удалил компонент Ace и вот уже 2 недели чисто на сервере, возможно где-то в нем уязвимость
Вирусы майнеры 34
Вчера в 13:21
При добавлении записи вылезает ошибка:
SocialNetworksItem_err_saveВ логах вот такая ошибка:
[2025-06-17 10:14:14] (ERROR @ C:\webserver\doma...
SocialNetworks 19
15 июня 2025, 12:39
Из названия таблицы кажется очевидным её назначение: записывать просмотры тикетов. Если просмотры нигде не фигурируют можешь чистить хоть каждый день....
Что делает в Tickets таблица tickets_views? 1
13 июня 2025, 14:47
Все проще, ИИ просто выдумывает. Он чтобы дать ответ придумывает, то чего не было.
PageBlocks стал ещё мощнее — теперь с пагинацией, сортировкой и фильтрацией 23
11 июня 2025, 17:29
Компонент создан для MODX2 и MODX3. Загрузил в репозиторий, жду модерации.
Проверка на новые файлы с уведомлением в телегу 9
Тем не менее, предложенный вами вариант формирования ХК на одном сайте «не сработал» (повторно перепроверял … ни в какую… ). Спасибо за предложенный вами вариант замены на но в этом случае получаю ошибку Буду благодарен за совет, как от нее избавится.
2. По поводу того, что «на всех нормальных сайтах в ХК просто напросто нет текущего элемента» — не соглашусь. Например, на многих «нормальных» сайтах установлен SeoFilter, в котором «стандартный функционал заточен под чанк tpl.SeoFilter.crumbs.current, который идёт в комплекте. Для тех, кто использует pdoCrumbs, достаточно указать параметр в вызове сниппета: &tplCurrent=`tpl.SeoFilter.crumbs.current`»
Не стоит забывать, что уровень технических знаний у нас всех разный и кто-то (как, например, я) воспользуется документацией SeoFilter. Правда, чтобы добиться семантически правильных ХК, мне пришлось изменить tpl.SeoFilter.crumbs.current
Возможно @Евгений Шеронов или кто-то из «старших товарищей» исправит и этот «говнокод» — к сожалению, других «правильных» вариантов мне найти не удалось.
В предложенном @iWatchYouFromAfar варианте, валидатор микроразметки выдавал предупреждение, что у первого элемента хлебной крошки («Номе») в коде нет атрибута itemprop=«item». Ошибка пропала при замене в 'tplHome' на Возможно, «костыль», но рабочий)
Феном не работает, но вполне рабочий
Подскажите, пожалуйста, это штатная работа компонента или я что-то делаю не так (в шаблоне товара проверка работает)?
Проблема возникает, если в категории выводятся товары из другой категории. Реальный пример — в основной категории (в которой идет подсчет компонентом) находятся 7 товаров + с другой категории отображается — 3, таким образом всего — 10 (mFilter2 тоже подчитывает — 10). А вот компонент в этой ситуации выводит — 13
Подскажите, пожалуйста, как вывести именно количество товаров в данной категории (включая товар без указаной стоимости, например — под заказ).
Но у меня есть вопрос именно по работе xParser — при запуске задания обрабатываются (копируются) ровно 20 записей, хотя в конфигурации указано от 1 до 100 (все 100 записей в коде страницы донора есть, пагинация отсутсвует).
Проблема решается перезарузкой в браузере страницы с запущенным заданием, изменением кофикурации (указываем с 20 до 100) и повторным запуском xParser. При этом он обработает (скопируют) следующие 20 записей (с 20 по 40). В логе ошибок нет, как будто парсер просто «зависает».
Перечитал документацию, комментарии — нигде об этой особенности не упоминается. Может отработка по 20 заданий специально предусмотрена для работы через крон?
но в XPath мне так и не удалось получить значение поля content в метатеге «description» (пробовал разные вариации).
Например
Пишем «регулярку»
Проверяем на валидность, все работает
Вставляю «регулярку» в xParser — пусто.
Пример относительных URL донора на полную версию новости:
вместо абсолютных:
При попыке выполнить задание, xParser вполне обосновано пишет в лог ошибки-