The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

В ядро Linux предложено включить распределённое реплицируемое блочное устройство DRBD 9

06.04.2026 22:26 (MSK)

Для ядра Linux предложен набор патчей с реализацией распределенного реплицируемого блочного устройства DRBD 9, позволяющего создать подобие массива RAID-1, сформированного из зеркалируемых по сети накопителей, подключённых к разным системам. Драйвер намерены вначале протестировать в ветке linux-next и довести до готовности к интеграции в состав ядра Linux 7.2.

Старый вариант DRBD поставляется в ядре начиная с версии 2.6.33, выпущенной 16 лет назад. Имеющийся в ядре код основан на ветке DRBD 8, которая существенно отличается от ветки DRBD 9, выпущенной в 2015 году и не совместимой на уровне протокола. Получилось так, что ветка DRBD 9 развивалась в форме отдельного внешнего модуля, не синхронизированного с модулем из основного состава ядра. Имеющаяся в ядре реализация DRBD сопровождалась отдельно и отстаёт от актуальной кодовой базы DRBD на 10-15 лет. Предложенные патчи созданы для устранения образовавшегося разрыва.

DRBD даёт возможность объединить накопители узлов кластера в единое отказоустойчивое хранилище. Для приложений и системы такое хранилище выглядит как одинаковое для всех систем блочное устройство. При использовании DRBD все операции с локальным диском отправляются на другие узлы и синхронизируются с дисками других машин. В случае выхода из строя одного узла, хранилище автоматически продолжит работу за счёт оставшихся узлов. При возобновлении доступности сбойного узла, его состояние будет автоматически доведено до актуального вида.

В состав кластера, формирующего хранилище, может входить до 32 узлов, размещённых как в локальной сети, так и в территориально разнесённых центрах обработки данных. Синхронизация в подобных разветвлённых хранилищах выполняется в форме mesh-сети - данные растекаются по цепочке от узла к узлу. Репликация узлов может производиться как в синхронном режиме, так и в асинхронном. Например, локально размещённые узлы могут применять синхронную репликацию, а для узлов на удалённых площадках может применяться асинхронная репликация с дополнительным сжатием и шифрованием трафика.

Ветка DRBD 9 отличается абстрагированием транспортного уровня, позволившим реализовать каналы связи не только поверх TCP/IP, но и с использованием RDMA/Infiniband. По сравнению с работой поверх традиционной IP-сети, интеграция прямого доступа к оперативной памяти другого компьютера при помощи RDMA (Remote Direct Memory Access) позволила удвоить производительность репликации при сокращении нагрузки на CPU на 50%. Максимальный размер синхронизированного хранилища увеличен до 32 узлов. В DRBD 9 также изменена логика ресинхронизации узлов, переработан механизм установки блокировок, добавлена поддержка пространства имён сети (network namespace), обеспечена автоматическая установка статуса узла в зависимости от активности, добавлена поддержка двухфазных коммитов и распространения обновлений в неблокирующем режиме.



  1. Главная ссылка к новости (https://lore.kernel.org/lkml/2...)
  2. OpenNews: Открыт код распределённой файловой системы 3FS, используемой в DeepSeek
  3. OpenNews: Открыт код распределённой файловой системы TernFS
  4. OpenNews: Первый публичный выпуск распределённой файловой системы JuiceFS
  5. OpenNews: Обновление кластерной файловой системы LizardFS 3.13.0-rc2
  6. OpenNews: Компания Versity открыла исходные тексты файловой системы ScoutFS
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/65158-drbd
Ключевые слова: drbd, kernel, linux
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (74) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, pashev.ru (?), 23:03, 06/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Nvmesh-капец?
     
  • 1.2, Аноним (2), 23:05, 06/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +10 +/
    Звучит надёжно и безопасно.
     
     
  • 2.15, Аноним (15), 00:40, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    > Имеющийся в ядре код основан на ветке DRBD 8, которая существенно отличается от ветки DRBD 9, выпущенной в 2015 году и не совместимой на уровне протокола.

    "не совместимой" - по другому никак видать.

     
  • 2.23, Аноним (23), 07:13, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • –6 +/
    Внимательно читайте.
    >  из зеркалируемых по сети накопителей, подключённых к разным системам

    о надежности такой конфигурации можно только фантазировать.

     
     
  • 3.44, Аноним (44), 11:37, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +4 +/
    Опеннет совсем разучился в сарказм....
     
  • 2.38, andreyche (?), 09:36, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +2 +/
    А на деле - нет.
    Настрадался я в свое время с этим поделием, split brain например
     
     
  • 3.43, Aliech (ok), 11:27, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Ставил в прод, обвязал кучей скриптоты, хорошо работало. Возможно дело в том, что перед внедрением были произведены изучение и обкатка?
     
     
  • 4.47, andreyche (?), 12:23, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    внедрял модный интегратор, собрал из этого говна и палок "кластер" виртуальных машин, а я потом гребся с этим
     
  • 4.49, andreyche (?), 12:24, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    там было corosync, pacemaker еще что-то, насколько помню, это давно было, может оно сейчас и получше
     
     
  • 5.53, Aliech (ok), 12:41, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    У меня наблюдения из 2014го. И нет, от использования pacemaker я отказался, так как его реакция не учитывала особенности поведения drbd. И реакция pacemaker'а не была столь оперативной, как хотелось бы. Задача была решена самописными демонами на perl'е и регулярками. И хорошо решена. Кластер выдержал несколько смертей нод, ничто не развалилось.
     
     
  • 6.56, Аноним (56), 13:39, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Задача была решена самописными демонами на perl'е и регулярками.

    "Linux. Linux не меняется..."

    Без напильника с надфилёчками и наждачкой всё ещё никуда...

    Кто-то это ставит в жирный плюс, кто-то - в жирный минус. Ничего не меняется.

     
     
  • 7.57, Aliech (ok), 14:21, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    > Без напильника с надфилёчками и наждачкой всё ещё никуда...

    Не надо передёргивать. Выше обозначен 2014год. Больше десяти лет назад, на секундочку. Кроме того, речь об распределённом по сети блочном устройстве. Это что-то про кластеры, а значит явно не базовый уровень мамкиных сисадминов, где встречаются эксплуатанты с около нулевыми познаниями в вопросе.

    Кроме того, не совсем понятно, чем софт написанный на perl'е не хорош? Речь же не о скриптах, вызываемых из cron'а (где возможен лаг, где есть лишние движения на выполнение скриптов). Речь о демоне, делающем, практически, всё то же, что pacemaker какой-нибудь, просто более специализированный и лучше решающий конкретную задачу. Специализированный софт, фактически...

     
     
  • 8.80, пох. (?), 19:39, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    озвучьте все улучшизмы в этой поделке с 2014го года Может в ней появился встрое... текст свёрнут, показать
     
  • 4.84, Васян Айтишник (?), 20:22, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Да не, бессмысленная поделка. Единственное применение это какие-нибудь системы из каменного века, которые сами ничего не умеют. Вам в любом же случае ещё ФС нужна кластерная типа OCFS, которая сама то ещё поделие.

    За 20 лет работы с подобным шлаком я понял одно: ВСЕГДА. ИСПОЛЬЗУЙ. РОДНУЮ. РЕПЛИКАЦИЮ. Если родной репликации нет, стегай SWE, пусть приделывают. Считай история успеха, отказались от DRBD и жили богато (счастливые клиенты) и счастливо (меньше инцидентов).

     
  • 2.63, Аноним (63), 17:26, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    >Звучит надёжно и безопасно.

    Данные (и команды) из сети прямиком в ядро это безопасно?
    Звучит надежно пока не озвучивают всё.

     
     
  • 3.77, Аноним (2), 18:29, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    NFS это не мешает. А так, RDMA в интернет вообще не смотрит, и тут больше беспокойства о том, что будет с файлами в нештатной ситуации.
     

  • 1.7, Аноним (7), 23:31, 06/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • –7 +/
    А что проект Linux уже с беспределом в блочном слое разобрались, LVM2 BRFS и предлагаемый сабж в единый слой LVM3 интегрировали? Нет?! Ну так может сначала этим заняться, BTRFS, BCacheFS, Reiser4 и остальные ФС поверх него портировать, а уже потом новые свистелки и перделки добавлять?
     
     
  • 2.12, Admino (ok), 23:42, 06/04/2026 [^] [^^] [^^^] [ответить]  
  • +18 +/
    Опять в интернете кто-то делает не то, что ты хочешь.
     
     
  • 3.32, anoName (?), 08:43, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    не в интернете а в ядре
     
  • 3.45, aname (ok), 11:51, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Да ещё и бесплатно
     
  • 2.18, Аноним (18), 02:52, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • –3 +/
    С этим уже никто из корпоратов разбираться никогда не будет. 90% нагрузки может жить на ридонли squashfs рутфс и ebs с nvme over tcp для любых дисков (колючая sata/sas hdd).
    Все эти lvm де-факто померли или живут только на рабочих станциях, остался ebs/efs + любая ридонли для рута.
     
     
  • 3.21, nikweter (?), 05:41, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • –1 +/
    чет не понял. у меня в селектеле сервер на дебиане. как там ebs настроить?
     
     
  • 4.29, User (??), 07:49, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +1 +/
    А тебе и не надо - главное, чтоб селектел понимал
     
     
  • 5.36, Аноним (36), 09:23, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Мне кажется в селектеле скорее Ceph
     

  • 1.8, Аноним (8), 23:32, 06/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    Звучит как теневая услуга. Есть специализированные продукты, когда надо. Подкопы на автономность участились.
     
     
  • 2.24, Аноним (23), 07:14, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    > Подкопы на автономность участились.

    В этом смысл затеи.

     

  • 1.10, Аноним (7), 23:36, 06/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    vblade, не?
     
     
  • 2.42, Aliech (ok), 11:25, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Нет. vblade - это AoE. Зашарить блочное устройство по-быстрому, проще говоря. А тут прям комбайн, да ещё с транспортом в виде TCP/IP, а теперь ещё и с IB/RDMA.

    Если сравнивать и принять AoE (vblade) за кофемолку, то DRBD - это кофемашина. Притом у неё ещё есть куча нюансов обслуживания, у машины этой.

     

  • 1.11, Аноним (11), 23:37, 06/04/2026 Скрыто ботом-модератором [﹢﹢﹢] [ · · · ]     [к модератору]
  • +/
     
  • 1.13, Аноним (13), 23:46, 06/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • –3 +/
    > интеграция прямого доступа к оперативной памяти другого компьютера при помощи RDMA (Remote Direct Memory Access)

    звучит как очередная дырень

     
     
  • 2.14, Michael (??), 00:26, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Это для вычислительных кластеров, там пофиг
     
     
  • 3.16, Аноним (15), 00:42, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +1 +/
    но будет сайд-эффект и на ПК
     
     
  • 4.26, Аноним (26), 07:25, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Не загружайте этот молуль на ПК или вообще не собирайте.
     
     
  • 5.33, anoName (?), 08:44, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +3 +/
    красношляпка за тебя соберёт
     
     
  • 6.46, Анононим (?), 12:09, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    красношляпа ССЗБ
     
  • 6.60, Аноним (60), 16:11, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Проблемы адептов Красношляпки.
     
  • 5.50, Аноним (15), 12:31, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    > В ядро Linux предложено включить
     
     
  • 6.61, Аноним (60), 16:12, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Ясно, что предложено. Но make nconfig ведь есть.
     
  • 3.62, Аноним (63), 17:24, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    >там пофиг

    В этом дырявом кластере будут хранится твои чувствительные данные.

     

  • 1.17, Круз (?), 02:49, 07/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    как выключить?
     
     
  • 2.27, Аноним (26), 07:26, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • –2 +/
    make nconfig
     

  • 1.19, Джон Титор (ok), 03:05, 07/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Вообще идея не плохая.
     
  • 1.22, Аноним (22), 07:12, 07/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    А зачем это всем в ядре?
     
     
  • 2.51, Аноним (15), 12:32, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Чтобы ты не мог просто так взять и выключить модуль.
     

  • 1.25, _ (??), 07:15, 07/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    У меня в проде было, на RHEL8. Одна румынская архитекторша с-архитектила 8-\
    Очень опасался, но Linbit-ы - молотки! Всё работало как обещали.

    PS: Саппорт-контракт есссссно.

     
     
  • 2.31, User (??), 08:09, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Linstor-то? Чому-б не?
    Он сейчас достаточно часто в импортозамещландии встречается - у меня и на-в-кубе есть, и на spacevm (Э-хе-хе...) прописался. Если выбирать между ним и вот ceph\gluster на некрупных инсталляциях выбор некоторым образом немножко так очевиден :)
     

  • 1.30, Аноним (30), 07:58, 07/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • –5 +/
    у drbd надежность отрицательная в случаях сбоях при репликации убивает обе копии.
     
     
  • 2.64, _ (??), 17:34, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    That very depends on your /dev/hands :-)
    If they are nested under /dev/a** - yep, it could be a prob.

    I was not 100% sure how to configure it _properly_for_prod_. We contract Linbit folks. And their setup still works reliably. RHEL fencing - this is a problem, drbd - is NOT!

    PS: BTW - you can't make a good cluster on crappy HW. Unless it VAX of course :-)

     
     
  • 3.67, Аноним (63), 17:41, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • –1 +/
    >That very depends on your /dev/hands

    Этого достаточно, чтобы развивать как модуль. Если не взлетело, то зачем принудительно тащить в ядро?

     
     
  • 4.74, пох. (?), 17:57, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    из-за шта6ле нонсенса

    невозможно никакой линбите угнаться за ежедневно ломаемыми апи. Приходится соответствовать.

     
  • 4.83, _ (??), 20:13, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    >> That very depends on your /dev/hands
    > Этого достаточно, чтобы развивать как модуль.

    Same applied to iptables - you can easily hung up yourself if submit stupid rule ... and what? It is a fact - it is inside in kernel, and that's how it is!

    Why network-storage-thingy can't be there? Just because you don't like it? Huh? ;-)

     
  • 2.73, пох. (?), 17:55, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    > у drbd надежность отрицательная в случаях сбоях при репликации убивает обе копии.

    ну вот же - отреплицировалось, чем ты недоволен?!

     

  • 1.34, Аноним (34), 08:52, 07/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • –5 +/
    Ссыкотно при сбоях, "управлямее" выглядит передача zfs/btrfs снепшотов по крону
     
     
  • 2.68, Аноним (68), 17:43, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    а палка надежнее смартфона, у нее батарейки нет и ронять не страшно, только звонить она не умеет, каждому свое
     

  • 1.35, Аноним (22), 09:04, 07/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • –2 +/
    Объясните знающие люди, вот этот сабж является причиной что с обновлениями ядро пухнет и тяжелеет на локалхосте. Или в типичном условном дистрибутиве, например в федоре, эти и другие подобные непотребности вырезают на стоковом ядре?
     
     
  • 2.41, eugener (ok), 10:10, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Нет, не вырезают. Другое дело, что эти модули не загружаются в память, если они не используются.
    Так что просто занимают место на диске. В последние несколько лет их начали сжимать zstd, так что в Ubuntu 22.04 (ядро 5.15) они ещё несжатые занимают на диске 440 МБ, а в 24.04/6.8 — всего 143 МБ.

    Конечно, если вы сами собираете себе ядро, то можно поубирать лишние галочки в menuconfig.

    PS: не только не вырезают, но ещё и своё накидывают, например zfs в несколько мегабайт.

     
     
  • 3.52, Аноним (15), 12:34, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    > эти модули не загружаются в память

    Наивное предположение.

     
     
  • 4.54, eugener (ok), 12:43, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Легко проверяется командой lsmod.
     
     
  • 5.59, Энтомолог_русолог (ok), 15:16, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Тебе местные аноны сами выдумывающие теории заговора пояснят, что lsmod специально пропатчен, что бы скрыть модуль и это заговор RH и рептилоидов
     
     
  • 6.76, Аноним (15), 18:10, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • –2 +/
    > lsmod специально пропатчен

    А для тебя такой наводящий вопрос: можешь по выхлопу lsmod сказать, где физически находится модуль на диске? Хинто: а где вообще могут находиться модули?

     
  • 5.75, Аноним (15), 18:07, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Боюсь спросить у тебя: ты в курсе, что показывает lsmod?
     
     
  • 6.78, eugener (ok), 18:32, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +1 +/
    lsmod is a trivial program which nicely formats the contents of the /proc/modules, showing what kernel modules are currently loaded.

    Врядли может быть много толкований данного текста.

     

  • 1.37, Аноним (36), 09:26, 07/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    DRDB9 Кто то пользуется (не холивара ради)?
    Насколько я знаю для таких вещей обычно ceph разворачивают.
    Покрайней мере в той же VK ceph используют.
     
     
  • 2.71, пох. (?), 17:55, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    > DRDB9 Кто то пользуется (не холивара ради)?

    z-virt насколько я понимаю не пользуется девятым но очень бы хотел. И тут им карта-то и поперла...

    > Покрайней мере в той же VK ceph используют.

    поэтому он такой чудовищный тормоз.

     

  • 1.40, Константин (??), 09:52, 07/04/2026 Скрыто ботом-модератором [﹢﹢﹢] [ · · · ]     [к модератору]
  • –3 +/
     
  • 1.55, похнапоха (?), 13:08, 07/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Первый раз столкнулся с DRBD в 2007, когда был нужно виртуализировать легаси апликухи, которые использовались рабочими на постах в цехах, и избавиться от серваков на P2. Функционал планировалось в итоге через пару лет внедрения SAP перенести именно туда. Зказали новые hp proliant, накатили лицензионный esxi, подняли по виртуалке на каждой, datastore на внетрунних дисках, подняли VM-ки с SLES, на них drbd, в режиме active-standby, настроили NFS, NFS монтировался в esxi как datastore на который перенесли легаси VM-ки. И это бли дейсвтительно легаси - Linux kernel 2.0.x, черт возьми. В случае падения одного узла drbd переключалась из standby в active, монтировался datastore и зпускались VM-ки.
    Это был огромный завод, это всё работало безотказно пока внедряли SAP, но всё-таки решили не тратить усилия и оставить этот функционал крутиться дальше. И оно крутится. Хвала DRBD, выручил тогда
     
  • 1.58, EuPhobos (ok), 14:32, 07/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Ну если хочется так заморочится, что мешает подключить несколько сетевых nbd устройств, и объединить их через mdadm ?
     
     
  • 2.66, _ (??), 17:41, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    DRBD have list of achievements, installations in PROD with serious customers.
    May be "несколько сетевых nbd устройств, и объединить их через mdadm" is same good but ... who is brave enough to risk the job and reputation to check? ;-)

    PS: "Nobody get fired buying IBM!"(C) and all this

     
     
  • 3.72, Аноним (63), 17:55, 07/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    DRBD достаточно абстрагируется от типа устройства на различных хостах? Может искать секрет в корпоративной принудиловке поставщика?
     

  • 1.65, Аноним (63), 17:40, 07/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Это нужную не всем фичу переносят в ядро из модуля, чтобы "добровольно - принудительно" развивали.
     
  • 1.70, пох. (?), 17:53, 07/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    и да, у зетников из Zvirt сегодня праздник.

     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2026 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру