Как Добиться Репликации С Нулевым Rpo На Больших Расстояниях



Что такое SLD и зачем он нужен? Одной из важнейших задач ИТ-подразделения предприятия является защита данных от различных внешних факторов, таких как пожар, землетрясение, наводнение и другие стихийные бедствия.

Традиционно для этого используются различные технологии репликации данных.

Однако обычно репликация позволяет синхронизировать (с тем или иным значением RPO) один и тот же набор данных только между двумя дата-центрами.

И для многих клиентов этого вполне достаточно.

Для многих, но не для всех.

Если заказчику требуется нулевой RPO, необходимо использовать синхронную репликацию.

Однако синхронная репликация позволяет располагать дата-центры на расстоянии около 100 км друг от друга.

В случае серьезной катастрофы или просто если два дата-центра расположены слишком близко друг к другу, оба дата-центра могут быть одновременно повреждены и данные будут потеряны.



Как добиться репликации с нулевым RPO на больших расстояниях

Итак, если предприятию необходимо обеспечить исключительно высокий уровень защиты данных, а именно:

  • репликация одного и того же набора данных между тремя дата-центрами,
  • нулевой RPO в случае выхода из строя любого из 3 центров обработки данных,
  • продолжение работы в случае последовательного выхода из строя любых двух дата-центров,
— для таких требовательных клиентов мы можем предложить специальное решение: HPE 3PAR Synchronous Long Distance (SLD).

SLD — это репликация на большие расстояния без потери данных.

Ниже я постараюсь объяснить, как это работает.

Какие типы репликации поддерживаются?

Для начала хочу напомнить, какие типы репликации и какие топологии поддерживает семейство массивов HPE 3PAR StoreServ .

Массивы 3PAR StoreServ поддерживают 3 режима репликации (Удаленное копирование):

  • синхронный режим (RPO=0);
  • асинхронный периодический режим (мин РПО=5 мин);
  • режим асинхронной потоковой передачи (Asynchronous Streaming) (RPO около 10 сек).

Если синхронный режим, надеюсь, не требует пояснений, то для асинхронных кратко опишу, как они работают:
  • асинхронный периодический режим: тома синхронизируются с помощью снимков, созданных через заданный интервал времени; В удаленный массив реплицируются только новые блоки, содержащиеся в новом снимке по сравнению с предыдущим снимком;
  • асинхронный потоковый режим: новые блоки накапливаются в локальном массиве в течение короткого периода времени (измеряется в долях секунды), а затем реплицируются на удаленный массив.

Добавлю к этому, что во всех 3-х режимах, естественно, сохраняется целостность данных при репликации.

В качестве транспортного уровня для репликации можно использовать следующие 3 варианта:

  • Удаленное копирование по Fibre Channel (RCFC) – порты FC массива используются для репликации, а сеть FC – в качестве каналов передачи данных;
  • Удаленное копирование по интернет-протоколу (RCIP) — для репликации используются встроенные IP-порты массива (1GbE или 10GbE — в зависимости от модели массива), а в качестве каналов передачи данных используется IP-сеть;
  • Удаленное копирование через FCIP (Fibre Channel через IP) — FC-порты массива используются для репликации, а IP-сеть — в качестве каналов передачи данных.

    FCIP предполагает использование дополнительных преобразователей (шлюзов) протоколов FC-IP.

И, наконец, поддерживаемые топологии/конфигурации репликации:
  • Один к одному : Репликация осуществляется только между двумя массивами;
  • Многие ко многим : N массивов могут реплицировать данные в другие M массивы.

    Максимальные значения на сегодня для N и M =4. Пример такой конфигурации показан на рисунке ниже:



Как добиться репликации с нулевым RPO на больших расстояниях

Рисунок 1. Конфигурация репликации «многие ко многим».

Каждый массив реплицирует данные в 4 других массива.

Все направления репликации могут быть двунаправленными.

Здесь речь идет, конечно же, о репликации разных наборов данных (томов) на разные массивы.

  • Синхронный междугородний (SLD) — специальный режим репликации, позволяющий одновременно реплицировать один и тот же набор данных (томов) с одного массива на два других массива.

    Именно этот режим репликации мы подробно рассмотрим ниже.



Как работает СЛД

Итак, СЛД – это:
  1. Одновременная репликация группы томов с одного массива (А) на 2 других массива (Б и С).

    При этом репликация на один массив (Б) выполняется в синхронном режиме, а репликация на другой массив (С) — в асинхронном периодическом режиме.

    См.

    рисунок 2 ниже.

    Таким образом, массивы A и B могут располагаться относительно близко друг к другу (максимальное расстояние определяется максимальным временем задержки, разрешенным для синхронной репликации между двумя массивами RTT = 10 мс).

    Напротив, массив C может быть удален от массивов A и B на значительное расстояние (максимальное расстояние определяется максимальным временем задержки, разрешенным для асинхронной периодической репликации между двумя массивами RTT = 120 мс).

  2. Обеспечение RPO=0 на удаленном массиве С.

    Напомню, что поскольку массив С расположен достаточно далеко, репликация на него в синхронном режиме невозможна, и единственный способ обеспечить переключение на удаленный массив С без потери данных (если основной массив А выходит из строя или во время планового переключения) ) - это использование технологии SLD.



Как добиться репликации с нулевым RPO на больших расстояниях

Рис.

2. Схема СЛД.

SLD работает следующим образом: в обычном режиме данные реплицируются из массива А в массивы В и С.

При этом также настраивается асинхронная периодическая репликация между массивами В и С, которые в обычном режиме находятся в пассивном состоянии (показано знаком пунктирная линия на рис.

2).

В случае сбоя первичного массива A автоматически активируется репликация из массива B в массив C, и данные, которые были записаны в массив B, но не записаны в массив C, будут скопированы в массив C. Таким образом, после сбоя массива A массивы B и C будут скопированы.

автоматически синхронизироваться до последнего блока, который был записан в массив A перед сбоем.

После синхронизации массивов B и C работу с данными можно продолжить; как массив C, так и массив B могут быть выбраны в качестве основного массива.

В этом случае никакие данные, записанные в массив A, не будут потеряны (RPO=0) и между массивами B и C будет выполняться репликация, обеспечивая непрерывную защиту данных после выхода из строя одного из трех массивов.

После восстановления массива А новые данные, записанные в массивы В и С, будут скопированы в массив А, после чего можно будет вернуться к нормальной работе, используя массив А в качестве основного массива.

В заключение хотелось бы отметить еще два важных момента:

  • Массивы A и B, между которыми осуществляется синхронная репликация, могут использоваться одинаково, т.е.

    оба этих массива одновременно могут быть основными.

    В этом случае один набор томов будет реплицирован с массива A на массивы B и C. Другой набор томов будет реплицирован с массива B на массивы A и C.

  • SLD может использоваться одновременно с технологией 3PAR Peer Persistence — которая позволит переключаться между массивами A и B в полностью автоматическом режиме.

    Технология 3PAR Peer Persistence также позволяет хостам прозрачно переключаться между двумя массивами (в данном случае между массивами A и B) и онлайн-перемещать виртуальные машины между двумя массивами (между двумя сайтами).

    Вы можете узнать больше о Peer Persistence Здесь .

Владимир Коробейников, @Владкор Теги: #Хранение данных #ИТ-инфраструктура #Хранение данных #Администрирование серверов #hpe #sld #RPO
Вместе с данным постом часто просматривают:

Автор Статьи


Зарегистрирован: 2019-12-10 15:07:06
Баллов опыта: 0
Всего постов на сайте: 0
Всего комментарий на сайте: 0
Dima Manisha

Dima Manisha

Эксперт Wmlog. Профессиональный веб-мастер, SEO-специалист, дизайнер, маркетолог и интернет-предприниматель.