Добрый день друзья.
После ранее опубликованного статьи много воды утекло, несколько серверов поднято, несколько уже на новой 5-й версии.
Были и кластеры, и CEPH и даже репликация с двумя узлами (функция появилась в 5).
Я для себя решил (как советовали в предыдущих комментариях), что проще и удобнее поставить дебиан, правильно разметить диски и установить proxmox поверх работающего софт-рейда.
О маркировке, ВЛМ и тонких дисках мы поговорим позже.
На одном сервере я столкнулся с очень большой и неприятной вещью.
Сервер отдельный, на дебиане 8. При маркировке, в которой выделяется отдельное большое место под тонкий-lvm-диск для хранения дисков виртуальных машин, есть одна тонкость, которую я не учел ранее.
Пример реальной конфигурации: софтовый рейд-10 был создан из 4-х дисков по 3 ТБ каждый.
Из общего объема 5,7 ТБ для виртуальных дисков выделен отдельный диск LVM-Thin емкостью 5,37 ТБ.
Виртуальные машины размещались с общим выделенным дисковым объемом 4,03 ТБ.
Машины работали и понемногу заполняли диски.
Наполнение за полгода составило в среднем 20-30% в каждой из виртуальных комнат. На следующий день (естественно понедельник, который тоже совпал с первым днем долгожданного отпуска) наш zabbix-сервер начал лихорадочно рассылать уведомления от виртуальных девушек через Telegram. Сначала о сбоях отдельных сервисов типа http или ssh, а потом и о потере пингов.
Попробовал подключиться по ssh к почтовой виртуальной машине, она тормозила, первые пару секунд ничего не было понятно, потом пришло еще с десяток сообщений от zabbix о проблемах других виртуальных машин.
Бросив взгляд сбоку, я понимаю, что все виртуалки плохие, кроме самого гиперзивора.
Залезаю на него и открываю консоль первой проблемной машины.
И я вижу Название спойлера device-mapper: message ioctl on failed: Operation not supported
Первое, что я подумал, это то, что софт-рейд развалился.
Но почему не было уведомления на эту тему от самого гипера - раз, почему гипер работает внешне корректно - два.
Лезу в lvm –a и вижу общие данные по pve\data Данные% - 23,51% Мета% - 99,95% Мат. Проверяю остальные виртуалки - лежат с такими же ошибками записи, сервисы судорожно дергаются в судорогах.
Пользователи в истерике.
Из всех вменяемых статей в Гугле на эту тему везде пишут одно и то же - расширить пространство путем добавления дополнительного физического жесткого диска.
Учитывая, что попасть в наш местный Форд Нокс, где находится этот сервер, достаточно сложно, мы теряем уйму времени, посылая айтишника с флешкой на 8 Гб.
Через 1,5 часа он есть, вставляет флешку, добавляю в lvm группу, расширяю метадиск еще на 3 Гб командой: Название спойлера lvresize --poolmetadatasize +3G pve/data
И в итоге получаю Meta% - 1,58%
Я перезапускаю машины одну за другой, проверяя их диски и исправляя проблемы вручную, потому что.
некоторые (например, почтовый сервер) не хотели запускаться по-человечески без проблем и исправлений с помощью sfck. И наконец я решаю проблему.
Что это было, Карл? - Я спрашиваю себя.
Создавая раздел Thin-LVM и добавляя его в proxmox, я даже не думал, что придется вручную учитывать емкость метаданных, рассчитывать ее на калькуляторе и задавать вручную при создании диска.
Почему такие важные, критические показатели никак не отслеживаются, например, через тот же Proxmox GUI? Ребята, если не затруднит, в комментариях очень прошу высказаться по этому поводу, что было сделано не так, почему очень мало написано о создании Thin и конкретно о метаданных.
И какие есть варианты решения проблемы кроме моего.
Не всегда возможно, что рядом окажется доверенное лицо с флешкой, которого пропустили в ДЦ и предоставили доступ к стойке, но мне, находясь в отпуске за 1 тыс.
км, удалось решить проблему за 2 часа простоя .
P.S.: Ну результатом я, конечно, не доволен.
Флешка по-прежнему торчит в сервере.
Он добавляется в группу LVM и может умереть в любой момент (с потерей метаданных в данном случае — а это хуже, чем когда система просто не сможет его записать).
Когда вернусь, подумаю, как избавиться от флешки другими способами (поменять и/или добавить диск на сервер уже невозможно).
По этому поводу, товарищи, мне бы тоже хотелось услышать объективные комментарии.
Теги: #Хранение данных #Виртуализация #Администрирование серверов #lvm #raid #proxmox #thin
-
Изомерия
19 Oct, 24 -
Узкое Мышление Гиков
19 Oct, 24 -
Видео О Телефонии И Voip
19 Oct, 24 -
Руководство По Блокноту++
19 Oct, 24 -
Новогодние Подарки От It-Компаний
19 Oct, 24 -
Выпущен Mps 2017.3
19 Oct, 24