Глава 12. Хранение данных

delay_watch_checks и delay_wait_checks в multipath.conf

По умолчанию multipathd оставляет 300 секунд на восстановление вышедшего из строя пути, но если надежность одного из путей страдает вследствие частых обрывов соединения, то у пользователя может сложиться впечатление, что multipathd перестал отвечать.
В целях обеспечения эффективного контроля за реинтеграцией путей были добавлены два новых параметра — delay_watch_checks и delay_wait_checks. Так, delay_watch_checks определяет число проверок, по результатам которых будет принято решение о дееспособности пути. Если за это время снова произошел обрыв соединения, путь будет исключен из рабочей схемы до тех пор, пока не будет получено подтверждение о том, что соединение оставалось стабильным на протяжении цикла проверок, заданного числом delay_wait_checks. Такой подход дает возможность стабилизировать подключение, прежде чем путь снова будет введен в работу.

config_dir в multipath.conf

Раньше вся конфигурация multipath хранилась в файле /etc/multipath.conf. Это серьезно ограничивало свободу администратора в конфигурации отдельных машин. Например, нельзя было создать один общий и несколько дополнительных файлов конфигурации с индивидуальными настройками для отдельных машин.
Новый параметр config_dir предлагает практическое решение этой проблемы, позволяя подключить дополнительные файлы конфигурации. Значение config_dir может быть пустым или содержать полный путь к файлу. Чтение файлов происходит в алфавитном порядке, а их содержимое обрабатывается так, как будто оно расположено в /etc/multipath.conf. По умолчанию config_dir содержит путь /etc/multipath/conf.d.

Device Mapper

Подсистема Device Mapper (DM) обновлена до версии 4.0, которая предлагает целый ряд изменений по сравнению с предыдущей версией, среди которых отдельно надо отметить поддержку механизма blk-mq (Multi-Queue Block I/O Queueing) и улучшение производительности dm-crypt.

dmstats для управления статистикой ввода-вывода для устройств Device Mapper

dmstats реализует функции учета статистики ввода-вывода для устройств под управлением device-mapper: определение контрольных показателей, создание метрики, построение гистограммы распределения интервалов задержки ввода-вывода для заданных регионов на устройстве, а также выбор режима формирования отчета. Полученная статистика может быть отфильтрована и включена в отчеты dmsetup. Подробное описание этих и других возможностей можно найти на справочной странице dmstats(8).

Поддержка DIX на некоторых типах оборудования

Стандарт SCSI T10 DIX в Red Hat Enterprise Linux 7.2 полностью поддерживается лишь выборочно для перечисленных ниже HBA-адаптеров и массивов хранения данных и не поддерживается для LUN, предназначенных для загрузки из SAN-окружений. В RHEL 7 функции T10 DIX доступны только на физическом оборудовании и не доступны в виртуальных окружениях.
* EMULEX LPe16000/LPe16002
* QLOGIC QLE2670/QLE2672
* FUJITSU ETERNUS DX100 S3
* FUJITSU ETERNUS DX200 S3
* FUJITSU ETERNUS DX500 S3
* FUJITSU ETERNUS DX600 S3
* FUJITSU ETERNUS DX8100 S3
* FUJITSU ETERNUS DX8700 S3
* FUJITSU ETERNUS DX8900 S3
* FUJITSU ETERNUS DX200F
* FUJITSU ETERNUS DX60 S3
Для остальных HBA-адаптеров и массивов хранения данных поддержка стандарта DIX предлагается лишь на экспериментальном уровне.
Для работы с защитной информацией T10 DIX потребуется дополнительная база данных или другое программное обеспечение, обеспечивающее генерацию и верификацию контрольных сумм дисковых блоков. В настоящее время ни одна из поддерживаемых файловых систем Linux не предлагает подобную функциональность.

Кэш LVM

Поддержка кэширования в LVM предоставляется начиная с версии в Red Hat Enterprise Linux 7.1. Это позволит создать логический том на базе небольшого быстрого устройства, которое будет выступать в роли кэша для медленных устройств большого размера. Подробную информацию можно найти на справочной странице lvmcache(7).
На кэширование накладывается несколько ограничений:
* Кэш должен располагаться на устройстве верхнего уровня и не может представлять собой тонкий том, образ RAID или любой другой подтип логического тома.
* Логический том кэша подразделяется на том метаданных и том данных. Оба тома, так же как рабочий том, могут быть линейного типа, использовать чередование или иметь тип RAID.
* После создания кэша его параметры уже нельзя будет изменить. Чтобы это сделать, надо будет удалить том и создать его заново с новыми параметрами. Эти и другие операции обсуждаются на справочной странице lvmcache(7).

Политика кэширования dm-cache

В модуле dm-cache реализована поддержка новой политики кэширования — SMQ (Stochastic Multiqueue), ориентированной на снижение потребления памяти с целью повышения производительности. SMQ теперь используется по умолчанию для новых кэширующих томов LVM. Чтобы выбрать старую политику mq, при создании кэширующего тома надо будет добавить аргумент —cachepolicy.

LVM systemID

Группам томов LVM может быть назначен владелец, определяемый идентификатором системы. В результате только узел с заданным идентификатором сможет обращаться к заданной группе. Это позволяет настроить эксклюзивный доступ к группам томов, расположенным на совместных устройствах, к которым осуществляется одновременное обращение с разных узлов.