|
Спасение RAID5 в Linux или восстановление mdadm на другой машине |
Автор: petrov.pash
[комментарии]
|
| Сегодня на работе сдох сервер. Без признаков жизни и включения. А на нем важная информация.
Не срочная, но важная. Главня проблема в том что нужные файлы были на рэйде (mdadm), да еще и на LVM.
Расскажу, как спасал информацию...
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Расширение программного RAID1 в Linux до зеркала из трёх дисков |
[комментарии]
|
| При добавлении дополнительного диска к RAID1 в mdadm по умолчанию создаётся запасной диск (hot-spare), который будет задействован в случае выхода из строя одного из входящих в массив дисков.
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Создание отказоустойчивого хранилища на базе FreeBSD или FreeNAS с использованием ZFS, HAST и CARP (доп. ссылка 1) |
[комментарии]
|
| Начиная с FreeBSD 8.1 в состав включена поддержка системы репликации устройств хранения данных HAST (Highly Avalable STorage), позволяющей создавать высоконадежные конфигурации, в которых данные синхронизированы между несколькими узлами. HAST реализован в виде работающего на уровне пользователя демона hastd, использующего стандартный класс GEOM Gate для обработки запросов ввода/вывода. Hastd, обеспечивает синхронную репликацию блочных устройств поверх TCP/IP сетей, независимо от типа накопителя и файловой системы. HAST предусматривает возможность быстрого восстановления после сбоя, причём, при выходе из строя первичного master-узла, его функции могут быть делегированы slave-узлу. После проверки и монтирования UFS раздела или импорта ZFS пула на поврежденном узле, система автоматически синхронизирует внесенные за время восстановления изменения и продолжит работу без потери данных.
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Отключаем RAID1 на MB и ставим FreeBSD на zfs mirror на диски c сектором 4k (доп. ссылка 1) |
Автор: nagual
[комментарии]
|
| Согласно рекомендациям Oracle ZFS лучше не ставить поверх RAID, так как это приведет к не оптимальному распределению нагрузки на шпиндели. Так же хочется напомнить о необходимости включении режима ACHI в BIOS.
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Использование ZFS в Ubuntu Linux (доп. ссылка 1) |
[комментарии]
|
| Установим поддержку ZFS на Ubuntu Server и создадим RAIDZ-хранилище на базе двух имеющихся жестких дисков.
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Настройка gmirror при использовании GPT во FreeBSD 9 |
Автор: Mikhail Zakharov
[комментарии]
|
| С релизом FreeBSD-9.0, GPT-формат разделов жестких дисков стал, наконец, делом обыденным, ведь даже новый инсталлятор предполагает использование GPT по-умолчанию. Однако в связи с переходом на GPT-разметку дисков возникают и сложности, поскольку очень многое, в том числе и документация, продолжает быть завязано на ныне устаревший механизм MBR-разделов или слайсов. Так, например, к своему огорчению я обнаружил, что большинство разделов Handbook'а посвященных дискам, GEOM-классам и файловым системам изобилуют примерами работ со старыми слайсами, а не используют для этой цели новый формат GPT.
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Увеличение скорости перестроения программного RAID в Linux (доп. ссылка 1) |
[комментарии]
|
| Перестроение большого программного RAID в Linux может занимать десятки часов. Скорость синхронизации mdraid зависит от proc-переменных /proc/sys/dev/raid/speed_limit_max и /proc/sys/dev/raid/speed_limit_min, задающих максимальную и минимальную пропускную способность синхронизации данных. По умолчанию значения этих переменных выставлены в 200000 и 1000 (Кб). Манипулируя данными параметрами можно существенно увеличить скорость перестроения RAID-массива.
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
|
Переход на RAID-1 в Linux (доп. ссылка 1) |
Автор: Иванов Аркадий
[комментарии]
|
| Сохранность данных на диске можно обеспечить вторым диском, который работает как зеркало для первого. Этот режим называется RAID первого уровня (Redundant Array of Inexpensive Disks - избыточный массив недорогих дисков). По другому - RAID-1.
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Неинтерактивная установка RedHat систем на mdraid: решение проблемы с GRUB (доп. ссылка 1) |
Автор: sHaggY_caT
[комментарии]
|
| Неинтерактивная установка RedHat систем на mdraid: решение проблемы с GRUB.
Конструкция вида
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Горячая замена диска в RAID gmirror |
Автор: Андрей Савченко
[комментарии]
|
| Цель: Необходимо создать RAID - массив с возможностью горячей замены. После длительных и неудачных игр с попыткой создать массив RAID10 или RAID1 через ICH7R, было принято решение попробовать программный RAID1. Попытка оказалась удачной. Но пришлось наступить на несколько граблей. Что бы облегчить этот путь другим, знакомлю сообщество с проверенным решением.
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Определение во FreeBSD состояния RAID-массива на базе SAS контроллера LSI (доп. ссылка 1) |
Автор: Панфилов Алексей
[комментарии]
|
| Имеем сервер c RAID-контроллерами LSI SAS 1064E (SAS 3000 series) и RAID-1, который FreeBSD видит как устройство da0.
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Мониторинг состояния контроллера Adaptec (доп. ссылка 1) |
Автор: ExpE
[комментарии]
|
| При хранении информации на RAID массиве создается иллюзия, что данные надежно защищены от потери в случае
выхода из строя одного из носителей. Но пока не проводится регулярный мониторинг состояния логического раздела,
можно просто своевременно не узнать об изменении состояния логического тома.
Ниже будет описан мониторинг состояния контроллера Adaptec.
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Настройка RAID3 и RAID5 во FreeBSD |
[комментарии]
|
| В отличии от RAID5 в RAID3 для хранения контрольных сумм выделяется отдельный диск, при этом данные
распределяются по дискам не на уровне блоков, а на уровне байтов (каждый запрос приводит к обращению ко всем дискам).
RAID3 оптимален при работе с данными большого объема и преобладании линейных запросов. При работе с большим числом
мелких файлов, производительность падает.
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Настройка загрузки ZFS с GPT-раздела во FreeBSD и создание зеркала (доп. ссылка 1) |
Автор: unknown
[комментарии]
|
| Во FreeBSD 8-CURRENT недавно появилась поддержка загрузки ядра с ZFS,
а сама файловая система была обновлена до версии 13. Процесс
развертывания ZFS с возможностью загрузки с нее очень простой:
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Зеркалирование дисков по сети, между двумя FreeBSD серверами (аналог DRBD) (доп. ссылка 1) (доп. ссылка 2) |
[комментарии]
|
| Функциональности DRBD во FreeBSD можно добиться примонтировав блочное устройство по сети
при помощи GEOM Gate (ggate) и добавив его в зеркало с локальным диском средствами gmirror.
Для увеличения производительности две машины желательно соединить напрямую через отдельные гигабитные Ethernet порты.
Размер зеркалируемых дисковых разделов должен быть минимально возможным для решаемой задачи,
так как для последующего перестроения зеркала большого размера может понадобиться слишком много времени.
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Добавление дополнительного диска в программный RAID5 в Linux |
[комментарии]
|
| Имеем 3 диска: /dev/sda,/dev/sdb, /dev/sdc
Создаем RAID5:
mdadm --create /dev/md0 --chunk=64 --level=5 --raid-devices=3 /dev/sda1 /dev/sdb1 /dev/sdc1
Со временем докупили еще диск и решили использовать его как запасной,
который автоматически включается в работу при сбое одного из дисков.
Подключаем /dev/sdd1, как "spare":
mdadm --manage /dev/md0 --add /dev/sdd1
Позже места в RAID5 стало нехватать и мы решили включить spare диск в состав RAID5.
Перестраиваем массив:
mdadm --grow /dev/md0 --raid-devices=4
Через несколько часов, когда операция будет завершена (следим через /proc/mdstat),
расширяем файловую систему:
fsck.ext3 /dev/md0
resize2fs /dev/md0
|
|
|
|
|
Создание программного RAID10 в Linux (доп. ссылка 1) |
[комментарии]
|
| Имеет 4 диска: /dev/sd[abcd], на каждом из которых создано по одному разделу.
Хотим получить RAID10, как комбинацию из двух raid1, объединенных в raid0 (striping).
Создаем два RAID1, /dev/md0 и /dev/md1
mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sda1 /dev/sdb1
mdadm --create /dev/md1 --level=1 --raid-devices=2 /dev/sdc1 /dev/sdd1
Объединяем их в RAID10 (1+0):
mdadm --create /dev/md2 --chunk=64 --level=0 --raid-devices=2 /dev/md0 /dev/md1
Тоже самое можно проделать одной командой
mdadm --create /dev/md0 --level=10 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
Смотрим, что получилось в итоге:
mdadm --detail /dev/md2
cat /proc/mdstat
|
|
|
|
|
Как заменить сбойный диск в программном RAID1 в Linux (доп. ссылка 1) |
Автор: howtoforge.com
[комментарии]
|
| Программный RAID1 /dev/md0 включает в себя разделы /dev/sda1 и /dev/sdb1.
Задача заменить диск /dev/sdb.
Диагностику смотрим через (если вместо [UU] видим [U_], то целостность одного из дисков нарушена):
cat /proc/mdstat
Помечаем раздел как сбойный:
mdadm --manage /dev/md0 --fail /dev/sdb1
Отключаем раздел (удаляем из RAID1)
mdadm --manage /dev/md0 --remove /dev/sdb1
Выключаем машину, меняем диск.
Создаем через fdisk идентичные разделы, или копируем структуру первого диска /dev/sda:
sfdisk -d /dev/sda | sfdisk /dev/sdb
Добавляем раздел в RAID1 массив:
mdadm --manage /dev/md0 --add /dev/sdb1
|
|
|
|
|
Создание программного RAID1 под FreeBSD c использованием gmirror (доп. ссылка 1) |
Автор: zulustips.com
[комментарии]
|
| Имеем два диска /dev/ad4 и /dev/ad6, на /dev/ad4 установлена рабочая система.
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Добавление программного RAID 1 раздела на Linux сервер. (доп. ссылка 1) |
Автор: sweta
[комментарии]
|
| Имеем два дополнительных диска:
/dev/hdb (/dev/hdb1 - 40 GB)
/dev/hdc (/dev/hdc1 - 40 GB)
Создаем RAID 1:
mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/hdb1 /dev/hdc1
Смотрим статус:
cat /proc/mdstat
Создаем файловую систему на RAID разделе:
mkfs.ext3 /dev/md0
Настраиваем монтирование при загрузке (в /etc/fstab):
/dev/md0 /data2 ext3 defaults 0 0
|
|
|
|
|
|
Как перенеси существующую Linux систему на RAID1 добавив второй диск (доп. ссылка 1) |
Автор: philcore
[комментарии]
|
| /dev/sda - диск с установленной ОС
/dev/sdb - новый диск для зеркала
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Мониторинг и восстановление программного RAID в Linux |
Автор: radigor
[комментарии]
|
| Управление программными RAID1-массивами в RHEL ... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Кратко о текущих методах программного зеркалирования под FreeBSD |
[обсудить]
|
| CCD (Concatenated Disk Driver) - поддерживает RAID-0 (Striping) и RAID-1 (Mirroring), под FreeBSD 5 подогнана под работу через GEOM, но возможностей меньше чем в GEOM gmirror. При сбое одного из дисков, для продолжения работы нужно восстановить утраченный диск;
Vinum - очень богатые возможности, но сложен и непрозрачен в настройке, под FreeBSD 5 работает нестабильно. При сбое диска, система продолжит работу;
GEOM Vinum - порт Vinum для работы через GEOM, еще не достаточно отлажен и документирован;
GEOM Mirror - специальный GEOM класс для создания RAID-1 зеркал, прост и понятен в настройке, в FreeBSD 5.3 говорят о хорошей стабильности. Поддерживает зеркалирования как дисков в целом, так и отдельных разделов. Доступно несколько режимов балансировки нагрузки на диски в мирроре (round-robin, использование менее загруженного диска и т.д.). После сбоя система продолжает работу, имеется функция автосинхронизации на новый пустой диск. |
|
|
|
|
Настройка программного RAID5 во FreeBSD |
Автор: McSeem
[комментарии]
|
| Понадобилось организовать надежное хранение большого объёма данных. По сей день использовалось софтовое зеркало, но существующего объёма уже не хватало и решено было соорудить RAID5 из трёх дисков по терабайту. В моём случае избыточность составит 1/3 против 1/2 (зеркало).
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|
|
Установка Adaptec Storage Manager в Debian Lenny (доп. ссылка 1) |
Автор: Сергей
[комментарии]
|
| К сожалению на официальном сайте нет готовых решений для Adaptec Storage Manager, но поставить было нужно, для этого был скачан rpm пакет для 64 битной версии Rеd Hat, так как Debian также был 64 битный.
... [Слишком большой объем текста. Скрыт. Для просмотра см. продолжение]
|
|
|
|