восстановление raid5 (mdraid) после чистой установки ОС (Ubuntu Server 12.04)

========

После переустановки ОС возникают проблемы с доступом к данным, хранящимся в группе RAID5, построенной на 8 жестких дисках, с использованием mdraid. Советы приветствуются!

У меня есть домашний NAS-сервер, построенный на базе Intel Atom (Zotac NM10-DTX WiFi), 8 жестких дисков WD Caviar емкостью 2 ТБ, подключенных через HighPoint-RocketRAID 2680, а также 64 ГБ SSD для ОС.

Установка работала нормально в течение почти 2 лет (на Ubuntu Server 10.4 LTS) и использовала mdraid (оказалось, что я могу добиться лучшей производительности, используя адаптер RAID только для подключения дисков и используя mdraid для создания 14 ТБ) Массив RAID5).

Недавно я начал испытывать некоторые проблемы с производительностью (чтение и запись стали медленными - как при доступе к данным с других хостов в моей сети, так и при локальном запуске dd на сервере NAS), поэтому я решил обновить ОС по адресу это было давно (у меня были только автоматические обновления безопасности). Обновление прошло ужасно неправильно с ОС, которая даже не загружалась после обновления - поэтому я решил сделать чистую установку Ubuntu Server 12.04.

Благодаря askubuntu мне удалось собрать драйвер для RocketRAID 2680, и я могу видеть все 8 дисков (/ dev / sdb через / dev / sdi) и запуск mdadm --examine возвращает:

[110 ]

Я также смог активировать / ded / md0, выполнив:

mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 /dev/sdi1

... возвращая:

mdadm: /dev/md0 has been started with 8 drives.

+ СЕЙЧАС ДЛЯ ПРОБЛЕМЫ: +

Хотя массив, кажется, успешно перезапустился, я не вижу свой раздел размером 14 ТБ, который я создал 2 года назад (и с тех пор использовал для хранения всех моих данных). При запуске cfdisk отображается только один раздел Linux с емкостью ~ 1,8 ТБ и неиспользованным пространством ~ 12 ТБ:

Disk Drive: /dev/md0
Size: 14002195070976 bytes, 14002.1 GB
Heads: 2   Sectors per Track: 4   Cylinders: 3418504656

Name     Flags  Part Type   FS Type     [Label]     Size (MB)
--------------------------------------------------------------------------
                Pri/Log     Free Space              0.06                  
md0p1           Primary     Linux                   1750274.33
                Pri/Log     Free Space              12251920.69

То же самое появляется и при запуске mdadm --detail / dev / md0

/dev/md0:
Version : 0.90    
Creation Time : Wed Jan  5 16:47:34 2011
Raid Level : raid5
Array Size : 13674018624 (13040.56 GiB 14002.20 GB)
Used Dev Size : 1953431232 (1862.94 GiB 2000.31 GB)
Raid Devices : 8
Total Devices : 8
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Wed Oct 16 11:07:25 2013
State : clean 
Active Devices : 8
Working Devices : 8
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 64K

UUID : e667bd7d:d55be409:e9e4094c:aa5ad989 (local to host wega)
Events : 0.1010

Number   Major   Minor   RaidDevice State
0       8       17        0      active sync   /dev/sdb1
1       8       33        1      active sync   /dev/sdc1
2       8       49        2      active sync   /dev/sdd1
3       8       65        3      active sync   /dev/sde1
4       8       81        4      active sync   /dev/sdf1
5       8       97        5      active sync   /dev/sdg1
6       8      113        6      active sync   /dev/sdh1
7       8      129        7      active sync   /dev/sdi1

Если я правильно понимаю, разница между «размером массива» и «размером используемого устройства» (2 ТБ против 14 ТБ) означает, что существует проблема. Я не хочу пытаться смонтировать раздел, пока не пойму, что происходит (чтобы избежать каких-либо изменений в данных, которые препятствовали бы повторному доступу к моей RAID-группе).

Любой совет был бы очень признателен, так как я использовал этот сервер NAS для всех резервных копий и цифровых носителей.

Я забыл щелкнуть одним последним выключателем, или я полностью облажался?

0
задан 16.04.2020, 03:43

1 ответ

Используемый размер устройства означает, что каждый отдельный диск равен 2 ТБ. Не используйте cfdisk, поскольку это старый POS с ошибками, который понимает только таблицу разделов msdos, которая не поддерживает диски> 2 ТБ. Вместо этого используйте parted, который поддерживает gpt.

Что еще более важно, я не думаю, что у вас даже есть таблица разделов в массиве raid. Более типично просто форматировать весь массив, а не разбивать его на части, поэтому попробуйте смонтировать массив.

0
ответ дан 16.04.2020, 03:44

Теги

Похожие вопросы