|
Компьютерный форум OSzone.net » Железо » Накопители (SSD, HDD, USB Flash) » RAID - [решено] Замена всех дисков в RAID5 массиве на более емкие |
|
|
RAID - [решено] Замена всех дисков в RAID5 массиве на более емкие
|
Ветеран Сообщения: 526 |
Профиль | Отправить PM | Цитировать
Здравствуйте,
хочу заменить все винты в RAID массиве на более емкие, но никогда не делал этого раньше. Не могли бы вы посоветовать как это сделать? Перечитал кучу информации, но остались не ясные моменты. Можете написать последовательность действий? Имеется сервер FreeBSD 6.2 (32-bit), RAID контроллер 3ware 9650SE-4LPML (4ех портовый, SATA). Работает в режиме RAID5. Стоят 4 одинаковых винта по 400Гб (общий объем массива чуть больше 1Тб). Все порты контроллера задействованы. Файловая система юнита подмонтирована в папку /data. Как я понял для системы используется отдельный диск не подключенный к 3ware. Хочу поменять эти 4 диска на другие 4 диска по 2 Тб каждый. Вроде бы смотрел в инете, что эта версия FreeBSD, файловая система UFS2 и контроллер поддерживают тома более 2 Tb. Они будут использоваться только для хранения данных, а не для зарузки. Но непонятно, что насчет юзеров, использующих, Windows 7 Pro (32-bit) смогут ли они увидеть этот сетевой диск (размер как я понимаю будет около ~ 5,4 Тб). На передней панели корпуса сервера 4 корзины с индикаторами. Как понять какой диск подключен к какому порту не разбирая корпус, чтобы не вытащить не тот диск? Как я понимаю последовательность действий такая: 1. Забекапить все на внешний USB-винт (собираюсь купить для бекапов USB-HDD 3 TB с интерфейсом USB 3.0 и контроллер USB 3.0, кстати в какую ФС его лучше форматировать? в такую же как на сервере UFS2?) 2. Остановить первый винт соответсвующей командой контроллера 3ware. # tw_cli maint remove c0 p0. Удалять весь массив надеюсь сразу не нужно? 3. Вставить новый неразмеченныф 2Тб винт на место первого. 4. СДелать rebuild и дождаться его завершения. 5. Повторить пункты с 2го по 4ый для оставльных трех винтов. 6. Поймет ли RAID контроллер после того как вставлю четвертый винт (на этот момент они будут все одинакового размера), что можно увеличить размер массива с (4-1)*400 Gb до (4-1)*2000Gb? 7. Увеличить размер ФС. И еще: то есть после того как командой отсоединили диск от массива, его можно сразу физически вынимать из корпуса? Как понять поддерживатся ли hot spare? это должно быть в спецификации корзинки для дисков? Rebuild сам должен сделаться когда вставлю физически диск и сделаю rescan? или самому каждый раз делать? Извиняюсь за свои вопросы, но повторю раньше этого никогда не делал. Желательно подробней напишите как проделать эту процедуру. В инете в основном теория написана. Какие могут быть подводные камни? |
|
Отправлено: 21:52, 06-07-2011 |
Ветеран Сообщения: 526
|
Профиль | Отправить PM | Цитировать Обновил систему до FreeBSD 7.4, установил программы контроллера 3ware (в портах не нашел, нашел на ISO образе, лежащем на официальном сайте для Codeset 9.5.3), перепрошил, создал GPT раздел и сейчас синхронизируюсь с бекапом.
сейчас осталась маленькая проблема после обновления с FreeBSD 7.2 до FreeBSD 7.4 с RoundCube, но вроде бы как почта работает из почтового клиента. Да, mergemaster - это самое сложное в процессе обновления системы Кое, что пришлось самому подправлять. Единственное, я отсавил на потом файлы master.passwd и group из /etc версии FreeBSD 6.2. И вроде бы пока нормально. Надо ли с ними что то делать? Спасибо БОЛЬШОЕ за помощь Цитата vadblm:
Цитата vadblm:
Я все таки по одному постепенно вставлял диски на прошлой и позапрошлой неделе и они ребилдились. Массив, естественно оставался таким же. Это понятно. Бекап я сделал, но была мысль, что может и получится без бекапа. Я рассчитывал, что когда обновлю систему до FreeBSD 7.4, перепрошью контроллер, так как он видел всего лишь 746GB из 3TB от каждого диска, потом воспользуюсь функцией расширения массива, которая есть у этого контроллера, потом думал воспользоваться программой для преобразования MBR в GPT из портов, называется gdisk. После делается growfs и на этом все заканчивается, а бекап для подстраховки. НО подстраховка оказалась не зря была сделана! После перепрошивки контроллера до новой прошики, он стал видеть новые диски как трехтерабайтные, но юнит слетел полностью! tw_cli /c0 show показывал, что все диски в статусе OK, но там где был юнит - было пусто!!! и в таблице дисков в колонке юнит был у всех прочерк! Вот на это я не рассчитывал, я то думал, что самым сложным будет преобразование в GPT живых данных. Из-за которого придется восстанавливаться. Cоздал массив в BIOS контроллера, и запустил tw_cli /c0/u0 start verify Правда непонятным для меня остались, какой лучше выбрать размер страйпа. Раньше на массиве 1 ТБ было 64К, на новом 9 ТБ поставил такой же (контроллер предлагает 16К,64К,256К). Почитал гугл - все пишут по-разному. И режим StorSave выбрал balance. Режим кеша записи выбрал вкл, хотя батарейки на контроллере нет, но есть UPS на сервере. Еще непонятно пока с программой tw_cli. Я установливал в консоли, используя setupFreeBSD7.sh, который был на диске. ОН спросил куда ставить, я ответил, что в /usr/data/3ware, так как в других папках места не было. Теперь у меня две программы tw_cli: одна старая, которая вызывается, когда я набираю просто tw_cli, а вторая новая, которая появляется когда набираешь /usr/data/3ware/AMCC/CLI/tw_cli. Хотя и старая тоже определяет все диски корректно. Можно как нибудь старую заменить новой? например, перезаписав ее? Перепрошивал с использованием screen, хотя находился в локальной сети, на всякий случай, вдруг соединение бы потерялось. Создал еще журнал для UFS2 на новом массиве. Вместо soft-updates. Теперь массив видится как da0p1.journal, раньше было da0. На счет скорости записи: gstat сейчас выдает порядка в максимуме 106000 Kbps для записи на массив и порядка 35000Kbps в максимуме для чтения с внешнего винта - правда я не понимаю, почему значение для чтения сильно меньше, чем для записи, должно же быть наоборот. Ведь записываться на массив не может быстрее, чем читаться из бекапа. Скорость, чтения честно говоря не радует Поэтому я и хотел делать все на живых данных, так как времени нет ждать (около 20 часов). Правда сейчас, по моим расчетам, если и дальше будет так переписываться, то процесс перегонки данных (1ТБ) из бекапа на массив займет 10 часов. Может когда писалось в бекап, диски были старые Samsung, которые скорости не выдвали, а сейчас новые Hitachi. Как те, так и другие 7200rpm. Внешний диск, на котором бекап, определяется в /var/run/dmesg.boot как SATA150 (подключен через eSata), хотя сам диск и коробка поддерживают SATA3, а материнка до SATA2. То есть по идее должно быть как SATA2. Сейчас средняя скорость записи на массив 23 МБ/c. Еще насчет размеров диска. В принципе тут почти все понятно. Было 4 диска в RAID-5, кажый по 3 терабайта. Емкость одного уходит на избыточность данных. Остается 9 ТБ. Но, при создании новой ФС и выделения места под журнал и учета, что все отображается в единицах по снованию 2, то получаются скромные 7,9 ТБ. В десятичных терабайтах 8,7 ТБ. Что-то, по-моему, 300 ГБ - немало резервируется под ФС. Для newfs я использовал флаг -m 0. На внешнем винте 3 ТБ, тоже когда он был пустой было 2,9 ТБ. То есть 100ГБ для ФС. У меня под систему винт стоит на 80 ГБ - меньше, че резервируется под ФС Вообщем, я получил немалый experience, много пришлось прочитать ссылок, README и документации. Если кому понадобится могу написать полную инструкцию, как я делал. |
||
Последний раз редактировалось VictorSh, 07-08-2011 в 19:28. Отправлено: 18:53, 07-08-2011 | #21 |
Для отключения данного рекламного блока вам необходимо зарегистрироваться или войти с учетной записью социальной сети. Если же вы забыли свой пароль на форуме, то воспользуйтесь данной ссылкой для восстановления пароля. |
Забанен Сообщения: 6158
|
Цитата VictorSh:
Цитата VictorSh:
dd if=/dev/zero of=/mountpoint/zerofile bs=2m count=1000 dd if=/mountpoint/zerofile of=/dev/null bs=2m count=1000 Цитата VictorSh:
Вообще я в последнее время предпочитаю использовать при больших объёмах (больше 500Гб) ZFS, поскольку UFS не очень имхо подходит. Правда, обещают SU+J, но когда оно будет, а ZFS уже тут. Но у неё свои тонкости - высокие требования к памяти, нежелательность использовать на массивах, созданных контроллером (желательно пользоваться средствами самой ZFS, raidz1 к примеру), несовместимость с dump/restore. |
|||
Отправлено: 15:12, 09-08-2011 | #22 |
|
Участник сейчас на форуме | Участник вне форума | Автор темы | Сообщение прикреплено |
| |||||
Название темы | Автор | Информация о форуме | Ответов | Последнее сообщение | |
HDD - Замена 60gb HDD 2,5 на более емкий. Возможно ли? | Mihas83 | Накопители (SSD, HDD, USB Flash) | 2 | 30-07-2010 07:19 | |
Возможна ли замена процессора и видеокарты на более мощные в Acer Aspire 7520G? | sid6630 | Ноутбуки | 1 | 22-12-2008 13:40 | |
замена названия всех файлов | Malfatto | Хочу все знать | 4 | 14-11-2008 16:37 | |
RAID - Оптимальное количество жестких дисков в массиве RAID 0 (чередование) | Skynet | Накопители (SSD, HDD, USB Flash) | 12 | 07-02-2008 21:54 |
|