Raid1 lvm что это
LVM поверх RAID
Казалось бы, зачем может понадобиться сочетание LVM и RAID? Ведь обе эти системы функционально во многом дублируют друг друга, позволяя объединять диски и их разделы в единые логические тома, обеспечивать расслоение данных между ними (так называемый стриппинг) для увеличения быстродействия или, напротив, зеркалирование для повышения надёжности. Однако всё оказывается не так просто.
Представим ситуацию, что имеется три накопителя (в данном случае SSD, но в отношении HDD сказанное ниже ещё более существенно) — один объёмом на полтерабайта, и два одинаковых — по 120 ГБ. И имеется естественное желание объединить их в логически единое пространство, причём желательно с выигрышем в производительности за счяёт стриппинга (как я неоднократно говорил, зеркалирование в бытовых условиях полагаю неоправданным). Причём по некоторым причинам самый простой и лучший способ это сделать (то есть через пул ZFS) не подходит — опять же по причинам, о которых ранее говорилось много раз.
Именно такая ситуация была некогда описана — и задача была решена тогда «в лоб», то есть не оптимальным образом: просто объединением в группу томов большого раздела на большом носителе и обоих «маленьких» целиком. Поначалу — с созданием логических томов в режиме стриппинга. Однако очевидно, что расслаивать данные можно только на утроенный объем наименьшего носителя. И в результате «лимит на стриппинг» был достаточно быстро исчерпан — прочие логические тома, лежащие за пределами 120 ГБ, можно было создавать уже только в линейном режиме.
Вот тут-то и впору вспомнить о том, что в группу томов LVM могут объединяться не только дисковые разделы, но и уже мультидисковые системы, то есть RAID’ы разного уровня. Хотя в рамках поставленной задачи, повторяю, имеет смысл говорить только о массивах Level 0. И потому в следующий раз в той же ситуации я об этом и вспомнил. А именно — обрёл права root’а на долгие времена:
Затем обнулил разметку на обоих меньших носителях:
Разметил посредством cfdisk каждый из них на один раздел с идентификатором типа файловой системы fd (Linux raid autodetect). Да, поскольку дело происходило в Linux Mint (конкретно — в релиз-кандидатствующей 17.2 Rafaela), не забыл установить нужный пакет:
В этом дистрибутиве, как известно, по умолчанию он отсутствует. После этого можно было заняться созданием массива нулевого уровня:
Облегчающееся ещё и тем, что предварительная работа по объединению физических томов в их группу уже выполнена.
Лабораторная работа: настраиваем lvm, raid на linux
Небольшое отступление: данная л\р является синтетической.
Некоторые задания которые здесь описаны можно сделать гораздо проще, но поскольку задача л/р — познакомиться с функционалом raid, lvm то некоторые операции искусственно усложнены.
Требования к инструментам для выполнения л\р:
ВНИМАНИЕ
Данная лабораторная работа связана с такой тонкой материей как сохранность данных — это такая область, которая позволяет из-за мельчайшей ошибки — одной лишней буквы или цифры потерять все ваши данные.
Поскольку вы выполняете лабораторную работу вам ничего не грозит, разве что придется начать делать ее заново.
В реальной жизни все гораздо серьезнее, поэтому следует очень внимательно вводить имена дисков, понимая что именно вы выполняете текущей командой и с какими дисками работаете.
Второй важный момент — именование дисков и разделов: в зависимости от ситуации номера дисков могут отличаться от тех значений, что представлены в командах в лабораторной работе.
Так, например, если удалить диск sda из массива, а затем добавить новый диск, то новый диск будет отображаться в системе с именем sda. Если же выполнить перезагрузку перед добавлением нового диска, то новый диск будет иметь имя sdb, а старый станет именоваться sda
Лабораторная работа должна выполняться под суперпользователем (root) поскольку большая часть команд требует повышенных привилегий и не имеет смысла постоянно повышать привилегии через sudo.
Материалы для изучения
Используемые утилиты
Лабораторная работа состоит из 3-х частей:
Задание 1 (Установка ОС и настройка LVM, RAID)
Создайте новую виртуальную машину, выдав ей следующие характеристики:
Начать установку Linux и дойдя до выбора жестких дисков сделать следующее:
Закончить установку ОС, поставив grub на первое устройство (sda) и загрузить систему.
Выполните копирование содержимого раздела /boot с диска sda (ssd1) на диск sdb (ssd2)
Выполнить установку grub на второе устройство:
Посмотреть диски в системе:
Найдите диск на который не была выполнена установка grub и выполните эту установку:
Опишите своими словами что вы сделали и какой результат получили в итоге проделанного задания.
После выполнения этого задания рекомендуется сохранить резервную копию папки с виртуальной машиной или сделать vagrant box.
Результат: Виртуальная машина с дисками ssd1, ssd2.
Задание 2 (Эмуляция отказа одного из дисков)
Теперь нужно вручную выполните синхронизацию разделов, не входящих в RAID. Для этого воспользуемся утилитой dd, скопировав с «живого» диска на новенький, который вы недавно поставили:
Опишите своими словами что вы сделали и какой результат получили в итоге проделанного задания.
Результат: удалён диск ssd1, сохранен диск ssd2, добавлен диск ssd3.
Задание 3 (Добавление новых дисков и перенос раздела)
Это самое сложное и объемное задание из всех представленных. Очень внимательно проверяйте что вы делаете и с какими дисками и разделами. Рекомендуется снять копию перед его выполнением. Это задание независимо от задания №2, его можно выполнять после задания №1 с поправкой на имена дисков.
Вторая часть задания этой лабораторной должна привести в точно такое же состояние которое было после выполнения первой части.
Представьте себе что ваш сервер работал долгое время на 2-х ssd дисках, как вдруг.
Проэмулируйте отказ диска ssd2, удалив из свойств ВМ диск и перезагрузившись.
Посмотрите текущее состояние дисков и RAID:
Вам повезло — начальство разрешило закупить несколько новых дисков:
2 SATA большого объема для давно назревшей задачи вынесения раздела с логами на отдельный диск. 2 SSD на замену погибшему, а также на замену пока еще функционирующему.
Следует учитывать, что корзина сервера поддерживает установку только 4х дисков. одновременно, поэтому добавить все диски сразу нельзя.
Объем HDD выбрать в 2 раза больше чем SSD.
Объем SSD выбрать в 1,25 раза больше бывших SSD.
Добавьте один новый ssd диск, назвав его ssd4, а после добавления проверьте что произошло:
В первую очередь следует озаботиться сохранностью данных старого диска. На этот раз мы будем переносить данные с помощью LVM:
В первую очередь необходимо скопировать файловую таблицу со старого диска на новый:
Подставьте вместо x,y правильные диски и разберите что делает данная команда.
С помощью команды dd скопируйте данные /boot на новый диск:
Если /boot остался смонтирован на старом диске, его следует перемонтировать на живой диск:
Установите загрузчик на новый ssd диск:
Зачем мы выполняем эту операцию?
Создайте новый рейд-массив с включением туда только одного нового ssd диска:
Команда приведенная выше не отработает без указания специального ключа.Прочитайте справку и добавьте этот ключ к команде.
Следующим этапом необходимо настроить LVM
Создайте новый физический том включив в него ранее созданный RAID массив:
Увеличим размер Volume Group system с помощью такой команды:
Выполните команды и запишите что вы увидели и что поменялось.
На каком физическом диске сейчас находятся LV var, log, root?
Выполните перемещение данных со старого диска на новый, подставив правильные имена устройств.
Повторите операцию для всех logical volume.
Выполните команды и запишите что вы увидели и что поменялось.
Изменим наш VG, удалив из него диск старого raid. Подставьте правильное имя raid.
Выполните команды и запишите что вы увидели и что поменялось.
Удалите ssd3 диск и добавьте ssd5, hdd1, hdd2 согласно вышеописанным ТЗ, в итоге получив:
Проверьте что произошло после добавления дисков:
Восстановим работу основного raid массива:
Выполните копирование таблицы разделов, подставив правильные диски:
Обратите внимание, что когда мы скопировали таблицу разделов со старого диска лказалось что новый размер не использует весь объем жесткого диска. Поэтому в скором времени нам потребуется изменить размер этого раздела и расширить raid. Убедитесь в этом сами, введя команду:
Скопируйте загрузочный раздел /boot с диска ssd4 на ssd5:
Установите grub на новый диск (ssd5).
Изменим размер второго раздела диска ssd5.
Запустите утилиту для работы с разметкой дисков:
Перечитаем таблицу разделов и проверим результат:
Добавим новый диск к текущему raid массиву (не забудьте подставить правильные диски):
Расширим количество дисков в нашем массиве до 2-х штук:
Посмотрите результат: у нас размечено 2 массива, но оба раздела входящие в этот массив имеют разные размеры:
Увеличим размер раздела на диске ssd4
Запустите утилиту для работы с разметкой дисков:
Перечитаем таблицу разделов и проверим результат.
Обратите внимание, теперь sda2, sdc2 разделы имеют размер > чем размер raid-устройства.
На этом этапе размер raid можно теперь расширить:
Просмотрите lsblk и запишите что изменилось.
Однако, хоть мы и изменили размер raid, сами размеры vg root,var,log не изменились
Посмотрите чему равен размер PV:
Расширим размер нашего PV:
Посмотрите чему равен размер PV:
Добавим вновь появившееся место VG var, root:
На этом этапе вы завершили миграцию основного массива на новые диски. работа с ssd1,ssd2 закончена.
Наша следующая задача — переместить /var/log на новые диски, для этого создадим новый массив и lvm на hdd дисках.
Посмотрим какие имена имеют новые hdd диски:
Создадим raid массив:
Создадим новый PV на рейде из больших дисков:
Создадим в этом PV группу с названием data:
Создадим логический том размером всего свободного пространства и назовем его val_log:
Отформатируем созданные раздел в ext4:
Перенесем данные логов со старого раздела на новый
Примонтируем временно новое хранилище логов:
Выполним синхронизацию разделов:
Выясним какие процессы работают сейчас с /var/log:
Останавливаем эти процессы:
Выполним финальную синхронизацию разделов (тех данных что могли измениться с момента последней синхронизации):
Поменяем местами разделы:
Проверяем что получилось:
Самое важно на этом этапе — не забыть изменить таблицу раделов (ext4, например). Поскольку как бы мы не изменяли всякие raid, lvm — пока ФС на разделе не будет уведомлена о том что теперь размер раздела изменился, мы не сможем использовать новое пространство. Используйте команду resize2fs для изменения ФС.
Выполните проверки, что все что мы хотели сделать действительно было сделано:
[ОПЦИОНАЛЬНО] Выполните действия
LVM RAID-1 vs. mdadm RAID-1.
На сервере использую mdadm RAID-1, поверх которого LVM. Хотел перенести это дело на LVM RAID-1. Как бы должно было стать быстрее, потому что слоёв меньше, но напугало две вещи:
1. LVM RAID-1 требует ещё один НЖМД для хранения какого-то log’а, mdadm обходится без него.
2. LVM RAID-1 может хранить log в памяти, но тогда после каждой перезагрузки массив будет синхронизироваться заново, да и сохранность данных никто не обещает.
Скажите, какой PROFIT от LVM RAID-1? Может он работает существенно быстрее чем mdadm RAID-1? Особенно с corelog.
Почему Ubuntu умеет монтировать корневую ФС на LVM RAID-1, но не умеет mdadm+LVM? Пришлось доработать initrd напильником. Может я неправильно ставлю Ubuntu. Как сделать чтобы корневая ФС была на LV на софтовом RAID-1, чтобы это не вызывало butthurt?
Re: LVM RAID-1 vs. mdadm RAID-1.
Use FreeBSD, Luke! GEOM RAID — и не надо заморачиваться с уровнями.
Re: LVM RAID-1 vs. mdadm RAID-1.
У меня убунта нормально держала mdraid1+lvm, но я не исключаю что при определённых обстоятельствах это ломается. Дебиан который не хотел в такой конфигурации вставать я видел, вылечилось созданием таблицы разделов с нуля(и переходом с gpt на msdos таблицу разделов).
Re: LVM RAID-1 vs. mdadm RAID-1.
Зачем LVM, если есть софтовый рейд?
Re: LVM RAID-1 vs. mdadm RAID-1.
LVM снапшоты умеет. И он гораздо гибче растягивается на винты.
Re: LVM RAID-1 vs. mdadm RAID-1.
> и не надо заморачиваться с уровнями.
?? Я некоторое представление о geom имею, как оно поможет «не заморачиваться с уровнями» если это, по сути, аналог multiple devices в линухе?
gmirror это raid1, gvinum(оно вообще живо?) это raid5, graid3 это raid3 итп.
Re: LVM RAID-1 vs. mdadm RAID-1.
>LVM снапшоты умеет.
Ждем пока допилят БТРфс?
Re: LVM RAID-1 vs. mdadm RAID-1.
Re: LVM RAID-1 vs. mdadm RAID-1.
>?? Я некоторое представление о geom имею, как оно поможет «не заморачиваться с уровнями»
Снапшоты обеспечиваются UFS2 без костылей и подпорок.
>если это, по сути, аналог multiple devices в линухе?
Re: LVM RAID-1 vs. mdadm RAID-1.
>Ждем пока допилят БТРфс?
Ждите.
А у нас уже есть UFS2 и ZFSv13.
Re: LVM RAID-1 vs. mdadm RAID-1.
> Снапшоты обеспечиваются UFS2 без костылей и подпорок.
Re: LVM RAID-1 vs. mdadm RAID-1.
ufs2, простите, говно. И на то есть тыща причин(журнал(его отсутствие), ограничение на кол-во директорий в одной папке, роняет ось при малейших повреждениях(как и background fsck) итп).
А zfs не пробовал, ничего про него по делу не скажу, но поною. По-моему, рановато фряшному zfs в продакшн. Она с него уже может грузиться? А на тачки меньше чем с гигом оперативы уже можно ставить? Все ли фичи оригинальной сановской реализации уже сделаны?
Re: LVM RAID-1 vs. mdadm RAID-1.
>ufs2, простите, говно.
В каком году в последний раз на неё смотрели|щупали?
>И на то есть тыща причин(журнал(его отсутствие),
Давно есть. gjournal(8) называется.
>ограничение на кол-во директорий в одной папке
Какое ограничение? Почему не знаю?
>, роняет ось при малейших повреждениях
Не припомню случая.
Ext3/Ext4/Reiser — навалом эксцессов.
>(как и background fsck)
Тесты разных годов: http://alv.me/?cat=26
Сейчас всё намного лучше с появлением SupePages в семёрке.
>По-моему, рановато фряшному zfs в продакшн. Она с него уже может грузиться? А на тачки меньше чем с гигом оперативы уже можно ставить? Все ли фичи оригинальной сановской реализации уже сделаны?
Состояние: http://wiki.freebsd.org/ZFS
В 7-STABLE грузиться уже можно.
Re: LVM RAID-1 vs. mdadm RAID-1.
И в таком состоянии оно уже оооочень давно. А так же рекомендую прочитать http://wiki.freebsd.org/ZFSKnownProblems прежде чем вообще про нее говорить.
Re: LVM RAID-1 vs. mdadm RAID-1.
> В каком году в последний раз на неё смотрели|щупали?
> Давно есть. gjournal(8) называется.
gjournal к файлухе никакого отношения к ufs не имеет вообще.
> Какое ограничение? Почему не знаю?
> Не припомню случая.
это не значит что так не бывает
> Ext3/Ext4/Reiser — навалом эксцессов.
А я и не говорил что они идеальны
У тебя просто серверов мало, иначе бы ты бы ты знал к чему это приводит. Можешь поискать, наприер, на nginx-ru что бывает. Ты вообще понимаешь как она чекает на ошибки? Она снапшот чекает а не саму файлуху. И легко может уронить систему.
Какие-то старые тесты от Федорчука. Там без gjournal наверняка тестировали.
Re: LVM RAID-1 vs. mdadm RAID-1.
http://wiki.freebsd.org/ZFSKnownProblems
«ZFS file systems don’t start on boot in single-user mode. Symptoms: ZFS file systems are not started / mounted when the machine is booted in single-user mode.»
В PC-BSD последней версии уже предлагается загружаться с ZFS, и ничего. А по виду целевой аудитории не скажешь, что оно будет эксплуатироваться в идеальных климатических условиях, с UPS’ами и чётко при 25 градусах. 🙂
P.S.
Так что, Шура, пилите свою Btrfs, пилите. Она — ваша последняя надежда на таких противоречивых линуксах.
http://forum.posix.ru/viewtopic.php?pid=34883#p34883
Re: LVM RAID-1 vs. mdadm RAID-1.
:))
Это САНОВСКАЯ UFS. Никакого отношения в FreeBSD’ной UFS2 она не имеет!
Sun UFS даже не монтируется под FreeBSD.
>Ты вообще понимаешь как она чекает на ошибки? Она снапшот чекает а не саму файлуху. И легко может уронить систему.
Про работу fsck со снапшотом я в курсе. Иначе невозможно было бы fsck работать в фоне. 😉
>Какие-то старые тесты от Федорчука. Там без gjournal наверняка тестировали.
Естественно без журналирования.
Журнал не спасает от пропажи данных (спасает, если журналировать всё, в том числе и данные, в Ext3 это возможно, но с тааааакими тоооормозами). Журнал нужен для быстрого восстановления ФС после сбоя. ВСЁ.
Soft Updates решает задачу восстановления упорядочением операций записи на диск и минимизацией возможных потерь комбинацией синхронных и асинхронных транзакций с носителем. В Linux все дисковые операции асинхронны, поэтому там жизненно необходим журнал транзаций.
Re: LVM RAID-1 vs. mdadm RAID-1.
> Журнал нужен для восстановления ФС после сбоя.
Re: LVM RAID-1 vs. mdadm RAID-1.
>У тебя просто серверов мало, иначе бы ты бы ты знал к чему это приводит. Можешь поискать, наприер, на nginx-ru что бывает.
И, да, gjournal и Soft Updates — взаимоисключающие сущности, работать вместе не могут. Поэтому нужно выбирать между отложенным на 15-20 минут восстановлением ФС (в случае использования SU) и восстановлением ФС во время загрузки (в случае с использованием gjournal). В первом случае ждать не надо, пока диски прочекаются и можно работать, терпя некоторые тормоза дисковой подсистемы. Во втором случае придётся ждать завершения fsck, прежде чем приступить к работе.
Re: LVM RAID-1 vs. mdadm RAID-1.
блин. Это один хрен. Проверь сам на своей тачке если не веришь. Или ищи в гугле. Или открой исходники, увидишь что там short int в качестве счётчика ссылок.
> Журнал нужен для быстрого восстановления ФС после сбоя. ВСЁ.
А это очень хорошая вещь в некоторых ситуациях.
Re: LVM RAID-1 vs. mdadm RAID-1.
Максимальное количество каталогов в корне — 32768.
Для увеличения этого параметра вдвое используется патч, который заменяет описатель в inode с short int на unsigned int. Но этот патч применять не рекомендуется, так как при использовании в работе большого числа каталогов снижается производительность дисковых операций.
Re: LVM RAID-1 vs. mdadm RAID-1.
iZEN, я всё это знаю. Я достаточно хорошо знаком с фряшкой. Но слышать от тебя что старая костыльная UFS это «отличная фс» очень странно. Она примитивная, у неё есть ограничения т.к. она слишком давно разрабатывалась итп. А достаточно быстрая она потому примитивная. И я предпочёл бы наличие журнала вместо soft updates. Хотя бы чекаться будет быстрее. А уменьшение фрагментации я от него не заметил.
Однако это не значит что это лучшее решение всех времен и народов. Сравни её с той же zfs. Ну просто небо и земля. Хотя я бы zfs применять не стал бы в силу её дикой прожорливости по cpu и памяти.
Re: LVM RAID-1 vs. mdadm RAID-1.
>И я предпочёл бы наличие журнала вместо soft updates. Хотя бы чекаться будет быстрее. А уменьшение фрагментации я от него не заметил.
UFS2 разработана в 2002-2003гг. с выходом эксериментальной ветки FreeBSD 5.x.
Фрагментация ФС не превышает 5% за всё время эксплуатации. У меня диск года два уже с еженедельными пересборками системы, и то / — фрагментированность до 3% не доходит (2,8%); /usr/local — 1% фрагментированности, хотя на /usr/local я чего только не делал, одно время держал там временные каталоги компиляции портов.
Re: LVM RAID-1 vs. mdadm RAID-1.
Попробуй писать на винт сразу в несколько потоков и всё пипец как зафрагментируется.
По поводу «свежести» ufs2. Чем она принципиально отличается от старой ufs? Да ничем. Атрибуты добавили, разрядность каунтеров повысили. И оставили старые болячки типа ограничения на кол-во папок в папке. Это всё мелкие доработки.
Re: LVM RAID-1 vs. mdadm RAID-1.
>По поводу «свежести» ufs2. Чем она принципиально отличается от старой ufs?
>Атрибуты добавили, разрядность каунтеров повысили.
. ACL’s, расширенные атрибуты дополнительные флаги файлов, динамические inode, квоты с мягкими и жёсткими ограничениями, мягкие обновления, моментальные снимки, динамический размер блока вместо экстентов.
Ничего принципиально нового не появилось в 2002 году. :))
Ext4 до сих не может предоставить ВСЁ это в работоспособном состоянии, чтобы её выпустить в продакшен. 🙂
Re: LVM RAID-1 vs. mdadm RAID-1.
Квоты уже были. Про динамический размер блоков первый раз слышу, можно ссылочку? Может ли ufs2 содержать несколько снапшотов сразу? Ксати, в man newfs кое-что сказано про экстенты :).
ufs2 и ufs1 на одной кодовой базе сидят.
ext4 это вообще не для продакшена и, на самом деле, это переходной вариант перед btrfs. Я её боюсь использовать.
Ну а так убедил, подлатали чуток файлуху. Но мне она не нравится по тем причинам что я говорил.
Re: LVM RAID-1 vs. mdadm RAID-1.
Где?
>Про динамический размер блоков первый раз слышу, можно ссылочку?
Маршал Кирк МакКузик: FreeBSD. Архитектура и реализация
>Может ли ufs2 содержать несколько снапшотов сразу?
Сколько хочешь.
>Ксати, в man newfs кое-что сказано про экстенты :).
В книге тоже приводится сравнение с экстентами из XFS. Называй это как хочешь.
>ufs2 и ufs1 на одной кодовой базе сидят.
Авторы называют цифру 90% общего кода.
>ext4 это вообще не для продакшена и, на самом деле, это переходной вариант перед btrfs.
Теперь уже и не для продакшена. Тогда что для продакшена? Дикофрагментирующиеся Ext3 и JFS?
>Я её боюсь использовать.
Вот-вот. UFS2 тоже боялись использовать, а ведь она тоже эволюционное развитие говна мамонта.
Re: LVM RAID-1 vs. mdadm RAID-1.
>>Квоты уже были. >Где? В ufs1.
>>Про динамический размер блоков первый раз слышу, можно ссылочку? > Маршал Кирк МакКузик: FreeBSD. Архитектура и реализация
> Теперь уже и не для продакшена. Тогда что для продакшена? Дикофрагментирующиеся Ext3 и JFS?
Разве я говорил что ext4 в продакшн? Я щас юзаю xfs и jfs. С ext3 по некоторым причинам завязал. Кстати, это хорошо что ты про фрагментацию заговорил, xfs_fsr обещает онлайн-дефрагментацию (пробовать, правда, страшно). А вот для ufs такого нет.
А, собстно, на какую тему мы спорим? Что круче? btrfs, если его допилят. Или jfs под aix. Всё остальное написано слишком давно чтобы содержать весь набор нужных фич либо хавает кучу ресурсов(zfs под фрёй).
Re: LVM RAID-1 vs. mdadm RAID-1.
>ZFS не стартует с корня только в Single User Mode. Это вообще не рабочий режим.
Ну слава богу, допилили. Остальное вы по этой ссылке проигнорировали, да?
>Так что, Шура, пилите свою Btrfs, пилите. Она — ваша последняя надежда на таких противоречивых линуксах.
Это вы мне говорите? Я буквально вчера «апдейтил» zfs с v6 до v13, очень тоже смешно от zpool получать «zpool internal error out of memory». Тоже мне продакшн блин.
Re: LVM RAID-1 vs. mdadm RAID-1.
Re: LVM RAID-1 vs. mdadm RAID-1.
>Остальное вы по этой ссылке проигнорировали, да?
Что именно?
На Wiki даются только общие представления о ходе работ, но не отражается реальное текущее состояние. (Разработчики просто не успевают вовремя обновить Wiki).
>Это вы мне говорите? Я буквально вчера «апдейтил» zfs с v6 до v13, очень тоже смешно от zpool получать «zpool internal error out of memory». Тоже мне продакшн блин.
По-моему, сервера с 2ГБ и более памяти давно стали уже нормальным явлением. А у кого 1ГБ — это уже не сервер.
Так что память для кэшей ZFS — наипервейшая необходимость, особенно для такой ответственной операции, как преобразование пулов.
Re: LVM RAID-1 vs. mdadm RAID-1.
А с чего вы взяли, что у меня 1Гб или 2? Или даже 4? У меня их 8, от этого «легче» не становится. Я эту проблему уже решил, но характер у нее такой же, как и по приведенной вами ссылке. Так что не надо на других пенять, ZFS тоже пока далеко не идеал.
Re: LVM RAID-1 vs. mdadm RAID-1.
Кстати, как будете мир обновлять в «нерабочем режиме» single user mode с zfs, а? 🙂
Re: LVM RAID-1 vs. mdadm RAID-1.
Re: LVM RAID-1 vs. mdadm RAID-1.
>Кстати, это хорошо что ты про фрагментацию заговорил, xfs_fsr обещает онлайн-дефрагментацию (пробовать, правда, страшно).
Я многократно использовал 🙂
Особенно график за год хорошо смотрится 🙂
Всё по-живому, как на системных разделах, так и на активных p2p.
Re: LVM RAID-1 vs. mdadm RAID-1.
>Кстати, как будете мир обновлять в «нерабочем режиме» single user mode с zfs, а? 🙂
Мир давно уже обновляется в нормальном режиме, как и ядро.
Re: LVM RAID-1 vs. mdadm RAID-1.
> Как я уже говорил, на интенсивных дисковых операциях с созданием и удалением файлов у меня за два года использования UFS2 фрагментировалась не больше чем на 3%.
В пятницу переливал 1млн файлов с пятой фряшки и убедился что ты не прав. Без дефрагментатора рано или поздно придёт время когда при 100% iowait винты будут от силы 2-3мб отдавать.
Чудес не бывает. Бэкап-сервера сильно фрагментированы под любой fs.
Re: LVM RAID-1 vs. mdadm RAID-1.
> Так что память для кэшей ZFS — наипервейшая необходимость, особенно для такой ответственной операции, как преобразование пулов.
Ага, давайте расскажите нам поподробнее, зачем нужна память в больших количествах для ответственной операции преобразования пулов.
Вы представляете хоть, в чем эта операция заключается?
Re: LVM RAID-1 vs. mdadm RAID-1.
>Вы представляете хоть, в чем эта операция заключается?
Для рекурсивных моментальных снапшотов дерева каталогов со всем содержимым.
Re: LVM RAID-1 vs. mdadm RAID-1.
UFS2 в FreeBSD нормально стала работать где-то с версии 5.3, но не раньше. Раньше было УГ.
Re: LVM RAID-1 vs. mdadm RAID-1.
Ну тогда уж с 6-й фри, до этого везде softupdates глючил(место «кончалось»).