The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]

Файловая система ZFSv28 портирована в ветку FreeBSD 8-STABLE

06.06.2011 21:18

В ветку FreeBSD 8-STABLE портирована 28 версия файловой системы ZFS. Пользователям стабильной ветки FreeBSD 8 стали доступны такие возможности ZFSv28, как:

  • Дедупликация — автоматическое распознавание и объединение дубликатов данных. Если в нескольких файлах присутствуют аналогичные блоки данных, то они будут сохранены на физический носитель только один раз, что позволит существенно уменьшить потребление дискового пространства и увеличить производительность - вместо копирования блоков будет лишь изменена запись в соответствующей таблице.
  • RAIDZ3 - вариант RAIDZ с хранением трех копий, отвечающих за обеспечение целостности структур, что позволяет значительно повысить надежность хранения по сравнению с RAID-режимами с двойным дублированием - RAID-6 и RAIDZ2. Например, RAIDZ3 обеспечивает целостность данных при одновременном выходе из стоя сразу трех дисков и позволяет повысить надежность хранения во время перестроения массива после замены диска;
  • Поддержка утилиты "zfs diff", позволяющей просмотреть список изменений между двумя ZFS-снапшотами или между снапшотом и текущим состоянием ФС. Утилита отображает факты изменения, переименования, создания и удаления файлов и директорий;
  • Поддержка команды zpool split, предназначенной для разбиения отзеркалированного zpool-раздела на несколько раздельных пулов. Данная возможность например позволяет упростить клонирование данных, когда к зеркалу добавляются несколько дисков, производится синхронизация и диски исключаются из пула, после чего диски содержат полную копию данных и могут быть использованы для загрузки аналогичных серверов. С использованием zpool split можно легко исключить диск из пула и затем создать на его основе новый пул;
  • Поддержка ведения счетчика ссылок на снапшот, для более гибкого управления удалением неиспользуемых снапшотов. Например, увеличив счетчик пользователь может пометить, что снапшот используется и его нельзя удалять;
  • Поддержка команды "zpool import -F", позволяющей перемотать поврежденный пул к состоянию, соответствующему более ранней группе транзакций, что позволяет с высокой вероятностью восстановить повреждённый пул из состояния FAULTED;
  • Возможность импорта пула в режиме только для чтения;
  • Оптимизация производительности и устранение ошибок.


  1. Главная ссылка к новости (http://www.mail-archive.com/fr...)
  2. OpenNews: Отчет о состоянии развития FreeBSD за первый квартал 2011 года
  3. OpenNews: Во FreeBSD-CURRENT завершён переход на bsdinstall в качестве инсталлятора по умолчанию
  4. OpenNews: В дерево исходных текстов FreeBSD интегрирована поддержка ZFSv28
Автор новости: iZEN
Тип: К сведению
Короткая ссылка: https://opennet.ru/30797-zfs
Ключевые слова: zfs, freebsd
При перепечатке указание ссылки на opennet.ru обязательно
Обсуждение (58) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, тру йода (?), 22:16, 06/06/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • –2 +/
    > Например, RAIDZ3 обеспечивает целостность данных при одновременном выходе из
    > стоя сразу трех дисков

    Из скольки?

    И еще - лично мне сомнительно что дедупликация увеличивает производительность. Не мешало бы пруф какой нибудь подкинуть.

     
     
  • 2.4, DeadMustdie1 (ok), 22:28, 06/06/2011 [^] [^^] [^^^] [ответить]  
  • –2 +/
    >> Например, RAIDZ3 обеспечивает целостность данных при одновременном выходе из
    >> стоя сразу трех дисков
    >Из скольки?

    +1. Странное заявление. Ибо тот же RAID-10 на восьми дисках может пережить одновременный выход из строя аж четырех устройств - правда, не каких попало.

    > И еще - лично мне сомнительно что дедупликация увеличивает производительность.
    > Не мешало бы пруф какой нибудь подкинуть.

    Здесь-то как раз все просто. Если данные уже "дедуплицированы" (т.е. стоимость поиска дубликатов уже уплачена), то нагрузки чтения могут быть шибко экономными как по объёму требуемых операций чтения (дубликаты два раза не читаем), так и по объёму требуемого кэша ввода-вывода.

     
     
  • 3.6, arikhin (?), 22:49, 06/06/2011 [^] [^^] [^^^] [ответить]  
  • –1 +/
    RAID-10 может умереть от выхода из строя двух дисков
    Кто тебе сказал что дубликаты два раза не читаем
     
     
  • 4.17, mvalery (ok), 23:38, 06/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Я вчера поставил в стойку сервер в котором 8 дисков в RAID-10.
    RAID-10 образован как 4 пары RAID-1(mirror), объединенные в единый RAID-0 (strip)
    В удачном случае RAID выдержит отказ четырех дисков, но только в том случае если все четыре диска окажутся в разных парах.
     
     
  • 5.20, Аноним (-), 23:48, 06/06/2011 [^] [^^] [^^^] [ответить]  
  • +5 +/
    а RAIDZ3 выдержит потерю любых трех дисков, плюс диски которые "не любые".
     
  • 5.64, yalur (ok), 17:10, 12/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    И к тому же если дисков будет 10 или 16 - то это еще и увеличивает размер пула - (N-3)*XMb по сравнению с RAID10 N/2*XMb
     
  • 2.11, uldus (ok), 23:09, 06/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >> Например, RAIDZ3 обеспечивает целостность данных при одновременном выходе из
    >> стоя сразу трех дисков
    > Из скольки?

    N + 3

     

  • 1.3, Funt (?), 22:27, 06/06/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    ZFS радует все больше в редакции фребсд, по поводу повышения производительности при дедубликации, автору новости просьба прокомментировать, насколько я знаю она экономит место на носители, но производительность уж не как не повышает, наоборот требуются дополнительные вычислительные затраты на это дело, если я ошибаюсь поправьте
     
     
  • 2.24, Anon Y Mous (?), 01:32, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > ZFS радует все больше в редакции фребсд, по поводу повышения производительности при
    > дедубликации, автору новости просьба прокомментировать, насколько я знаю она экономит
    > место на носители, но производительность уж не как не повышает, наоборот
    > требуются дополнительные вычислительные затраты на это дело, если я ошибаюсь поправьте

    Производительность при записи она точно не увеличивает, так как вместо одной операции записи приходится делать две - данные и счетчик в таблице дедупликации, а для записи последнего еще может потребоваться выполнить некоторое количество чтений с диска (если таблица в память и/или L2ARC не помещается). Вот если бы ее в оффлайне можно было делать..

     
     
  • 3.27, Аноним (-), 02:17, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Читайте источник от создателя дедупликации: http://blogs.oracle.com/bonwick/en_US/entry/zfs_dedup

    "...the performance improvement is due to the elimination of disk writes when storing duplicate data, plus the reduced memory footprint due to many applications sharing the same pages of memory."

     
     
  • 4.29, Anon Y Mous (?), 02:26, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Читайте источник от создателя дедупликации: http://blogs.oracle.com/bonwick/en_US/entry/zfs_dedup
    > "...the performance improvement is due to the elimination of disk writes when
    > storing duplicate data, plus the reduced memory footprint due to many
    > applications sharing the same pages of memory."

    О, блог Бонвика для себя открыли, поздравляю.. Вот только на практике не все так радужно, как в блоге, написанном сразу после завершения работы, когда на практике еще толком-то и не использовали.. Как только начали - так очень много всего интересного узнали.

     
  • 3.28, Anon Y Mous (?), 02:23, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Ну то есть две записи только при записи первой копии, при записи последующих обновляется только счетчик в таблице дедупликации. Хотя все это относится только к блокам данных, а поскольку метаданные для дублей все равно нужно писать, записей получается не так уж и мало. Вобщем, быстро может быть пока DDT помещается в памяти целиком, как только она перестает там помещаться, становится значительно грустнее. Хорошо если L2ARC имеется - какая то часть там может поместиться.

    Некоторые имеют с этого нехилый бенефит с коэффициентом дедупликации 368: http://twitter.com/#!/NexentaEMEA/status/58858139356901376

     

  • 1.5, iZEN (ok), 22:40, 06/06/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    Со всей ответственностью заявляю, что про производительность дедупликации в ZFSv28 я не писал. Кто-то другой добавил это от себя.

    Исходный текст новости, которую я запостил:
    ---
    Сегодня ZFSv28 портирована в ветку FreeBSD 8.

    Пользователям стабильной 8.2 версии FreeBSD стали доступны такие фичи ZFS, как:

    * Дедупликация — обнаружение на уровне файловой системы дубликатов блоков и сохранение только одной копии с восстановлением целостности различных файлов, содержащих этот блок, на лету. Экономит место на дисках в операционной среде jail'ов, располагающихся в одном пуле.
    * RAIDZ3, вариант RAIDZ с хранением трех копий отвечающих за обеспечение целостности структур, что позволяет значительно повысить надежность хранения по сравнению с RAID-режимами с двойным дублированием — RAID-6 и RAIDZ2.
    * Утилита «zfs diff», позволяющая просмотреть список изменений между двумя ZFS-снапшотами или между снапшотом и текущим состоянием ФС. Утилита отображает журнал изменений, переименований, создания и удаления файлов и каталогов.
    * Команда «zpool split» для разделения отзеркалированного пула на несколько независимых пулов, минуя промежуточные операции клонирования.
    * Счётчик ссылок на снапшот для защиты снапшотов от ошибочного удаления.
    * Команда «zpool import -F», позволяющей перемотать поврежденный пул к состоянию, соответствующему более ранней группе транзакций, что позволяет с высокой вероятностью восстановить повреждённый пул из состояния FAILED.
    * Импорт пула в режиме только для чтения.
    * Оптимизации и тюнинг общей части подсистемы ZFS в FreeBSD.
    ---

     
     
  • 2.26, Аноним (-), 02:07, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    вы от сюда https://www.opennet.ru/opennews/art.shtml?num=27828 художественно скопипастили ?

    На размышления наводит последний пункт в вашем списке и подозрительное дословное совпадение некоторых кусков в вашем списке, например, про RAIDZ3, и zfs diff и zpool import.

     
     
  • 3.30, iZEN (ok), 02:43, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Нет, не отсюда. Не скопипасил, а отредактировал перевод и выложил изменённую версию.

    По пунктам оригинального сообщения: http://www.mail-archive.com/freebsd-stable@freebsd.org/msg116307.html
    ---
    I have merged ZFS version 28 to 8-STABLE (revision 222741)

    New major features:

    - data deduplication
    - triple parity RAIDZ (RAIDZ3)
    - zfs diff
    - zpool split
    - snapshot holds
    - zpool import -F. Allows to rewind corrupted pool to earlier
      transaction group
    - possibility to import pool in read-only mode
    ---
    Получается, что я всего лишь соавтор переводчика оригинального сообщения с добавлением подробностей.

     

  • 1.10, анон (?), 23:08, 06/06/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    >Поддержка команды zpool split

    Наконец-то научились диски из raid1 выводить. Ещё бы научились их в raid5/6 добавлять, и поддержку рейда можно было бы считать полноценной.

     
     
  • 2.18, iZEN (ok), 23:43, 06/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >>Поддержка команды zpool split
    > Наконец-то научились диски из raid1 выводить.

    ZFS mirror раньше в offline расщеплять было можно.

     
     
  • 3.25, Anon Y Mous (?), 01:34, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >>>Поддержка команды zpool split
    >> Наконец-то научились диски из raid1 выводить.
    > ZFS mirror раньше в offline расщеплять было можно.

    И в онлайн, причем с самого начала. Например, можно было сделать так:

    zpool create tank mirror disk1 disk2

    А потом избавиться от зеркала:

    zpool detach tank disk1

    А потом снова его создать:

    zpool attach tank disk2 disk1

     
  • 3.32, anonymous (??), 03:27, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Раньше их можно было не "выводить", а исключать на всегда. При этом миррор при добавлении обратно строился с нуля, а "выведенный" диск не имел валидной фс.
     
     
  • 4.40, Anon Y Mous (?), 16:03, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Раньше их можно было не "выводить", а исключать на всегда. При этом миррор при добавлении обратно строился с нуля, а "выведенный" диск не имел валидной фс.

    Ну значит я просто не понял, что конкретно имелось ввиду. Кстати, если это было одиночное зеркало, то отдетаченный диск без особых проблем превращался в самостоятельный пул при помощи легкой обработки напильником из zfs-discuss

     
     
  • 5.55, Аноним (-), 06:11, 08/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Ну а теперь напильник не нужен. В смысле он теперь в наборе инструментов :)

    PS: Должно быть кРРРРуто для бэкапов ... ибо ленты - тормоза и ёмкость маловата. А тут берешь за $90.00 1.5TB SATA HDD ... песня же!

     
  • 2.31, iZEN (ok), 03:05, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Наконец-то научились диски из raid1 выводить. Ещё бы научились их в raid5/6
    > добавлять, и поддержку рейда можно было бы считать полноценной.

    А сколько стоит железячный контроллёр, способный вводить в уже настроенный аппаратный RAID-5 новый диск?


     
     
  • 3.33, Feadot (ok), 08:11, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Около 5 тыс рублей http://www.nix.ru/autocatalog/controllers_promise/Controller_Promise_FastTrak
    И как то к железному рэйду, у меня доверия больше, чем к рейду основанному на файловой системе, но это уже ИМХО.
    Под каждую задачу, решение свое :)
     
     
  • 4.34, arachnid (ok), 08:45, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    вы имеете в виду именно добавление диска к уже существующему массиву??
     
     
  • 5.39, Feadot (ok), 12:06, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >вы имеете в виду именно добавление диска к уже существующему массиву??

    Если я правильно читаю фразу:
    "перенос данных на уровне RAID-массивов для увеличения емкости запоминающего устройства по необходимости."
    http://www.promise.com/storage/raid_series.aspx?region=ru-RU&m=663&sub_m=sub_
    Да.
    Но конкретно этим рейдом не пользовался, мучаю выводок Intel RS2BL080

     
  • 4.35, Аноним (-), 08:45, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    это не полностью аппаратный рейд-контроллер
     
  • 4.65, yalur (ok), 17:40, 12/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > И как то к железному рэйду, у меня доверия больше, чем к

    А вот оракл почему то делает наоборот:
    http://www.oracle.com/us/products/servers-storage/storage/unified-storage/oco

    причем это вам не какойто недорейд за 5тыс. рублей. Кроме того oracle настоятельно рекомендует не пользоваться никакими рейдами а все диски отдать напрямую zfs.
    Кроме того напрочь отсутстую такой недостаток как:
    http://davidfrancis.blogspot.com/2008/07/raid-5-write-hole.html


     
  • 4.67, iZEN (ok), 08:28, 14/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Около 5 тыс рублей http://www.nix.ru/autocatalog/controllers_promise/Controller_Promise_FastTrak

    Тут: http://forum.ixbt.com/topic.cgi?id=11:42195-17#493 мне сказали, что это "4660/8660 - программный контроллер, так что скорость будет примерно как на ICHxR. Я бы не рисковал. Тем более, что сейчас лето, жаркая пора в ЖКХ - ревизия хозяйства, в т.ч. электрики часто свет дёргают...".

    > И как то к железному рэйду, у меня доверия больше, чем к
    > рейду основанному на файловой системе, но это уже ИМХО.

    А ничего, что ZFS обеспечивает сквозную целостность данных, а железячный (недо-)RAID рапортует только об отвале носителя?

    > Под каждую задачу, решение свое :)

    Угу. И лучше, если бы не зависело от жизненного цикла конкретной железки. ;)


     
  • 2.41, Аноним (-), 16:28, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >Ещё бы научились их в raid5/6 добавлять, и поддержку рейда можно было бы считать полноценной.

    И наверняка научатся. Но это будет уже в проприетарной соляре, и сообществу останется сосать чупа-чупс :(

     
  • 2.68, yalur (ok), 01:43, 18/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Ещё бы научились их в raid5/6 добавлять, и поддержку рейда можно было бы считать полноценной.

    Мне кажется что если у меня стоит 8 дисков, то добавления одного или 2-ух мало что даст. А если дисков 16 или более, то это вообще капля в море. Посему самое нормальное решение это просто замена всех дисков на более емкие (например поменять одно терабайтные винты на двухтерабайтные), что сразу существенно увеличит размер пула. Благо в zfs это делается легко и просто и не нада этот гемор с одним несчасным диском.

     
     
  • 3.69, yalur (ok), 01:48, 18/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    а если и этого мало, то добавляем еще один raid5/6 в страйп с предыдущим. Если мало, опять raid5/6 в страйп к этим же. А вы про какой то диск талдычите. Шире нада мыслить, товарищи.

     
  • 3.70, yalur (ok), 01:51, 18/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    и не нада говорить вот мол, диск нельзя отуда вытащить - глупо. Приведите хоть один живой и правдоподобный пример когда кому то нада уменьшить размер пула. Типа бедный студент, есть нечего, вот один диск вытащу, продам - не канает.


     

  • 1.12, eugene (??), 23:11, 06/06/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    в оригинале новости (в рассылке) говорилось про 8-STABLE. Это не то же самое, что 8.2

    И про производительность&дедупликацию. На запись при определённом типе данных, действительно, даёт существенный прирост производительности дисковой подсистемы
    (разумеется, при этом создавая нагрузку на процессор).

    В качестве эксперимента можете залить несколько раз подряд один большой файл
    при включенной и выключенной дедупликации. (например, при роли машины как бекапного сервера)

     
  • 1.14, eugene (??), 23:13, 06/06/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    >> Например, RAIDZ3 обеспечивает целостность данных при одновременном выходе из
    >> стоя сразу трех дисков
    > Из скольки?

    RAIDZ  N-1 (oн же Raid5)
    RAIDZ2 N-2 (он же raid6)
    RAIDZ3 N-3

     
     
  • 2.23, xFreedom (?), 01:03, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    RaidZx !=  Raid4+x

    реализация RaidZ принципильано другая, кроме того в ней нет проблемы write-hole.

     

  • 1.19, metallic (ok), 23:46, 06/06/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    И как это использовать? Например в 8.2?
     
     
  • 2.21, Аноним (-), 00:09, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Обновиться до РЕЛЕНГ_8, кэп.
     
  • 2.22, Motif (ok), 00:09, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Ждать 8.3
     
  • 2.37, Аноним (-), 11:15, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    сменить админа
     
  • 2.52, простотак (?), 00:20, 08/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > И как это использовать? Например в 8.2?

    Например обновится из SVN

     

  • 1.38, Анонимчик (?), 11:25, 07/06/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Имеет смысл держать PostgreSQL на ZFS? И не опасно ли это в плане стабильности ZFS?
     
     
  • 2.42, Аноним (-), 16:30, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Имеет смысл держать PostgreSQL на ZFS?

    DIO в ZFS нет, так что не особо.

    > И не опасно ли это в плане стабильности ZFS?

    Если ZFS на соляре - не опасно. От фряшного порта остались не лучшие впечатления.

     
     
  • 3.43, iZEN (ok), 17:13, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >> Имеет смысл держать PostgreSQL на ZFS?
    > DIO в ZFS нет, так что не особо.

    Учиться обращаться с ZVOL для просвещения.

    >> И не опасно ли это в плане стабильности ZFS?
    > Если ZFS на соляре - не опасно. От фряшного порта остались не лучшие впечатления.

    Не лучшие впечатления от фряшного порта в 2007 году?


     
     
  • 4.46, Аноним (-), 17:42, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >Учиться обращаться с ZVOL для просвещения.

    Ну учитесь, учитесь.

    >Не лучшие впечатления от фряшного порта в 2007 году?

    Через несколько месяцев после того, как его объявили "ready for production". Точную дату не записал, извините.

     
  • 3.44, Wulf (??), 17:16, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > DIO в ZFS нет, так что не особо.

    Как так нету? а "zfs set primarycache=metadata" тогда что делает? К тому же, postgres всегда пользовался кэшем OS а не собственным. Ему DIO кроме как у pg_xlogs полностью противопоказан.

     
     
  • 4.47, Аноним (-), 17:44, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • –1 +/
    >> DIO в ZFS нет, так что не особо.
    > Как так нету? а "zfs set primarycache=metadata" тогда что делает?

    Ограничивает использование L1-кэша метаданными. Ничего общего с DIO не имеет. // К.О.
    Hint: отключенный кэш не является достаточным условием для DIO.

     
     
  • 5.48, Wulf (??), 17:57, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Ограничивает использование L1-кэша метаданными. Ничего общего с DIO не имеет. // К.О.
    > Hint: отключенный кэш не является достаточным условием для DIO.

    Хватит демагогию разводить. и префетч там отключается и синхронная запись есть.

     
  • 3.49, Anon Y Mous (?), 20:16, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > DIO в ZFS нет, так что не особо.

    А что тут имеется ввиду под DIO? Просто очень уж перегруженный разными смыслами термин:

    http://blogs.oracle.com/bobs/entry/one_i_o_two_i

     
  • 2.45, Wulf (??), 17:41, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Имеет смысл держать PostgreSQL на ZFS? И не опасно ли это в плане стабильности ZFS?

    На счет стабильности при наличии правильно выставленного лимита на arc size нареканий нет.
    А вот про производительность впечатления весьма противоречивые. С одной стороны, если поток транзакций хорошо вписывается в кэш, postgres на ZFS работает намного быстрее UFS. С другой стороны вещи, читающие и пишущие большие объемы - pg_dump и vacuum - работают значительно тормознутей.

     
  • 2.50, arikhin (?), 20:56, 07/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Имеет смысл держать PostgreSQL на ZFS? И не опасно ли это в
    > плане стабильности ZFS?

    базы
    ssd + ufs
    newfs -U -f 4096 adX
    лог
    sata + ufs
    на zfs нет смысла

     
     
  • 3.57, qwe (??), 20:57, 09/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Обновился с 8.2 до
    svn.freebsd.org/base/stable/8/ r222896
    пересобрал ядро
    zpool upgrade -v
    пишет 15
    должно работать?
     
     
  • 4.58, arachnid (ok), 21:11, 09/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Обновился с 8.2 до
    > svn.freebsd.org/base/stable/8/ r222896
    > пересобрал ядро
    > zpool upgrade -v
    > пишет 15
    > должно работать?

    обновляю через csup по тегу RELENG_8 - zpool v28

     
  • 4.59, iZEN (ok), 21:14, 09/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Обновился с 8.2 до
    > svn.freebsd.org/base/stable/8/ r222896
    > пересобрал ядро
    > zpool upgrade -v
    > пишет 15
    > должно работать?

    Вы забыли сделать апгрейд самих пулов.


     
     
  • 5.60, qwe (??), 02:37, 10/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >> Обновился с 8.2 до
    >> svn.freebsd.org/base/stable/8/ r222896
    >> пересобрал ядро
    >> zpool upgrade -v
    >> пишет 15
    >> должно работать?
    > Вы забыли сделать апгрейд самих пулов.

    Всё появилось только после make buildworld...)))
    # zpool upgrade -v
    This system is currently running ZFS pool version 28.
    VER  DESCRIPTION
    ---  --------------------------------------------------------
    1   Initial ZFS version
    2   Ditto blocks (replicated metadata)
    3   Hot spares and double parity RAID-Z
    4   zpool history
    5   Compression using the gzip algorithm
    6   bootfs pool property
    7   Separate intent log devices
    8   Delegated administration
    9   refquota and refreservation properties
    10  Cache devices
    11  Improved scrub performance
    12  Snapshot properties
    13  snapused property
    14  passthrough-x aclinherit
    15  user/group space accounting
    16  stmf property support
    17  Triple-parity RAID-Z
    18  Snapshot user holds
    19  Log device removal
    20  Compression using zle (zero-length encoding)
    21  Deduplication
    22  Received properties
    23  Slim ZIL
    24  System attributes
    25  Improved scrub stats
    26  Improved snapshot deletion performance
    27  Improved snapshot creation performance
    28  Multiple vdev replacements

     
     
  • 6.61, iZEN (ok), 03:52, 10/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >> Вы забыли сделать апгрейд самих пулов.
    > Всё появилось только после make buildworld...)))
    > # zpool upgrade -v
    > This system is currently running ZFS pool version 28.

    Посмотрите вывод команды "zpool upgrade". Сразу всё станет ясно.

    Перед тем как апгрейдить загрузочный пул, нужно записать новые загрузчики:
    gpart bootcode -b /boot/pmbr <загрузочное устройство>
    gpart bootcode -p /boot/gptzfsboot -i 1 <загрузочное устройство>

     
     
  • 7.62, qwe (??), 18:34, 10/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >>> Вы забыли сделать апгрейд самих пулов.
    >> Всё появилось только после make buildworld...)))
    >> # zpool upgrade -v
    >> This system is currently running ZFS pool version 28.
    > Посмотрите вывод команды "zpool upgrade". Сразу всё станет ясно.
    > Перед тем как апгрейдить загрузочный пул, нужно записать новые загрузчики:
    > gpart bootcode -b /boot/pmbr <загрузочное устройство>
    > gpart bootcode -p /boot/gptzfsboot -i 1 <загрузочное устройство>

    Всt отлично! Вчера я тренировался на VMWare БЕЗ пулов)))
    А сегодня сделал на реальной с мирором на борту!
    Огромное спасибо за gpart bootcode но у меня системе на третьем диске не на мироре.
    Это тестовая тоже машина: системный 20G + две 40G в зеркало с парой исошок (*.ISO) от FreeBSD а все остальное логи SQUID'a.
    У в boot с zfs я пока не верю, может допилят скоро.

     
     
  • 8.63, iZEN (ok), 20:03, 10/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    У меня с 2009 года, когда FreeBSD 8 0 ещё BETA2 была, загрузка с ZFS работает ... текст свёрнут, показать
     
  • 8.66, yalur (ok), 17:47, 12/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Он в вас тоже не верит - потому как неасилил ... текст свёрнут, показать
     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Спонсоры:
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2021 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру