The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



"Релиз OpenZFS 2.1 с поддержкой dRAID"
Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Изначальное сообщение [ Отслеживать ]

"Релиз OpenZFS 2.1 с поддержкой dRAID"  +/
Сообщение от opennews (??), 03-Июл-21, 00:19 
Опубликован релиз проекта OpenZFS 2.1, развивающего реализацию файловой системы ZFS для Linux и FreeBSD. Проект получил известность как "ZFS on Linux" и ранее ограничивался разработкой модуля для ядра Linux, но после переноса поддержки FreeBSD был признан основной реализацией OpenZFS и был избавлен от упоминания Linux в названии...

Подробнее: https://www.opennet.ru/opennews/art.shtml?num=55433

Ответить | Правка | Cообщить модератору

Оглавление

Сообщения [Сортировка по ответам | RSS]

1. Сообщение от Аноним (1), 03-Июл-21, 00:19   –8 +/
z-фска рулит! ещё б ее на rust переписать!
Ответить | Правка | Наверх | Cообщить модератору

3. Сообщение от Аноним (3), 03-Июл-21, 00:25   –6 +/
Дефрагментацию так и не запилили? Тогда не нужно.
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #7, #12, #71

4. Сообщение от Аноним (4), 03-Июл-21, 00:28   +/
Проблемы рейда с парити (raid6) так и не решили?
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #140, #222

5. Сообщение от Анон123амм (?), 03-Июл-21, 01:19   –5 +/
оно хоть на расте написано или опять на сишные грабли наступают?
Ответить | Правка | Наверх | Cообщить модератору

6. Сообщение от ИмяХ (?), 03-Июл-21, 01:27   –1 +/
>>Добавлена поддержка горячего добавления памяти и CPU.

Осталось добавить поддержку видеокарт, Wi-fi, пятикнопочной мыши, управление скоростью вращения кулеров и тогда будет годная файловая система для повседневного использования.

Ответить | Правка | Наверх | Cообщить модератору
Ответы: #9

7. Сообщение от Аноним (7), 03-Июл-21, 01:46   –2 +/
Зачем вам дефрагментатор? На zfs возможна лишь фрагментация свободного пространства, но не данных.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #3 Ответы: #86

8. Сообщение от Аноним (7), 03-Июл-21, 01:52   +4 +/
Лучшая файловая система по совокупности потребительских характеристик!
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #10, #11

9. Сообщение от Аноним (3), 03-Июл-21, 01:55   +3 +/
Systemd-zfsd
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #6 Ответы: #14

10. Сообщение от Аноним (10), 03-Июл-21, 02:37   +/
Нет, свободное место утекает.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #8 Ответы: #18

11. Сообщение от Аноним (3), 03-Июл-21, 02:40   –5 +/
>Лучшая файловая система

Зачем же ты упомянул xfs в новости про zfs?

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #8 Ответы: #13

12. Сообщение от Хан (?), 03-Июл-21, 02:47   –1 +/
Дефрагментация на HDD слишком тормозная и неэффективная, а на SSD вообще бессмысленная
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #3

13. Сообщение от Хан (?), 03-Июл-21, 02:51   –5 +/
Очень по линуксячьи гордится чужими разработками, а именно XFS от SGI...
А ZFS от Sun чем не угодила? Тем что лицензия не позволяет включить ее в ядро?
Вангую что если когда нибудь ZFS сменит лицензию на BSD, линуксоиды взревут от восторга и будут вопить какая ZFS крутая
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #11 Ответы: #16, #39

14. Сообщение от Хан (?), 03-Июл-21, 02:52   +/
Лучше не напоминай про systemd, это такая хрень, что капец
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #9 Ответы: #70

15. Сообщение от Ivan_83 (ok), 03-Июл-21, 02:57   –2 +/
Кто то использует для себя или в проде?
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #17, #20, #34, #48, #51, #69, #132, #156, #250, #264

16. Сообщение от Аноним (18), 03-Июл-21, 02:59   –1 +/
Не так важно, кто разработал, важно, что быстро работает (и не деградирует по скорости со временем), и гораздо более эффективно расходует память.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #13 Ответы: #30, #58, #66, #260

17. Сообщение от Аноним (18), 03-Июл-21, 03:01   +/
Поставили на нее постгрес, выжрало 200 гигов оперативки (не считая стандартного кэша, который reclaimable). Норм.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #15 Ответы: #49

18. Сообщение от Аноним (18), 03-Июл-21, 03:03   +/
Стандартное свойство cow-систем на базе древовидных структур.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #10 Ответы: #28

20. Сообщение от Аноним (20), 03-Июл-21, 03:15   +/
Для виртуализации дома - шикарная вещь!
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #15 Ответы: #22

22. Сообщение от Аноним (18), 03-Июл-21, 03:18   +/
Дома - сойдет. А вот при продовой нагрузке никакой памяти не напасешься.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #20 Ответы: #29

28. Сообщение от Хан (?), 03-Июл-21, 03:23   +1 +/
Это линуксоиды сэр... они могут критиковать ZFS так как ее лицензия знатно троллит пингвинов и при этом же восхвалять Btrfs которая является копипастой на ZFS но под идеологически правильной лицензией
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #18 Ответы: #36

29. Сообщение от Аноним (20), 03-Июл-21, 03:24   +/
Аппетит arc легко унять с помощью zfs_arc_max, но правильный подход состоит в том, чтобы определить необходимый размер для ваших типичных нагрузок по попаданиям в кеш.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #22 Ответы: #75, #254

30. Сообщение от Хан (?), 03-Июл-21, 03:24   +2 +/
Быстрее FAT сложно придумать
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #16 Ответы: #33, #166

33. Сообщение от maximnik0 (?), 03-Июл-21, 04:06   +/
>Быстрее FAT сложно придумать

Нет,ехт4 с отключенным журналом работает быстрее.
Ехтенты сэр,быстрее только RAW режим.Ну может еще exfat покажет схожую скорость.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #30 Ответы: #40, #127

34. Сообщение от iCat (ok), 03-Июл-21, 04:53   –1 +/
И дома, и на производстве.
Но не в качестве одной-единственной-универсальной файловой системе.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #15 Ответы: #192

36. Сообщение от pofigist (?), 03-Июл-21, 05:03   +8 +/
У btrfs есть ещё одно важное отличае от zfs - способность внезапно и гарантировано похерить ваши данные...
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #28 Ответы: #89

37. Сообщение от Док (?), 03-Июл-21, 05:05   –1 +/
Не самая быстрая фс зато удобная. Убунта, hdd, ssd - все норм уже полгода
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #41

39. Сообщение от Док (?), 03-Июл-21, 05:07   –2 +/
Ты полный бред несешь. Может потому что ты банальный неуч и неудачник по жизни
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #13 Ответы: #44

40. Сообщение от Хан (?), 03-Июл-21, 05:18   –1 +/
ExFAT лютый апрейд FAT, раньше она так и называлась FAT64
Насчет ext4 с отключенным журналом, ну так это тот же FAT только с экстентами
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #33 Ответы: #55

41. Сообщение от Хан (?), 03-Июл-21, 05:20   +3 +/
Скорость уже давно променяли на надежность и это как не странно нормальн, ведь если данные потеряны кому какая разница какая там скорость
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #37

42. Сообщение от Аноним (42), 03-Июл-21, 06:08   –1 +/
CDDL - УГ-розовой-снежинки нельзя допускать к чему-либо стоящему.
Ответить | Правка | Наверх | Cообщить модератору

44. Сообщение от СлышЭ (?), 03-Июл-21, 06:11   +/
Твой порт всё дудосил!
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #39

47. Сообщение от bOOster (ok), 03-Июл-21, 06:29   –4 +/
У писаки новости когнитивное расстройство?
Насколько я помню у проекта созданного Illumos всегда было только одно название OpenZFS.
А ZoL это достаточно корявый проект (со стороны лицензирования) по интеграции OpenZFS в ядро Linux. И это погоняло "ZoL" официально не существовало, кроме как в воспаленных мозгах фанатиков пингвина.
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #96, #110

48. Сообщение от bOOster (ok), 03-Июл-21, 06:34   +/
"Ты у мамы дурачек?"

https://www.qnap.com/en/product/series/enterprise

Да еще и на FreeBSD по совместительству.

Какая трагедия для Линуксоидов.
QNAP все расставила по своим местам
QTS - Entry and Mid level Linux based system.
QES - Enterprise level FreeBSD based system

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #15 Ответы: #133, #191, #247

49. Сообщение от bOOster (ok), 03-Июл-21, 06:37   –1 +/
Ты наглядно показал свой уровень администратора. Ниже плинтуса. Руководитель этого чудика есть тут? Гоните его в шею...
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #17 Ответы: #52

50. Сообщение от Аноним (-), 03-Июл-21, 06:37   +2 +/
Ещё бы swap довели до работоспособного состояния, а то он как бы есть, но вызывает гарантированный капут https://github.com/openzfs/zfs/issues/7734 . Того глядишь и hibernation на hdd заработает. Неужели нет башковитых, которые способны это поправить?
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #53, #73

51. Сообщение от bOOster (ok), 03-Июл-21, 06:40   –1 +/
https://www.qnap.com/en/product/series/enterprise

Да еще и на FreeBSD по совместительству.

ПыСы. Для удаляющих - кому адресовано предыдущее удаленное сообщение было - он его получил.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #15

52. Сообщение от Аноним (7), 03-Июл-21, 06:48   +1 +/
Речь об использовании своего кеша и перевода primarycache в metadata?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #49 Ответы: #54, #253

53. Сообщение от bOOster (ok), 03-Июл-21, 06:48   +2 +/
> Ещё бы swap довели до работоспособного состояния, а то он как бы
> есть, но вызывает гарантированный капут https://github.com/openzfs/zfs/issues/7734
> . Того глядишь и hibernation на hdd заработает. Неужели нет башковитых,
> которые способны это поправить?

SWAP в ZFS пихать?? Да вы знаете толк в извращениях.. И все только ради того чтобы ручками изначально диск не разбивать? Дабы выделить место под SWAP?

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #50 Ответы: #74, #79, #162

54. Сообщение от bOOster (ok), 03-Июл-21, 06:50   –1 +/
> Речь об использовании своего кеша и перевода primarycache в metadata?

А теперь давай перевод сего перла в терминах именно ZFS.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #52 Ответы: #57

55. Сообщение от maximnik0 (?), 03-Июл-21, 06:52   –1 +/
>Насчет ext4 с отключенным журналом, ну так это тот же FAT только с экстентами

Не ,b-"дерева" у фат нету.Из-за этого с каталогом где до хрена мелких файлов работает шустрее фат.

>ExFAT лютый апрейд FAT,

Хреновый апгрейд-шифрования нет,сжатия нет.Зато добавили ACL (опционально).


Ответить | Правка | Наверх | Cообщить модератору
Родитель: #40 Ответы: #59, #78

57. Сообщение от Аноним (7), 03-Июл-21, 07:00   +/
primarycache=all - это кеширование arc'ом буквально всего, а metadata - тут все и так понятно. Проще говоря, используем родной высокоэффективный кеш постгреса и запрещаем кешировать данные базы arc'ом. Или вы имели в виду что-то другое?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #54 Ответы: #63, #65

58. Сообщение от bOOster (ok), 03-Июл-21, 07:07   –1 +/
> Не так важно, кто разработал, важно, что быстро работает (и не деградирует
> по скорости со временем), и гораздо более эффективно расходует память.

QNAP так не считает и все расставила по своим местам. Какая трагедия для Линуксоидов.

QTS - Entry and Mid level Linux based system.
QES - Enterprise level FreeBSD based system. И ожидаемо ZFS

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #16 Ответы: #82, #90, #95

59. Сообщение от bOOster (ok), 03-Июл-21, 07:10   –1 +/
>>Насчет ext4 с отключенным журналом, ну так это тот же FAT только с экстентами
> Не ,b-"дерева" у фат нету.Из-за этого с каталогом где до хрена мелких
> файлов работает шустрее фат.
>>ExFAT лютый апрейд FAT,
> Хреновый апгрейд-шифрования нет,сжатия нет.Зато добавили ACL (опционально).

В инфраструктуре FreeBSD за шифрование отвечает GELI. И в целом нет необходимости делать очередную тупость внедряя в каждой FS свое шифрование. GELI шифрует FS целиком.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #55 Ответы: #64

63. Сообщение от bOOster (ok), 03-Июл-21, 07:27   –3 +/
> primarycache=all - это кеширование arc'ом буквально всего, а metadata - тут все
> и так понятно. Проще говоря, используем родной высокоэффективный кеш постгреса и
> запрещаем кешировать данные базы arc'ом. Или вы имели в виду что-то
> другое?

Кэширование кэшей бд и т.п. ZFSом даже звучит глупо. Эти вещи надо выделять на отдельные SSD и т.п.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #57 Ответы: #72

64. Сообщение от Аноньимъ (ok), 03-Июл-21, 07:29   –1 +/
GELI не шифрует ФС, оно шифрует блочные устройства.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #59 Ответы: #67, #68

65. Сообщение от bOOster (ok), 03-Июл-21, 07:32   –1 +/
> primarycache=all - это кеширование arc'ом буквально всего, а metadata - тут все
> и так понятно. Проще говоря, используем родной высокоэффективный кеш постгреса и
> запрещаем кешировать данные базы arc'ом. Или вы имели в виду что-то
> другое?

Да, чтобы система была эффективна ВСЕГДА необходимо ручками поработать и головой. Создатель системы и файло-системы не знает о твоих задачах.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #57 Ответы: #106

66. Сообщение от Аноньимъ (ok), 03-Июл-21, 07:33   –1 +/
Вы можете отключив зфс фичи и покрутив настройки затюнить её до состояния XFS и дальше.

Только смысла нет, отказываться от функционала.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #16

67. Сообщение от bOOster (ok), 03-Июл-21, 07:35   –1 +/
> GELI не шифрует ФС, оно шифрует блочные устройства.

Ну а блочное устройство в 99% случаев что содержит в себе?

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #64 Ответы: #129

68. Сообщение от bOOster (ok), 03-Июл-21, 07:39   –1 +/
> GELI не шифрует ФС, оно шифрует блочные устройства.

Хотя замечание в целом правильное. Функционал GELI значительно шире чем шифрование отдельной FS.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #64

69. Сообщение от Аноньимъ (ok), 03-Июл-21, 07:43   +2 +/
Дома норм, пару сгнивших блоков данных отловил.
Каши не просит. Кеширование работает очень неплохо.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #15 Ответы: #91

70. Сообщение от Аноним (70), 03-Июл-21, 07:45   +2 +/
Да, кстати, вы просили напомнить о systemd!
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #14 Ответы: #128

71. Сообщение от bOOster (ok), 03-Июл-21, 07:47   –1 +/
> Дефрагментацию так и не запилили? Тогда не нужно.

В высокоэффективных файловых структурах - система располагает данные для целевого назначения (максимальной производительности, минимального обьема и т.п.) и делает она это в соотвествии со своим порядком, а никак не твоим представлением, где и как должны лежать цельно-выровненные файлы...

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #3 Ответы: #87, #88

72. Сообщение от Аноним (7), 03-Июл-21, 07:57   +1 +/
Сдаюсь.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #63

73. Сообщение от Аноньимъ (ok), 03-Июл-21, 08:04   –1 +/
Это скорее особенность работы линукса с памятью... Чем проблема зфс.
Если хотите свап на зфс то нужно внимательно всё настроить.

На линуксе похожие проблемы возникают при записи на флешку - система может повиснуть.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #50 Ответы: #80, #135

74. Сообщение от Аноньимъ (ok), 03-Июл-21, 08:07   +/
Ну, сжатие свопа и динамическая аллокация места полезные вещи.

Впрочем, лично я противник гибернации. Это было ещё ок на 8Гб ОЗУ но с 16+ слишком непрактично по скорости для ССД. Не говоря уже о других проблемах.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #53 Ответы: #126

75. Сообщение от Амоним (?), 03-Июл-21, 08:08   +/
Размер то можно еще как-то контролировать, а вот распределение нет. Поэтому получается что спустя какое-то время памяти вроде еще предостаточно, только на физическом уровне она фрагментирована безбожно. Запрашиваешь мегабайт - получаешь мегабайт, логически цельным куском, физически из ошметков памяти.  
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #29 Ответы: #281

76. Сообщение от Ю.Т. (?), 03-Июл-21, 08:09   –1 +/
Кто лично работал, как данные на ZFS после сбоев питания? После аппаратного reset?
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #81, #83, #102, #237, #240, #267

78. Сообщение от Хан (?), 03-Июл-21, 08:17   –1 +/
Отсутсвие B+ дерева в структуре FAT историческое
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #55

79. Сообщение от Аноним (-), 03-Июл-21, 08:25   +/
Вы из тех, кто придерживается идеи: "При операциях достаточно продезинфицировать инструменты, руки мыть не нужно"? Поэтому вас не смущает, что кусок ram будет "на изначально, не извращённо разбитом куске одного hdd ручками" с неизвестным состоянием? Вам не zfs нужен, а /dev/random, пользуйтесь.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #53 Ответы: #244

80. Сообщение от Аноним (-), 03-Июл-21, 08:31   +/
Подскажите как правильно, а то в рекомендациях OpenZFS есть инструкция и на следующей строчке "не работает, не используйте", судя по issue - никто до сих пор не смог "правильно" настроить.

Из-за флешки система ни разу не висла, если это важно.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #73 Ответы: #100, #103, #111, #125

81. Сообщение от Аноним (-), 03-Июл-21, 08:33   +/
>Кто лично работал, как данные на ZFS после сбоев питания? После аппаратного reset?

Не знаю.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #76

82. Сообщение от Яровая (?), 03-Июл-21, 08:45   +1 +/
QNAP это поделка для домашнего использования. Поэтому совершенно неважно, что там внутри.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #58 Ответы: #118

83. Сообщение от Яровая (?), 03-Июл-21, 08:49   +/
На Солярке никаких проблем с этим нет, на других системах не пользовал
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #76

84. Сообщение от Аноним (84), 03-Июл-21, 08:52   –3 +/
Зачем, если есть ext4, jfs, xfs, btrfs, reiserfs, encfs, ntfs, fat, etc
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #94, #109

85. Сообщение от Аноним (85), 03-Июл-21, 09:10   +/
> InfluxDB предложена команда "zpool influxdb".

Перед написанием новости полезно прочитать документацию.

Нет такой команды "zpool influxdb", а есть "zpool_influxdb"! Исправьте текст новости.

NAME
     zpool_influxdb — collect ZFS pool statistics in InfluxDB line protocol format

SYNOPSIS
     zpool_influxdb [-e|--execd] [-n|--no-histogram] [-s|--sum-histogram-buckets] [-t|--tags key=value[,key=value]…] [pool]

Ответить | Правка | Наверх | Cообщить модератору
Ответы: #209

86. Сообщение от Онаним (?), 03-Июл-21, 09:11   +3 +/
Это на коровах-то (CoW) "но не данных"?
Лечите кого-нибудь другого.
На коровах почти любая запись в файл фрагментирует данные by design.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #7 Ответы: #161, #261, #276, #277

87. Сообщение от Онаним (?), 03-Июл-21, 09:12   +1 +/
Ротационным накопителям пофиг на "свой порядок" у альтернативно одарённых, для них оптимальное расположение - последовательное.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #71 Ответы: #97

88. Сообщение от Онаним (?), 03-Июл-21, 09:13   +/
Полноценным твердотельникам ещё более пофиг - у них внутри данные всё равно раскладываются так, как хотят они, а не софт.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #71 Ответы: #112

89. Сообщение от Онаним (?), 03-Июл-21, 09:14   –5 +/
Это да. Если ZFS похерила данные, назад уже ничего не вытянуть.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #36 Ответы: #105

90. Сообщение от Онаним (?), 03-Июл-21, 09:15   +2 +/
QNAP - это унылое SOHO в лучшем случае.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #58

91. Сообщение от Онаним (?), 03-Июл-21, 09:17   –3 +/
Что за дерьмо, простите, вы юзаете на подложке, что у вас родной ECC накопителя "сгнившие блоки" не отлавливает? Какие-нибудь доисторические б/у WD, на авито купленные?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #69 Ответы: #98, #143

92. Сообщение от пох. (?), 03-Июл-21, 09:20   –5 +/
Ну вот, только "influxdb" в драйвере файловой системы нам, для полного щастия, конечно же, и не хватало. Ах, да, и "ускоренной загрузки модуля ведра", конечно же.

Херачь молнией, Г-ди, тут уже ничего не исправить!

Ответить | Правка | Наверх | Cообщить модератору
Ответы: #116

94. Сообщение от Хан (?), 03-Июл-21, 09:23   +/
Зоопарк
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #84 Ответы: #138, #168

95. Сообщение от пох. (?), 03-Июл-21, 09:26   –1 +/
> QNAP так не считает и все расставила по своим местам. Какая трагедия для Линуксоидов.

даже мелкая помойная лавка начала переходить на линукс - какая трагедия для глупых фанатов.

Пока да, только те коробочки что подешевле. Но не беспокойся, те что подороже тоже там же будут. Как уже произошло с iX. Пупсики хочуть доскер. Зачем им докер на _сторадже_ - сами не знают, но так модно, так у всех, подавайте и нам.

https://ps.reddit.com/r/DataHoarder/comments/mmjsgu/update_t.../

все что надо знать о "качестве" и "ентер-прайсности" qnap.

Ну если вам истории с remote root, который пол-года не могли исправить, недостаточно было бы.

Жги, Г-ди! Нет тут праведников.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #58 Ответы: #119, #121

96. Сообщение от Аноним (96), 03-Июл-21, 09:27   +3 +/
"ZFS on Linux" много лет развивался параллельно с ZFS от Illumos как отдельный форк для Linux. Раньше OpenZFS было названием инициативы для взаимодействия и обмена патчами команд, занимавшихся ZFS в Linux, FreeBSD, macOS и Illumos. После того как  "ZFS on Linux" портировали для FreeBSD и стало очевидно, что по функциональности и уровню сопровождения он давно перерос ветку от Illumos, создали новый репозиторий OpenZFS, поместили туда код "ZFS on Linux" и объявили, что теперь будут разрабатывать "ZFS on Linux" под этим именем. До этого OpenZFS никакая редакция не называлась.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #47 Ответы: #120, #122

97. Сообщение от пох. (?), 03-Июл-21, 09:35   +6 +/
> Ротационным накопителям пофиг на "свой порядок" у альтернативно одарённых, для них оптимальное
> расположение - последовательное.

с разморозочкой, ваш MS-DOS давно уже немодно.

В многозадачной системе с множественным параллельным доступом к данным, причем как правило ни разу не linear, оно ни разу не будет оптимальным. Особенно с учетом того забавного факта, что у данных есть еще и метаданные, и их тоже надо читать каждый раз.

Оптимальным был бы хитрый interleave знающий точно о том что и какими кусками будет читаться, но за неимением /dev/astral - обходятся блоками разумной длинны и размещением метаданных немножко более разумным способом чем в твоем любимом fat.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #87 Ответы: #157

98. Сообщение от Аноньимъ (ok), 03-Июл-21, 09:54   +/
Контролируйте свой пожар.

Биты могут флипаться где угодно.

На больших объёмах и временных промежутках неисправимые ошибки неизбежны.

Накопитель же, если и отловит, то не скажет какой файл повреждён.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #91 Ответы: #99

99. Сообщение от Онаним (?), 03-Июл-21, 10:03   –2 +/
Чувак. Эти сказочки о битфлипах на накопителях и волшебной ZFS - со времён царя Гороха - только сказочки.

Битфлип на собственно хранимых данных ловится ECC диска, который очень многобитовый. И не вызывает никаких "повреждений файла".

Если ECC не осиляет скорректировать - будет "битый сектор". Чтобы поймать при чтении лажу - надо этот битый сектор вычитывать 100500 раз, тогда, может быть, звёзды сойдутся, и флипнутся уже 100500 бит "как надо" - но это эксклюзив для мазохистов.

Битфлипы могут на шине возникнуть при передаче данных, но в случае допустим SATA/SAS - это тоже уже практически не актуально, во-первых битфлип на дифференциальной паре - это редкость редкая, во-вторых, на шине есть CRC.

Основная же масса реальных битфлипов возникает в (условно) битой RAM с авиты и прочем битом железе, и остаётся незамеченной, потому что все контрольные суммы при записи посчитаются уже с битых данных.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #98 Ответы: #101, #104, #107

100. Сообщение от Аноньимъ (ok), 03-Июл-21, 10:04   +1 +/
Ну с ходу, свапинес в 100 выставить.
А вытеснение кешей в 200(или 1), в зависимости от логики.
Сжатие свопа(забыл как оно называется)  которое страницы памяти сжимает, отключить.
Кеши зфс настроить так, чтобы они не занимали больше трети ОЗУ. Впрочем 10% скорее. Как кеши записи так и чтения. Особенно записи конечно в данном случае.

Ну и я не в курсе, но по идее вся запись на раздел со свапом должна быть синхронной.

И чексуммы отключить если свап не зеркальный.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #80

101. Сообщение от Онаним (?), 03-Июл-21, 10:07   –1 +/
Современная архитектура систем хранения такова, что ECC/CRC покрыто всё.
И если ещё память покрыть ECC (что по сути давно должно было стать нормой, процесс тормозил только штеуд, не запиливавший ECC в десктопы) - единственным местом, где что-то может совсем уж бесконтрольно флипнуть, остаётся сам CPU. Такие дела.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #99

102. Сообщение от chippemail (?), 03-Июл-21, 10:32   +1 +/
За десяток лет эксплуатации в продакшене (пяток серверов хранения данных с разными конфигурациями zraid) данные потерял только один раз. Но там грохнулась сама железка.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #76

103. Сообщение от iZENemail (ok), 03-Июл-21, 10:50   +2 +/
SWAP на FreeBSD средствами ZFS:
zfs create -V 4G poolname/swap
zfs set org.freebsd:swap=on poolname/swap
zfs set compress=off poolname/swap
zfs set sync=disabled poolname/swap
zfs set dedup=off poolname/swap
zfs set primarycache=none poolname/swap
swapon /dev/zvol/poolname/swap
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #80

104. Сообщение от пох. (?), 03-Июл-21, 10:50   +1 +/
> Чувак. Эти сказочки о битфлипах на накопителях и волшебной ZFS - со времён царя Гороха - только
> сказочки.

угу, главное ж свято веровать.

В волшебную ECC, например.

И ни разу не прочитать ни одного учебника по теории кодирования.
После чего "сказочки" внезапно превращаются в банальную статистику, а к людям, сующим свой "CRC" куда надо и куда не надо - возникают очень интересные вопросы. Например - какой длины был исходный полином и почему НИГДЕ этой информации нет. И, отдельно - а почему у нас ДВА crc (на самом деле их пять но про остальные успели забыть вчерарожденные).

А если еще немножко знать о том, как prml диски читают 'данные' методом угадава, то жизнь станет совсем непрекрасной, зато удивительной.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #99

105. Сообщение от Аноним (105), 03-Июл-21, 10:51   +/
Потому что ВСЕГДА нужно делать бекапы, разнесенные физически. Никакой ZFS от молотка, пожара и кривых рук не защищает.
А вообще, структуру повреждённого RaidZ вполне можно прочитать утилитами восстановления из Винды, если религия позволяет.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #89 Ответы: #246

106. Сообщение от Аноним (106), 03-Июл-21, 10:53   –1 +/
В винде ты просто форматируешь в NTFS и оно просто работает. И под базу и под игры и под софт и под 3дмакс и под фотошоп и под торренты. И даже под виртуалку с убунтой.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #65 Ответы: #117, #137, #139

107. Сообщение от Битфлип (?), 03-Июл-21, 11:06   +/
Чувак, о моём отсутствии расскажи вон тем четырём торрентам хозяина этого компа, стоящим на 99.9%
Один блок не находится в сети, хоть ты тресни.
При этом, видеоряд без глюков, jpeg без глюков.
А это потому, что у автора торрент при хэшировании словил меня :)
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #99 Ответы: #152

108. Сообщение от Плохой Танцор (?), 03-Июл-21, 11:09   +/
Прочитав специалистов с "опеннета", очередой раз убедился что лучше ext4 и ntfs ничего нет и в ближайшие годы не предвидится.
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #178

109. Сообщение от Аноним (109), 03-Июл-21, 11:10   –2 +/
Зачем зачем, если есть fuse.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #84 Ответы: #114

110. Сообщение от Moomintroll (ok), 03-Июл-21, 11:12   +/
https://en.m.wikipedia.org/wiki/OpenZFS

> 2008: Development of a native ZFS Linux port started, known as ZFS on Linux.
> 2010: illumos was forked from OpenSolaris as its open-source successor

Вы станете возражать, что википедия не является официалтным источником информации о ZFS и OpenZFS, но официальный FAQ ссылается именно на эту ствтью: https://openzfs.github.io/openzfs-docs/Project%20and�...

> Additional information about OpenZFS can be found in the OpenZFS wikipedia article.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #47 Ответы: #172

111. Сообщение от Аноним (-), 03-Июл-21, 11:22   +/
Аноньимъ и iZEN,
Понимаю, что вы хотите блеснуть рабочим решением, но для начала сами попробуйте прогнать stress-ng --vm 8 --vm-keep --vm-bytes 120% с вашими настройками. Никакой "свапинес", тем более 100 - не поможет, "sync=disabled" https://github.com/openzfs/zfs/issues/7734#issuecomment-7236... вообще из разряда вредных советов. Выше есть ссылка с обсуждением этой "признанной" проблемы с логами, никакой волшебной пилюли нет.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #80 Ответы: #144, #193

112. Сообщение от Аноним (112), 03-Июл-21, 11:22   +/
Да и в современных ЖД c LBA адресацией, соседние номера блоков часто не являются соседями физически. Скорей правила хорошего тона, чем жесткий закон, что надо хранить последовательно.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #88 Ответы: #175

113. Сообщение от макпыф (ok), 03-Июл-21, 11:25   +/
чем оно лучше ext4?
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #179, #265

114. Сообщение от Хан (?), 03-Июл-21, 12:10   –1 +/
FUSE как раз таки яркий пример микроядерности в моноядре, жаль что только для ФС
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #109

115. Сообщение от Аноним (116), 03-Июл-21, 12:11   +1 +/
А расскажите, пожалуйста, чем история с мамр и их быстрой смертью закончилась? Нашли решение или всё так же нужно тщательно искать чтобы и без мамр, и ёмкость вменяемая?
Ответить | Правка | Наверх | Cообщить модератору

116. Сообщение от Аноним (116), 03-Июл-21, 12:13   +/
Лог как лог. Вам лишь бы бзднуть не разобравшись
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #92

117. Сообщение от Аноним (-), 03-Июл-21, 12:23   +/
>> Поставили на нее постгрес
> В винде ты просто форматируешь в NTFS и оно просто работает. И под базу и под игры и под софт и под 3дмакс и под фотошоп и под торренты. И даже под виртуалку с убунтой.

А в огороде бузина ...

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #106

118. Сообщение от bOOster (ok), 03-Июл-21, 12:24   +/
> QNAP это поделка для домашнего использования. Поэтому совершенно неважно, что там внутри.

Хорошая попытка, как обычно от оголтелого линуксоида обосрать железку ценой так 5000-10000 долларов.
Ну и конечно хотел бы я посмотреть на домашнего пользователя который приобрел бы себе такую штучку за такие деньги...

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #82 Ответы: #130

119. Сообщение от bOOster (ok), 03-Июл-21, 12:33   –2 +/
Ты бы вниматель thread прочитал - "We jumped away to another BSD/ZFS based vendor and are pretty happy so far."
И никто не хочет линукс никак. Вернее происходит все с точностью наоборот что ты тут накалякал. Enterprise идет в BSD и линукс в домашние помойки..
А весь докер под FreeBSD замечательно разруливается jailами без топорности тормознутости докера.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #95 Ответы: #131, #234

120. Сообщение от Аноним (-), 03-Июл-21, 12:38   +2 +/
> После того как  "ZFS on Linux" портировали для FreeBSD и стало очевидно, что по функциональности и уровню сопровождения он давно перерос ветку от Illumos, создали новый репозиторий OpenZFS,

ZoL выбрали (и портировали) как раз из-за окаменения иллюмос-апстрима ...


Ответить | Правка | Наверх | Cообщить модератору
Родитель: #96 Ответы: #227, #229

121. Сообщение от andy (??), 03-Июл-21, 12:41   –1 +/
Спасибо за ссылку.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #95

122. Сообщение от bOOster (ok), 03-Июл-21, 12:44   –1 +/
Если бы он реально развивался параллельно Illumos то давно бы был под родной GPL лицензией. А так ваши потуги очередной раз притянуть код под лицензией CDDL в достоинства линуксописателей, оправдывая это какой-то чушью из вики - очередной раз смешны...
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #96 Ответы: #134

123. Сообщение от Хан (?), 03-Июл-21, 12:45   –3 +/
Близко ZFS да не укусишь))) так ведь пингвины?
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #142

125. Сообщение от Хан (?), 03-Июл-21, 12:46   +2 +/
Хочешь ZFS ставь FreeBSD и не делай людям мозги
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #80 Ответы: #136, #236

126. Сообщение от Аноним (4), 03-Июл-21, 12:54   +/
64 гб озу скидываются на диск за 5 секунд или около того. Это при условии, что они скидываются все.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #74

127. Сообщение от Аноним (4), 03-Июл-21, 13:12   +/
Не работает, я проверял. Ну т.е. линейная скорость для 1 файла может и выше на пару процентов, но когда начинаешь работать с файлами, скорость падает в пол из-за отсутствия возможности эффективно работать с метаданными.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #33

128. Сообщение от Аноним (128), 03-Июл-21, 13:25   +/
Хорошая вещь кстати! Я очень рад что наконец-то не приходится параллельно поддерживать ещё и баш-портянки для тех же пакетов, собиравшихся под чентось6.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #70

129. Сообщение от Аноним (128), 03-Июл-21, 13:27   +/
ФС и блочные устройства - это разные вещи вообще-то.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #67

130. Сообщение от Аноним (128), 03-Июл-21, 13:29   +/
Ну... Dell\EMC на бтрфс, Portworx на бтрфс. Думаю твоё мнение - это последнее что их может заинтересовать.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #118

131. Сообщение от Аноним (128), 03-Июл-21, 13:32   +/
>  Enterprise идет в BSD и линукс в домашние помойки..

Утверждение - ниочём.
Dell\EMC - на 5-6 чентоси, а касательно самого овняного Dell-repellent - MFS-BSD. Так что тут - бабка надвое сказала и решения принимались без тебя.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #119

132. Сообщение от Аноним (128), 03-Июл-21, 13:35   +/
Используем ту версию ZFS, что идёт в бубунте 20.04. Полёт нопмальный, лямы OIPS.
Всё что было раньше - спотыкалось на read-range locks. Так исторически сложилось, что б-жэственная ЗФС изначально не предназначена была для нагрузок, типа СУБД. Но где-то в 2019 году это подправили. Я доволен.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #15

133. Сообщение от Аноним (128), 03-Июл-21, 13:39   +1 +/
А в чём трагедия-то? Кончай бухать.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #48

134. Сообщение от Аноним (128), 03-Июл-21, 13:44   –1 +/
> А так ваши потуги очередной раз притянуть код под лицензией CDDL в достоинства линуксописателей

Она изначально была под CDDL, долбонашка. А линуксоиды, которые тебе так не нравятся, занимаются развитием ФС. И той самой прослойки SPL, которая и на твоей бздшэчке используется. И преобразование семантики из соляро-вантузной(которая в соляре) в нормальную линуксовую, и попутно бздэшную - сделали почти полностью линуксоиды.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #122 Ответы: #149, #176, #202

135. Сообщение от Аноним (128), 03-Июл-21, 13:49   +/
> На линуксе похожие проблемы возникают при записи на флешку - система может повиснуть.

С отдельным kthread? Повиснуть? Ты наверное не видел линукса после 2.6.38.
Просто я, на своей бубунтячке 20.04 часто использую медленные старые флешки, процесс копирования на которые подвисает на уровне kthread по причине чрезмерного заполнения кэшей, но сама система - так же отзывчива.
Строго говря - 12309 вывели в отдельный поток.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #73 Ответы: #148, #150, #195

136. Сообщение от Аноним (128), 03-Июл-21, 13:50   –2 +/
Хочешь ZFS ставь Ubuntu и не делай людям мозги
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #125

137. Сообщение от Аноньимъ (ok), 03-Июл-21, 13:52   +/
>В винде ты просто форматируешь в NTFS и оно просто работает. И под базу и под игры и под софт и под 3дмакс и под фотошоп и под торренты

Эм, нет. Высоконагруженой базе всегда нужен тюнинг ФС в том или ином виде.

А на домашнем ПК любая ФС просто работает, и под базу и под игры и под софт.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #106 Ответы: #145

138. Сообщение от Аноним (128), 03-Июл-21, 13:53   –5 +/
и возможность выбора для соответствующей цели.
Этим линукс и отличается от бздешечки, в которой - или выделите побольше ОЗУ для ЗФС и протюнингуйте её немного, или бойтесь потерь данных на UFS.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #94 Ответы: #147

139. Сообщение от iZENemail (ok), 03-Июл-21, 13:54   +/
> В винде ты просто форматируешь в NTFS и оно просто работает.

Получить возможность создать программный RAID-5 можно, начиная только с Windows Pro. На Windows Home никаких программных RAID средствами ОС создать не получится — только средствами драйверов чипсета сторонних производителей (AMD или Intel).
Лицензия на использование Windows 10 Pro стоит $289.00 с официального сайта microsoft.com или ~12 000 руб. по рыночной цене в российской рознице.

Да, работает просто. Но за это придётся заплатить.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #106 Ответы: #165

140. Сообщение от edo (ok), 03-Июл-21, 13:54   –1 +/
Что за проблемы?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #4 Ответы: #146

142. Сообщение от Аноним (128), 03-Июл-21, 13:58   +1 +/
C 2013 года на ЗФС, с 2015 - в проде. И на пингвине. А шо не так?
Пару команд для установки - осилил. Тюнинг под базы и под файло - тоже. Багу з залипшими локами - репортил.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #123 Ответы: #159

143. Сообщение от edo (ok), 03-Июл-21, 13:59   +/
> Что за дерьмо, простите, вы юзаете на подложке, что у вас родной ECC накопителя "сгнившие блоки" не отлавливает? Какие-нибудь доисторические б/у WD, на авито купленные?

Гелиевые 16ТБ от сигейта, например.
Сначала zfs поругался на чексуммы, через несколько дней и релокейты/ошибки чтения появились.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #91

144. Сообщение от Аноньимъ (ok), 03-Июл-21, 14:01   +/
>вообще из разряда вредных советов. Выше есть ссылка с обсуждением этой "признанной" проблемы с логами, никакой волшебной пилюли нет.

Если я ничего нее путаю, то, если не отключить синхронную запись, диск и ЗФС будет делать двойную работу, вначале писать в log на диске, а потом переписывать из него опять на диск уже в нормальном виде.
Поправьте меня если что.

Разбираться в этих тестах неохота, фря у меня никогда не залипла со свопом на ЗФС, тестировал сборкой древа портов которая сожрала неприличный объём ОЗУ.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #111 Ответы: #153

145. Сообщение от Аноним (128), 03-Июл-21, 14:02   –2 +/
> Эм, нет. Высоконагруженой базе всегда нужен тюнинг ФС в том или ином виде.

Эм да, в данном случае это особенность ЗФС. Приходится иногда тюнить настройки кеширования и ARC. То, что она сама не может определиться с оптимальными на лету - это техническая недоработка, хоть и не критичная.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #137 Ответы: #151

146. Сообщение от Аноним (4), 03-Июл-21, 14:04   –2 +/
> Что за проблемы?

РОССЫПАЕТСЯ ЖЫ.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #140 Ответы: #167, #262

147. Сообщение от Аноним (-), 03-Июл-21, 14:06   +2 +/
> или бойтесь потерь данных на UFS.

... и красной руки с черной простыней!

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #138

148. Сообщение от Аноньимъ (ok), 03-Июл-21, 14:10   +/
Приложение все равно же может повиснуть, которое копирует?
И потом если попытаться в момент этого затыка открыть диск в файловом менеджере.
или если браузер или любая другая программа запомнили его где-то и при запуске или открытии окна сохранения файла решили пропинговать.

И с сетевыми дисками у меня проблемы похожего характера.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #135 Ответы: #205

149. Сообщение от Аноним (-), 03-Июл-21, 14:10   +/
> И преобразование семантики ... и попутно бздэшную - сделали почти полностью линуксоиды.

Какая занимательная (нет) хрень ...


Ответить | Правка | Наверх | Cообщить модератору
Родитель: #134

150. Сообщение от Аноньимъ (ok), 03-Июл-21, 14:14   +/
>Ты наверное не видел линукса после 2.6.38

Старые линуксы у меняя вываливались в кернел паник частенько, впрочем кноппикс пробовал основательно, и никаких проблем не было с ним от слова совсем.
Никаких залипаний и прочего.
Причем работал он с сиди диска.
СД диска, Карл.
И с флешки отлично работал.

Работал отлично и без проблем и боли, я прям прослезился, что с линуксом стало? Зачем убили десктопный линукс?

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #135

151. Сообщение от Аноньимъ (ok), 03-Июл-21, 14:18   +/
А другие ФС могут? У них внутри ИИ-гномик сидит который волшебным образом понимает характер нагрузки?
Хорош прикалываться.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #145

152. Сообщение от Аноним (4), 03-Июл-21, 14:22   +1 +/
>99.9%

Похоже на давний баг некоторых клиентов, например, у меня на transmisson такая ерунда была. Вроде исправили уже несколько раз.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #107

153. Сообщение от iZENemail (ok), 03-Июл-21, 14:25   +/
> Если я ничего нее путаю, то, если не отключить синхронную запись, диск
> и ЗФС будет делать двойную работу, вначале писать в log на
> диске, а потом переписывать из него опять на диск уже в
> нормальном виде.
> Поправьте меня если что.

У CoW ФС log является самой файловой системой, вообще-то. Когда в него что-то пишется, он в это время является log'ом, когда записалось — уже частью пользовательских данных. Таким образом, ничто никуда повторно не переписывается, а просто местоположение меняет статус.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #144 Ответы: #154, #200

154. Сообщение от Аноньимъ (ok), 03-Июл-21, 14:48   +/
ЗФС работает не так, погуглите. ЛОГ у неё отдельный.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #153 Ответы: #155

155. Сообщение от iZENemail (ok), 03-Июл-21, 14:52   +/
> ЗФС работает не так, погуглите. ЛОГ у неё отдельный.

ZIL будет отдельным, если его специально обозначить для пула на отдельном носителе. Лучше, если это будет сверхбыстрое устройство долговременного хранения, но небольшой ёмкости.


Ответить | Правка | Наверх | Cообщить модератору
Родитель: #154 Ответы: #160, #163

156. Сообщение от iZENemail (ok), 03-Июл-21, 15:00   +/
> Кто то использует для себя или в проде?

OpenZFS стала менее предсказуемой в режиме восстановления. Поэтому постепенно перевожу единичные носители на проверенную годами UFS2+SU.


Ответить | Правка | Наверх | Cообщить модератору
Родитель: #15

157. Сообщение от Аноним (157), 03-Июл-21, 15:04   +/
Ну и какими кусками твои DLL'ки читаются? Правильно. Целиком. Времена мсдос с 512к и оверлеями того, кончились.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #97 Ответы: #180, #251

159. Сообщение от Хан (?), 03-Июл-21, 15:27   –1 +/
Обожаю сказочки)))
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #142 Ответы: #164

160. Сообщение от Аноньимъ (ok), 03-Июл-21, 15:38   +/
Нет, ZIL присутствует в виде спец области на блочном устройстве - https://jrs-s.net/2019/05/02/zfs-sync-async-zil-slog/
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #155 Ответы: #259

161. Сообщение от Аноним (161), 03-Июл-21, 15:44   –5 +/
прямо "by design"? что, этот "design" запрещает копирование элемента целеком? насильственно заставляет делать это только для отдельной страницы? или все таки есть варианты?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #86

162. Сообщение от Аноним (161), 03-Июл-21, 15:51   +/
как насчет того, что zfs рекомендует отдать диск целиком?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #53 Ответы: #182, #204

163. Сообщение от Аноним (4), 03-Июл-21, 16:03   +/
> ZIL будет отдельным, если его специально обозначить для пула на отдельном носителе.
> Лучше, если это будет сверхбыстрое устройство долговременного хранения, но небольшой ёмкости.

Intel Optane?

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #155 Ответы: #170

164. Сообщение от лесной эльф (?), 03-Июл-21, 16:12   –2 +/
ну и попроси мамочку, чтобы поменяла подгузник, уложила в кроватку и сказочки почитала.

А у людей всё нормально крутится. У меня вот тоже несколько лет как на домашних компах плюс на одном из kvm гипервизоров

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #159 Ответы: #173

165. Сообщение от Пикапика (?), 03-Июл-21, 16:42   –5 +/
Windows 10 Pro
500 рублей цена вопроса на авито, ну или 400 на ибей.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #139

166. Сообщение от Котофалк (?), 03-Июл-21, 17:01   +/
Быстрее FAT вообще ничего сдохнуть не может. А эти волшебные две копии FAT, дефолтная работа с которыми от Майкрософт позволяет потерять данные ещё быстрее и надёжнее...
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #30

167. Сообщение от edo (ok), 03-Июл-21, 17:03   +/
Детали можно? У меня есть несколько, пока проблем не наблюдаю
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #146 Ответы: #169

168. Сообщение от Котофалк (?), 03-Июл-21, 17:04   +/
как что-то плохое
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #94

169. Сообщение от Аноним (4), 03-Июл-21, 17:15   –3 +/
> Детали можно? У меня есть несколько, пока проблем не наблюдаю

Ну так пока всё не рухнет, проблем и не будет. Когда в результате аварии на диске окажутся неконсистентные данные (в частности, среди прочего, парити постоянно теряет консистентность), рейд не сможет восстановиться и придётся вытягивать что получится с дисков по отдельности. Я про эту проблему 6 рейда. Насколько я знаю, разработчики btrfs из-за этого до сих пор настоятельно не рекомендуют уровни 5 и 6. У zfs это "вроде как" не та проблема, однако фундаментально она не решена до конца и в ней.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #167 Ответы: #181

170. Сообщение от Аноньимъ (ok), 03-Июл-21, 17:23   +/
> Intel Optane?

Оптан хороший вариант, так как у него малые задержки. Важно чтобы накопитель не потерял данные при отключении питания.

Но люди и SAS диски юзали для такого...

Еще можно использовать обычный ССД с SLC кешированием, главное знать размер этого кеша и выделить область равную этому размеру.

Честные MLС диски то-же подходят в общем.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #163

172. Сообщение от Хан (?), 03-Июл-21, 18:29   –3 +/
Не хило ты факты тасуешь, а теперь ответь на один простой вопрос? У кого линуксоиды сперли код под сановской CDDL? Не у OpenSolaris случайно?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #110 Ответы: #188

173. Сообщение от Хан (?), 03-Июл-21, 18:32   –3 +/
Домашние компы, KVM гипервизор, что то крутится...хммм что же это?
Не уж то локалхост виртуализировал?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #164

175. Сообщение от Онаним (?), 03-Июл-21, 18:49   +/
Охохо.
Ладно, оставлю вас пребывать в уверенности, что LBA каждый сектор по диску рандомно размазывает.
Но если учесть, что единица чтения с диска - дорожка, в основном, нет, можно и индивидуальный сектор, но время чтения будет не сильно меньше... короче, оставлю.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #112 Ответы: #266

176. Сообщение от Хан (?), 03-Июл-21, 18:51   –2 +/
Какую ФС линуксоиды смогли создать сами? Серию кривых ext, которая только к четвертой версии смогла сравнятся с древней XFS?... но так и не сравнялась ведь ведущие коммерческие дистрибьютивы предлагают в 2021 всю ту же пропатченную XFS 30 летней давности как нечто новое, модное и молодежное
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #134 Ответы: #187, #208

177. Сообщение от Аноним (177), 03-Июл-21, 18:54   +3 +/
уровень дискуссии - опеннет
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #203

178. Сообщение от Zampolit (ok), 03-Июл-21, 19:55   +/
А ExFAT ?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #108 Ответы: #211

179. Сообщение от Ага (?), 03-Июл-21, 21:42   +2 +/
Чем ext4
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #113

180. Сообщение от пох. (?), 03-Июл-21, 22:28   +3 +/
Какими попало они читаются. Ага, кончились.
Теперь кодовые страницы _mmap_аются. И читаются только при получении page fault (то есть неиспользуемые - вообще никогда). Там есть еще block size, prefetch и прочие фокусы, чтоб уж совсем по 4k не читать, но в целом мир устроен изрядно сложнее чем тебе кажется.

Впрочем, один раз записанный файл скорее всего уляжется на диск последовательно или около того - страдания секты свидетелей фрагментации начинаются когда файл переписывается на ходу. Для бинарников это немного странно.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #157 Ответы: #218, #252

181. Сообщение от пох. (?), 03-Июл-21, 22:30   +3 +/
эта "проблема" вызвана исключительно рукожопием автора btrfs. Ни малейшего отношения к zfs не имеет, и, кстати, никакого "raid6" в zfs нет. Есть raidz2, и теперь еще и draid2, которые ни разу не "raid6".

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #169 Ответы: #183

182. Сообщение от пох. (?), 03-Июл-21, 22:33   +2 +/
это рекомендация из solaris, как обычно, имеющая мало отношения к openzfs.
У тех-то своп работает.

Вот что делать владельцам пулов с raid/mirror - действительно не вполне очевидно. Впрочем, своп в современных системах немодно, и проще его отключить совсем.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #162 Ответы: #184

183. Сообщение от Аноним (4), 03-Июл-21, 23:09   –4 +/
А вот этого я и не утверждал. Вот только и без btrfs она существует, это концептуальный недостаток рейда. Как ты его ни назови.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #181 Ответы: #186

184. Сообщение от Аноним (161), 04-Июл-21, 00:00   +/
> это рекомендация из solaris, как обычно, имеющая мало отношения к openzfs.

очень интересно. стало быть официальная документация по openzfs вот тут вот https://openzfs.github.io/openzfs-docs/Performance%20an... рассказывает все таки про соляру.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #182 Ответы: #185

185. Сообщение от пох. (?), 04-Июл-21, 01:04   +/
ну, так и есть - тычешь там в линк с _объяснениями_ (то на что у тебя ссылка - это бессмысленные мантры), попадаешь сюда:
https://openzfs.github.io/openzfs-docs/Performance%20an...
изумляешься - "папа, ты с кем сейчас разговаривал?!" - в смысле, зачем тебе это знание и что с ним теперь делать.

Делаешь выводы о всем остальном содержимом этой свалки, разочарованно закрываешь окошко.

Оно там все такое. Мантры, давно утратившие смысл обрядовые танцы мертвым богам...

А на деле как никто не мог десять лет назад победить need_free(), так и посейчас #ifdef solaris...

Зато, вот, influx db. Именно эта фича была необходимейшей! (нет. именно такие фичи только и умеют запилить макаки, дорвавшиеся до права комитов. Впрочем, их менеджеры именно такого и ждут.)

Б-ть, ну куды бечь, я вас спрашиваю?!

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #184 Ответы: #190

186. Сообщение от пох. (?), 04-Июл-21, 01:16   +1 +/
она без btrfs не существует.

> это концептуальный недостаток рейда

нет, это твои влажные фантазии и слышанный звон.

Проблема с разрушением рейдов в btrfs - это чистой воды проблема btrfs. Скорее всего - ошибки в математике, как уже было на ранних этапах существования md raid, а может еще и неуемная оптимизация (когда в результате записывается не то и не туда, зато очень быстро - как было, и, похоже, в редких случаях осталось у lvm, восстановлению такой не подлежит). К сожалению, авторы предпочли забить и не искать причину - им и так не дует.

Проблема "raid write hole" ничего общего с этим не имеет, это другой слышанный тобой звон. Он в другом ухе. И к катастрофе не приводит.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #183 Ответы: #199

187. Сообщение от пох. (?), 04-Июл-21, 01:20   +/
_та_ древняя xfs была точно таким же дерьмом как ранние ext или даже хуже.

С лимитом в 2 гигабайта и прочими прекрасными унаследованными фичами времен "когда компьютеры были большие".

> всю ту же пропатченную XFS 30 летней давности

не ту же. От той очень мало что осталось, к счастью. Этой в целом можно было бы пользоваться - если бы она хоть что-то из современных требований умела (без помощи франкенштейна из lvmных прослоек). А они - вот - смотрите, смотрите - уже почти но еще не осилили уменьшение разделов!
Которое скоро уже и не нужно никому будет совсем.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #176

188. Сообщение от пох. (?), 04-Июл-21, 01:45   +1 +/
линуксоиды, ага, размечтался...

Там оба источника написаны одними и теми же ребятами, мастерами подделывать историю.

А вот тебе правда, для разнообразия: да, была бесполезная мертворожденная поделка llnl, лет пять почти просуществовавшая.
2008: Development of a native ZFS Linux port started
2013: The first stable release of ZFS on Linux
Ничего так сроки, как тебе кажется?
Все это время, те кому на самом деле было надо - пользовались тормозной и падучей fuse-реализацией. Потому что та хоть как-то работала, а поделка llnl не имела (сюрпрайз!) vfs интефрейса к ядру вообще.
То есть умела только vdev раздавать. Ну оно понятно, для этого переписывать солярисный код особо не понадобилось.

Тем что сейчас называется "posix layer" (а на деле vfs реализация для линoops) мы обязаны скромно НЕ упомянутому в принципе индусскому коллективу из бангалора. Еще лет пять назад гуглился (уже без упоминания сделанного) а потом и вовсе пропал.

Эти ребята херачили день и ночь, и наклепали с нуля vfsную часть за меньше чем год. После чего всем индусским кооперативом продались какой-то .inc с уже адресочком в долине силиконовых сисек. И, полагаю, получив вожделенные h1b, бесследно в той долине растворились, mission accomplished.

Код, к счастью, успел всплыть на шитхабе. Вот на нем-то весь нынешний "openzfs" и вырос как поганки вокруг трухлявого пня.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #172 Ответы: #189

189. Сообщение от Хан (?), 04-Июл-21, 02:37   +/
Угу, хорошая фэнтэзя прям за душу берет... особенно 2008 год и FreeBSD 7 с ZFS на борту
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #188 Ответы: #210

190. Сообщение от Аноним (161), 04-Июл-21, 02:53   +/
> On Linux, the Linux IO elevator is largely redundant given that ZFS has its own IO elevator.

причем последний включается, если отдавать диск, а не раздел

>А на деле как никто не мог десять лет назад победить need_free(), так и посейчас #ifdef solaris...
> Зато, вот, influx db. Именно эта фича была необходимейшей! (нет. именно такие фичи только и умеют запилить макаки, дорвавшиеся до права комитов. Впрочем, их менеджеры именно такого и ждут.)

как написано прямым текстом в емнип репорте про гибернацию, они работают в интересах их ынтерпрайз клиентов

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #185 Ответы: #212

191. Сообщение от Ivan_83 (ok), 04-Июл-21, 03:36   +1 +/
Я поинтересовался как у людей которые её юзают дела.
И я не линуксойд, у меня фря даже на том десктопе с которого я вам это пишу, и я по немногу коммитю в порты и даже в базовую систему (в основном ядро).


И мотивации для вопроса у меня две:

1. У меня дома хранилка собрана на geom mirror+eli+concat и UFS2.
Нагрузка примитивна: скачать торренты/раздать торренты, посмотреть торренты.
На тазике райзен 2700 + 64гб с ецц, которые не очень то заняты тем что там крутится, минимум половину можно было бы чем занять без проблем.
Те я как бы могу позволить себе свалить на zfs, но данные потерять не хочу и бэкапить мне это некуда.
При этом фичи в виде кеша и *как её там, когда оно пишет каждый раз в новое место при измении файла* мне не интересны, а вот крипта интересна.
Идея в том, чтобы повысить надёжность и упростить менеджмент.


2. У нас на работе юзается фря и зфс, но нам не хватает спеца по зфс который хотя бы мог консультировать. Пока оно тупо работает в дефолтах. И у меня есть подозрения что феолты не очень, особенно в том месте где используется geom mirror для зеркалирования на второй диск вместо средств самой zfs.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #48 Ответы: #201, #213

192. Сообщение от Ivan_83 (ok), 04-Июл-21, 03:40   +/
А как у вас с рекавери?
Ну те при каких обстоятельствах теряли данные?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #34 Ответы: #194

193. Сообщение от Ivan_83 (ok), 04-Июл-21, 05:19   +/
А расскажите о проблемах зфс подробнее.
Насколько оно устойчиво при заполнении 99%?
Насколько легко потерять данные с вылетом одного диска если делать зеркалирование средствами зфс?
Как там с криптой?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #111 Ответы: #243

194. Сообщение от iCat (ok), 04-Июл-21, 06:20   +/
> А как у вас с рекавери?
> Ну те при каких обстоятельствах теряли данные?

Я ж написал: тогда жёсткий диск кирдыкнулся. Напрочь.
Хорошо - у беня бэкапы всегда 3-2-1:
- минимум 3 копии
- минимум на 2 независимых носителях
- минимум 1 копия в другом здании

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #192 Ответы: #196

195. Сообщение от Аноним (195), 04-Июл-21, 06:48   +2 +/
У меня всегда свежее ядро.
Недавно система начала виснуть, когда копировал на флешку гигабайты.
Жалкой ноунейм юсб 2.0 флешке система выдаёт первую космическую скорость, а потом система висит, пока файл не перенесётся полностью самом деле.
Решается подключением флешки с синхронизацией, где показывает честные несколько сотен кб в сек.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #135

196. Сообщение от Ivan_83 (ok), 04-Июл-21, 06:56   +/
А без бэкапов на ZFS жить совсем никак?
Ну типа как у меня сейчас зеркало геомом а поверх юфс2 и потерю одного диска я переживу.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #194 Ответы: #198, #217

197. Сообщение от ананас (?), 04-Июл-21, 07:52   +/
Интересно проект развивается.
В самом начале пилили как свободный, независящий от Sun/Oracle вариант ZFS для BSD. Когда саноракл дал свою реализацию для BSD — не забросили, а стали пилить по остальные POSIX и Posix-like , в процессе оформившись как ZFSonLinux. Когда реализация саноракла в BSD начала стагнировать — древний неподдерживаемый код с вкраплениями заплаток от тех, кто ничего твёрже джавы в руках не делал — снова стали OpenZFS и победно вернулись обратно на BSD в ещё более годном состоянии, чем когда-либо.

Отличная, красивая история настоящего open source полёта, который показал как надо.

Ответить | Правка | Наверх | Cообщить модератору
Ответы: #207, #214

198. Сообщение от iCat (ok), 04-Июл-21, 08:07   +/
> А без бэкапов на ZFS жить совсем никак?

Да легко!
Делаем пул из двух дисков, назначаем избыточность=2 и только в путь!
Можно слепить пул из трёх дисков, и назначить избыточность=3...
Простецкий RAID-Z из четырёх дисков...
Там много чего можно "нарисовать"...


Ответить | Правка | Наверх | Cообщить модератору
Родитель: #196

199. Сообщение от Аноним (4), 04-Июл-21, 08:56   –1 +/
Write hole -- ошибки в математике, что?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #186 Ответы: #215

200. Сообщение от Аноньимъ (ok), 04-Июл-21, 10:32   +/
Я выше конечно наврал.
Из лога переписывать не будет. Будет писать из ОЗУ.
Но лог(zil) таки отдельная область на диске и данные будут записаны дважды.
В случае синхронной записи.

Когда запрос не синхронный данные в лог не попадают вообще, и пишутся только в кеш ОЗУ.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #153

201. Сообщение от bOOster (ok), 04-Июл-21, 11:01   +/
>[оверквотинг удален]
> потерять не хочу и бэкапить мне это некуда.
> При этом фичи в виде кеша и *как её там, когда оно
> пишет каждый раз в новое место при измении файла* мне не
> интересны, а вот крипта интересна.
> Идея в том, чтобы повысить надёжность и упростить менеджмент.
> 2. У нас на работе юзается фря и зфс, но нам не
> хватает спеца по зфс который хотя бы мог консультировать. Пока оно
> тупо работает в дефолтах. И у меня есть подозрения что феолты
> не очень, особенно в том месте где используется geom mirror для
> зеркалирования на второй диск вместо средств самой zfs.

Geom/mirror Geom/Geli swap тут развлекаюсь. А если и ELI, не даели с флешкой, которая загрузочная

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #191

202. Сообщение от bOOster (ok), 04-Июл-21, 11:03   +/
>> А так ваши потуги очередной раз притянуть код под лицензией CDDL в достоинства линуксописателей
> Она изначально была под CDDL, долбонашка. А линуксоиды, которые тебе так не
> нравятся, занимаются развитием ФС. И той самой прослойки SPL, которая и
> на твоей бздшэчке используется. И преобразование семантики из соляро-вантузной(которая
> в соляре) в нормальную линуксовую, и попутно бздэшную - сделали почти
> полностью линуксоиды.

Мне интересно 5000 знают они что це такэ)

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #134

203. Сообщение от spectator (??), 04-Июл-21, 11:21   +1 +/
да, 20 лет назад было приятнее
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #177

204. Сообщение от bOOster (ok), 04-Июл-21, 11:35   +/
> как насчет того, что zfs рекомендует отдать диск целиком?

А голову включить?

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #162

205. Сообщение от bOOster (ok), 04-Июл-21, 11:37   +/
> Приложение все равно же может повиснуть, которое копирует?
> И потом если попытаться в момент этого затыка открыть диск в файловом
> менеджере.
> или если браузер или любая другая программа запомнили его где-то и при
> запуске или открытии окна сохранения файла решили пропинговать.
> И с сетевыми дисками у меня проблемы похожего характера.

FreeBSD - нет, не может..

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #148

207. Сообщение от Аноним (215), 04-Июл-21, 11:43   –2 +/
интерес ваши бредни представляют собой разьве что для психиатра.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #197

208. Сообщение от RudW0lfemail (?), 04-Июл-21, 11:45   –1 +/
А в чем корявость ext4? xfs например нельзя шринкнуть, а ext4 можно(регулярно пользуюсь), то что в дистрибах по умолчанию обычно расчитано на ленивых админов но не как не лучший выбор
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #176

209. Сообщение от RudW0lfemail (?), 04-Июл-21, 11:46   –1 +/
Вообще не понятно кто инфлюксом пользуется оно же кривое все . .  . Для староверов есть графит, для хипстеров пром. Скорееивсего это хотелка какого то спонсора
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #85

210. Сообщение от Аноним (215), 04-Июл-21, 11:59   +/
Ты все еще не научился пользоваться логами vcs?

r168404 | pjd | 2007-04-06 05:09:06 +0400 (Fri, 06 Apr 2007) | 11 lines

Please welcome ZFS - The last word in file systems.

Все начинали в примерно один и тот же момент с одного и того же - кода из opensolaris, ВНЕЗАПНО ставшего доступным и при этом поддерживаемым.
При этом pjd сделал работающую реализацию, хотя и не без странных фокусов, в макоси на пути встал лично Йопс, заявивший "мое первое правило бизнеса с моим другом Ларри - не иметь никаких бизнесов с другом Ларри", после чего попытки вести разработу внутри самой apple (у которой в тот момент вообще не было никакой работоспособной на современном железе fs) быстренько свернули, а силами энтузиастов протрепыхались еще несколько лет, но так приличного качества ничего и не родили, в винде одно время шли нюх-в-нюх с макосью (то есть еще нельзя было пользоваться не понарошку, но уже запускалось и работало), а в линoops... ну я знал людей, всерьез использовавших fuse-версию в production. А куда деваться-то, еще чтоль что-то было в конце нулевых? Ее в общем тоже активно пытались пилить.
А потом как-то все кто в лес, кто по дрова разбрелись - совпадение? Конечно же ж, совпадение!

Смена лицензии на one true oracle совершенно непричем.

Все это время параллельно существовала линуксная in-kernel реализация имени ливерморской лаборатории, феерично бесполезная, ибо собственно файловой системы не имела.

Если б не те работящие индусы - так бы по сей день только fuse и была бы у л@п4-х

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #189

211. Сообщение от Аноним (215), 04-Июл-21, 12:05   –2 +/
В венде поганой все хорошо, товарищ зампоплит.
А в линoops - китайцы ж делали, под присмотром корейского надзирателя. С соответствующими качеством и эффективностью. Немного подробностей про как они там половину спека проигнорировали и где рыбу в него заворачивали, озвучил в свое время Парагон, но это ж был кого надо код, платиновый спонсор, не хер собачий, поэтому никакого парагона слушать, конечно же, никто не стал.

Так что пользуйтесь ntfs3g, ее нормальный грек делал. э... ну в смысле, он руководил, как вы. Делал русский, единственный из трех участников, чье имя начисто исчезло из копирайтов и из истории. Впрочем, видели его потом в городах, довольно таки отдаленных, так что он, полагаю, не бедствует.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #178

212. Сообщение от Аноним (215), 04-Июл-21, 12:17   +/
> причем последний включается, если отдавать диск, а не раздел

скорее всего это тоже бредни. Вот про бессмысленный битик в заголовке - это похоже на правду, у макак оно вот так всегда и выходит.

> как написано прямым текстом в емнип репорте про гибернацию, они работают в интересах их
> ынтерпрайз клиентов

вряд ли. Это уровень подвальных клиентов, а не энтерпрайз. Ну, какова iX, таков и ентерпрайз-клиент, собственно.
"смотрите, смотрите - теперь графичек втрое красивше, показывает как еще сочнее и мжвячнее ваши байтики превращаются в невосстановимую кашу".

Энтерпрайзные хранилки никаких графичков в формате заковыристой никому ненужной поделки (вместо line based или хотя бы модно-молодежного json если совсем с мозгами беда) не рисуют, у них вообще с гуем "все сложно" - дЭффективным менеджерам нахер не надо там ничего видеть, а инженеры работают через cli.

А тут именно подвальный побогаче заказал себе фичу для единственной поделки которую его рабы осилили запустить для метрик.

Что ради нее изуродован весь код сверху донизу без всяких попыток оценить накладные расходы и без умения в условную компиляцию - практически не сомневаюсь.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #190

213. Сообщение от iZENemail (ok), 04-Июл-21, 12:26   +/
> 2. У нас на работе юзается фря и зфс, но нам не
> хватает спеца по зфс который хотя бы мог консультировать. Пока оно
> тупо работает в дефолтах. И у меня есть подозрения что феолты
> не очень, особенно в том месте где используется geom mirror для
> зеркалирования на второй диск вместо средств самой zfs.

:facepalm:

Я уже перестал удивляться той среде, в которой ты существуешь. Найти проблемы в перегреве VRM Gigabyte в дросселях с лого (и ничем другим) — это нужно иметь особенные мозги.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #191

214. Сообщение от Беня Коломойский (?), 04-Июл-21, 12:29   –2 +/
На фряхе оно работает лучше, чем на ляликсе?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #197 Ответы: #219

215. Сообщение от Аноним (215), 04-Июл-21, 12:34   +1 +/
ты совсем тупой и не умеешь прочитать два абзаца раздельно, а не слив в своей дырявой голове в одну кашу?

В btrfs - ошибки в математике (и вероятно еще и логике). Свои собственные, анал0г0внетные.
То, что ты или твой такой же тупой тезка слышал про "общую особенность raid" - write hole. К btrfs и ее проблемам никакого отношения не имеет, но вы феноменально т-пые и не можете отличить одно от другого.

К zfs ОБЕ эти истории ни малейшего отношения не имеют.
Там все в порядке с математикой, ее человек с математическим образованием писал, и именно это место отдельно проверял, а write hole там by design отсутствует, поскольку тот чувак еще и неплохим инженером был.

К сожалению, сплыл.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #199 Ответы: #216

216. Сообщение от Аноним (4), 04-Июл-21, 12:50   –1 +/
Даже не читал и не собираюсь. Как и тебя, Манечка. Однако, говоря о зфс, если именно девайс с логом отвалится, проблемы будут. Не так ли? У неё свои недостатки. А что, парити у зфс совсем не деградирует? Если уж у хардварных рейдов проблема нормально не решается, то что можно сделать софтом? Всегда умиляли эти поклонники зфс, а как посыпется, становитесь главными нытиками. Хотя это и не raid6, о котором разговор был. Понятно конечно, что рейд не замена бэкапам, но все данные забэкапить нельзя, а резервирование дорого стоит. Как по мне, основные претензии к зфс в довольно низкой эффективности, что особенно заметно становится с нынешними объёмами данных. Ну не получается цветочек глиняный у них, ну никак. А вы всё обмазываетесь и верите в лучшее.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #215 Ответы: #245

217. Сообщение от iZENemail (ok), 04-Июл-21, 13:03   +1 +/
> А без бэкапов на ZFS жить совсем никак?

Бэкапы и RAID — две ортогональные технологии хранения данных.
Одна отвечает за сохранность (даже в оффлайн), другая — за бесперебойность работы.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #196

218. Сообщение от kai3341 (ok), 04-Июл-21, 13:04   +/
> страдания секты свидетелей фрагментации начинаются когда файл переписывается на ходу. Для бинарников это немного странно.

Кстати, это нормальный режим работы БД

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #180 Ответы: #225

219. Сообщение от Аноним (215), 04-Июл-21, 13:24   –1 +/
Работало, да. Никакого "influxdb" во всяком случае не пихали в код _файловой_с-ка_системы_, где ему совершенно не место.

В силу отсутствия некоторых линoopsовых родовых травм - работало местами и неплохо. Там свои были, но их можно было исправить и даже - исправляли. Пропихнуть через вот этих вот - "мы удовлетворяем своих ентерпрайс клиентов и ваши исправления не исправления" было невозможно, но кто хотел - мог в частном порядке пользоваться.

А потом менеджеры этих подвальных велели не выделываться, потому что "клиенты хочуть доскер!" и те быстренько слили свой проект с ZoL, который уже настолько горбат, что его только могила может исправить.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #214 Ответы: #220

220. Сообщение от Беня Коломойский (?), 04-Июл-21, 15:04   +1 +/
Вот читаешь доки по ZFS, вроде бы дико крутая файловая система, а на деле тормозной кусок говна, пожирающий дисковое пространство и раму.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #219 Ответы: #221, #226, #241

221. Сообщение от Беня Коломойский (?), 04-Июл-21, 15:06   +/
По крайней мере на ляликсе. Как там на фряхе и соляре не знаю, может и хорошо всё.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #220

222. Сообщение от Ivan (??), 04-Июл-21, 15:15   +/
Не Raid6, а Raid5. В ZFS этой проблема нет, так как пишется не страйпами, а блоками, часто короче чем полный страйп и нет частичной перезаписи спрайпа, которая как раз вызываетт write hole в raid5.  Из-за такой организации Raidz в ZFS не масштабирует количество рандомных доступов, только throughout.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #4

223. Сообщение от Аноним (223), 04-Июл-21, 15:19   +2 +/
Боевые пингвины только в темах о фряхе и щас)
Ответить | Правка | Наверх | Cообщить модератору

224. Сообщение от Аноним (224), 04-Июл-21, 15:22   –2 +/
Так вот почему в САСШ этой зимой энергетика медным таком накрылась, в домах трубы начали лопаться - ZFS подвела; не "зелёная" ведь энергетика, которая уровня бохх, на которую они молятся сейчас.
Ответить | Правка | Наверх | Cообщить модератору

225. Сообщение от пох. (?), 04-Июл-21, 18:44   +/
без тебя мы бы об этом ну никак не догадались. Кстати, зачем тебе понадобилось подменять тему разговора?

Сколько процентов лично на твоем диске занимают какие-то там "биде" - 0.001 ?

Насколько часто им при этом нужен sequential доступ, даже если бы процент был целый один ?

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #218 Ответы: #230

226. Сообщение от пох. (?), 04-Июл-21, 18:50   +/
Беня, такое впечатление, что вы не читаете доки, а только кокс через них нюхаете.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #220 Ответы: #228

227. Сообщение от пох. (?), 04-Июл-21, 18:57   –1 +/
Боюсь, таки это был просто удобный предлог.

Выбрали ее дЭффективные менеджеры, те же самые, что следующим же ходом "выбрали" в качестве платформы для будущих новых версий truenas ("случайно" платящего зарплаты всем ключевым разработчикам) линoops вместо фри.

Все ключевые технологии отсутствовавшие на тот момент в ZoL, но наличествовавшие в bsd и важные для промыва ушей клиентам - влиты, включая героическую поебду над discard. Может толком и не работают даже, но галочки в промо-материалах стоят в нужных клеточках. Иначе клиенты могли не оценить и перестать заносить новые транши. А больше ваша bsd низачем не нужна, проект можно закрывать и увольнять ненужных более мавров.

С прикручиванием influxdb справятся и студенты на гранты delphix.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #120

228. Сообщение от Беня Коломойский (?), 04-Июл-21, 19:48   +1 +/
Ты сам-то пробовал использовать это поделие на чём-либо отличном от подкроватного NASа?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #226

229. Сообщение от Аноним (-), 04-Июл-21, 21:23   +/
>> После того как  "ZFS on Linux" портировали для FreeBSD и стало очевидно, что по функциональности и уровню сопровождения он давно перерос ветку от Illumos, создали новый репозиторий OpenZFS,
> ZoL выбрали (и портировали) как раз из-за окаменения иллюмос-апстрима ...

И портировал ее, судя по всему, Мейси "Вайргард"
https://lists.freebsd.org/pipermail/freebsd-current/2018-Dec...
Это все, что нужно знать о "качестве" ZoL.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #120

230. Сообщение от kai3341 (ok), 04-Июл-21, 22:27   +/
> без тебя мы бы об этом ну никак не догадались. Кстати, зачем
> тебе понадобилось подменять тему разговора?
> Сколько процентов лично на твоем диске занимают какие-то там "биде" - 0.001
> ?
> Насколько часто им при этом нужен sequential доступ, даже если бы процент
> был целый один ?

Ну и смысл было агриться? С тобой же никто не спорил.
Базочек у меня в наличии имеется. Процентов 10 займёт.
А вот чтобы последовательный доступ -- хз. Это, наверное, колоночное хранилище должно быть. У меня таких нет

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #225

231. Сообщение от Аноним (231), 04-Июл-21, 22:59   +/
А скоро на rust перепишут?
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #235

232. Сообщение от Аноним (231), 04-Июл-21, 23:03   +/
Ужас! ZFS! Rust! А что дальше?!
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #249

233. Сообщение от Аноним (231), 04-Июл-21, 23:13   +/
Все эти псевдо Open чтобы нагнуть пингвина! Не ведитесь на это!!!
Всё идёт по пути Chromium!
Сначала нагнут сделают OpenФигню - нагибают раком!
Ждут пока наберётся процент рынка - тем временем раздвигая булки!
А потом сделают vendor-lock - и наконец-то имеют во все щели!

Выводы уже сделаны, если вы нагнулись раком, то рано или поздно вам вставят!

Ответить | Правка | Наверх | Cообщить модератору
Ответы: #268

234. Сообщение от пох. (?), 04-Июл-21, 23:16   +/
Еще один любитель подменять тему. Речь шла - об "ентерпрайзности" а по факту китайской помойности qnap, которая ни надежного железа не умеет, ни хотя бы поддержки клиентов - заменить горелый хлам на точно такой же хлам пол-года не может (потому что китайцы не успевают, а складов в US у них нет). И что приводить ее как свидетельство пригодности технологии для энтерпрайза - надо быть полным дураком. Обычная подвальная лавка, даром что с юрлицом в US.
Что тот тред и подтверждает (да и не он один).

А что некоторые люди ничему не учатся и попрыгали away - это личные проблемы некоторых людей. Дальше будет еще один тред, про "неназванный прошлый раз вендор - тоже оказался УГ, кто бы мог подумать да и было ли, чем", не сомневаюсь.

> И никто не хочет линукс никак.

расскажи это разработчикам iX. Они, если ты не в курсе, по совместительству разработчики freebsd. Ну, это ненадолго теперь, конечно.

> А весь докер под FreeBSD замечательно разруливается jailами

докер никак не разруливается джэйлами, потому что докер - это _репозиторий_. Готовых бинарных образов. Которые в линoops просто docker run, и в винде просто docker run. А у тебя - никак вообще.

А пупсики хочут чтоб у них работало.


Ответить | Правка | Наверх | Cообщить модератору
Родитель: #119

235. Сообщение от пох. (?), 04-Июл-21, 23:25   +/
> А скоро на rust перепишут?

опять неправильно, да сколько ж можно вас обучать грамматике?!
Скоро на хруст НАЧНУТ переписывать!

(это утверждение, если непонятно. Возможно даже уже начинают где-то.)

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #231

236. Сообщение от пох. (?), 04-Июл-21, 23:28   –1 +/
> Хочешь ZFS ставь FreeBSD и не делай людям мозги

какой смысл ставить мертвую систему чтобы получить тот же самый дельфиксовый zfs ?

Баги в котором не исправляют годами потому что "у нас нет ресурсов"(c)

ставь бубунточку, тебе анон все правильно посоветовал. Или забей и ставь дисяточку. Там нормальные storage spaces, с нормальной refs, правда, павершел придется выучить - полноценный гуй обещали только в 11.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #125 Ответы: #269

237. Сообщение от Док (?), 04-Июл-21, 23:31   +/
Все норм. Можно включить sync и тогда данные без кеша сразу записываются
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #76

238. Сообщение от Аноним (231), 04-Июл-21, 23:35   +/
Linux BDSM какой-то!
Ответить | Правка | Наверх | Cообщить модератору

239. Сообщение от Док (?), 04-Июл-21, 23:36   +/
Комментарии похожи на вопли сумасшедших не умеющих даже хоум папку перенести с одного диска на другой но лезущих писать про zfs
Ответить | Правка | Наверх | Cообщить модератору
Ответы: #248

240. Сообщение от Аноним (240), 05-Июл-21, 05:37   +/
ZFS транзакционная.. что записала то записала .. полфайла не сохранит
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #76

241. Сообщение от Аноним (240), 05-Июл-21, 05:45   +1 +/
да пользуйтесь чем хотите.. зачем только в тему лезете со своим ненужным мнением ?

что ни тема про freebsd или zfs то набегает куча линуксойдов и начинают чморить за ненужно...
как itгопники...

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #220 Ответы: #255

243. Сообщение от bOOster (ok), 05-Июл-21, 06:42   +/
> А расскажите о проблемах зфс подробнее.
> Насколько оно устойчиво при заполнении 99%?
> Насколько легко потерять данные с вылетом одного диска если делать зеркалирование средствами
> зфс?
> Как там с криптой?

GMIRROR и GELI, но линуксоиды этой стройной системой обделены..

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #193

244. Сообщение от bOOster (ok), 05-Июл-21, 06:55   +/
> Вы из тех, кто придерживается идеи: "При операциях достаточно продезинфицировать инструменты,
> руки мыть не нужно"? Поэтому вас не смущает, что кусок ram
> будет "на изначально, не извращённо разбитом куске одного hdd ручками" с
> неизвестным состоянием? Вам не zfs нужен, а /dev/random, пользуйтесь.

Че за бред? Ты вообще в курсе что такое SWAP то? И как он работает? И что SWAP был задолго до ZFS?

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #79

245. Сообщение от Минона (ok), 05-Июл-21, 08:23   +1 +/
как ты ловко переодеваешься прям в воздухе.

>Однако, говоря о зфс, если именно девайс с логом отвалится, проблемы будут. Не так ли?

не будут. это пофиксили, теперь логу разрешено отваливаться без последствий.

>А что, парити у зфс совсем не деградирует?

опиши что за проблема
если ты имеешь ввиду деградацию зарядов на пластинах, то
1. инфа на диск пишется в виде данные+ЕСС
2. в зфс все обложено CRC кодами + имеются механизмы самовосстановления + рекомендуется делать регулярный scrub.
т.е. об этой проблеме инженеры были в курсе и все необходимое для её решения предприняли когда проектировали zfs.

>Если уж у хардварных рейдов проблема нормально не решается, то что можно сделать софтом?

ты удивишься, но в аппаратных рейда тоже работает софт, только места там мало и особо умную прошивку не сделать.

>Всегда умиляли эти поклонники зфс

а меня умиляют хейтеры, у которых знание предмета ограничивается статьёй в википедии.

>Как по мне, основные претензии к зфс в довольно низкой эффективности

эффективности чего?

>Ну не получается цветочек глиняный у них, ну никак

так опенсорс же! включайся в работу, сделай лучше. =)

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #216

246. Сообщение от Минона (ok), 05-Июл-21, 08:53   +/
>А вообще, структуру повреждённого RaidZ вполне можно прочитать утилитами восстановления из Винды, если религия позволяет.

это какими?

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #105 Ответы: #270

247. Сообщение от Минона (ok), 05-Июл-21, 09:12   +/
забавно что в TrueNAS решили сделать наоборот =)
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #48

248. Сообщение от Аноним (231), 05-Июл-21, 09:18   –1 +/
По себе судить не надо.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #239

249. Сообщение от Аноним (231), 05-Июл-21, 09:18   +/
А дальше анальный зонд с телеметрией!
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #232

250. Сообщение от 1 (??), 05-Июл-21, 09:30   +/
FreeNAS используем в роли файлопомойки ...
Вполне себе ничего ... пару дисков отправились в цифровой рай - без проблем.

На новых дисках не пробовали - стоят 6Тб от сигейта и хитачи.

Работает и работает.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #15

251. Сообщение от n00by (ok), 05-Июл-21, 09:55   +/
> Ну и какими кусками твои DLL'ки читаются? Правильно. Целиком.

Вы удивитесь, но образы Portable Executable (dll в частности) в Вашей любимой Виндос вообще не читаются. Они _отображаются_. Сначала -- заголовок, потом -- релокации (если требуется) и импорт/экспорт. На этом всё. Далее сектора файла отображаются в страницы ОЗУ при доступе к командам/данным.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #157

252. Сообщение от n00by (ok), 05-Июл-21, 10:18   +/
> когда файл переписывается
> на ходу. Для бинарников это немного странно.

Исполняемый файл не переписывается, его банально нельзя открыть с правами на запись и исполнение. Что бы запущенный экзешник возможно было переписать, Микрософт набангалорила удивительное по своим габаритам технологическое отверстие, через которое сливаются все права на файлы и проч.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #180

253. Сообщение от Juha (ok), 05-Июл-21, 10:41   +/
Речь идет как обычно о газификации лужи.
-- "Что бы работало хорошо надо все сделать верно, но тебе я не скажу как верно, ты там сам разрули и догадайся. И вообще ты ****".
От таких советчиков лучше держатся подальше.
А так да, жрет zfs как не в себя.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #52

254. Сообщение от Juha (ok), 05-Июл-21, 10:49   +/
Как только ограничиваем память, тут же скорость падает, причем да же ниже чем старый mdadm на ext4. Никак не лечится, увы и ах. Нужна скорость, Вам не в ZFS, какая бы она не была классная.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #29

255. Сообщение от Беня Коломойский (?), 05-Июл-21, 11:14   +/
Я использую FreeBSD, но без тормозной ZFS.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #241 Ответы: #256

256. Сообщение от Аноним (240), 05-Июл-21, 12:28   +/
да пилите свои велосипеды как хотите ... в целом всем ср*ть что там у вас
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #255 Ответы: #257

257. Сообщение от Беня Коломойский (?), 05-Июл-21, 12:39   +/
Ну и пошёл ты йухан в таком случае.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #256 Ответы: #258

258. Сообщение от Аноним (240), 05-Июл-21, 13:51   +/
да понятно с вами все руки из *опы да еще и грубиян
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #257

259. Сообщение от Juha (ok), 05-Июл-21, 15:08   +/
По Вашей же ссылки написано что ZIL не равно SLOG в плане хранилища.
То есть
ZIL - содержится на тех же дисках
SLOG - на отдельном быстром

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #160 Ответы: #263

260. Сообщение от kissmyass (?), 05-Июл-21, 16:36   +/
брехня, если бы лично не сравнивал на больших файлах XFS и EXT4, то может быть и повелся бы
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #16

261. Сообщение от freehckemail (ok), 05-Июл-21, 17:19   +/
> На коровах почти любая запись в файл фрагментирует данные by design.

ARC в помощь.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #86 Ответы: #278

262. Сообщение от freehckemail (ok), 05-Июл-21, 17:22   +1 +/
> РОССЫПАЕТСЯ ЖЫ.

Вы с btrfs перепутали.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #146

263. Сообщение от Аноньимъ (ok), 05-Июл-21, 18:36   +/
Так я и не писал нигде что равно.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #259

264. Сообщение от Tualua (?), 05-Июл-21, 19:31   +/
Ну я использую. 30Тб данных (SSD), striped raidz1. 50 вм, нагрузка на дисковую не очень большая, но постоянные send/recv, клоны, снапшоты, откаты. Все отлично работает
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #15

265. Сообщение от Аноним (265), 06-Июл-21, 13:55   +/
Как раз именно тем, что нужно изучать, не просто держать нос по ветру популярности, ничего не понимая.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #113

266. Сообщение от WD (?), 06-Июл-21, 19:03   +1 +/
Шел 21 век, но почитатели LMR продолжали молиться своему старом богу. В то время как HMSMR контролится самим жестким диском. Фрагментация? Помолимся, братья...
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #175

267. Сообщение от Noob (??), 06-Июл-21, 21:51   +1 +/
Стоит FreeNAS на домашней файлопомойке. Без UPS-a. За пять лет использования электричество рубилось сто раз. На железяку постоянно пишется поток с камеры наблюдения. Год назад начали сыпаться bad-сектора на одном из дисков. Весной этого года диск сдох. RaidZ из 4 дисков по 2Тб, 8 гигов обычной, не ECC оперативки. Поменял диск, перестроил массив. Никаких проблем. Потом решил до кучи проверить остальные три диска. В SMART - ошибки, тоже подсыпаться начали. Заменил и их, не отключая сервак. Ничего из того что лежало не пропало. Прогнал CRC по лежащим на серваке фотками и видосам. Сравнил с архивами на бэкапе, один в один. Простите хейтеры ZFS, я старался поломать, но видимо я что-то делал не так.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #76 Ответы: #271, #273

268. Сообщение от Google (?), 06-Июл-21, 21:55   +1 +/
Ждем когда ты наконец напишешь свой первый "Hello world!", чтобы сразу его присвоить!
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #233

269. Сообщение от bOOster (ok), 07-Июл-21, 06:16   +/
>> Хочешь ZFS ставь FreeBSD и не делай людям мозги
> какой смысл ставить мертвую систему чтобы получить тот же самый дельфиксовый zfs
> ?
> Баги в котором не исправляют годами потому что "у нас нет ресурсов"(c)
> ставь бубунточку, тебе анон все правильно посоветовал. Или забей и ставь дисяточку.
> Там нормальные storage spaces, с нормальной refs, правда, павершел придется выучить
> - полноценный гуй обещали только в 11.

storage spaces это вообще корявая поделка в попытке догнать enterprise FS. Чего стоит только то что для кэширования ты можешь использовать ТОЛЬКО четное количество дисков если в зеркале диски стоят.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #236

270. Сообщение от pofigist (?), 07-Июл-21, 14:39   +/
>>А вообще, структуру повреждённого RaidZ вполне можно прочитать утилитами восстановления из Винды, если религия позволяет.
> это какими?

ZFSin например

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #246 Ответы: #272

271. Сообщение от Ю.Т. (?), 07-Июл-21, 15:22   +/
> Стоит FreeNAS на домашней файлопомойке. Без UPS-a. За пять лет использования электричество

Спасибо, внушает.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #267

272. Сообщение от Минона (ok), 08-Июл-21, 06:58   +/
>>>А вообще, структуру повреждённого RaidZ вполне можно прочитать утилитами восстановления из Винды, если религия позволяет.
>> это какими?
> ZFSin например

так это еще альфа

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #270 Ответы: #275

273. Сообщение от Котофалк (?), 03-Авг-21, 10:05   +/
> В SMART - ошибки, тоже подсыпаться начали. Заменил и их, не отключая сервак.

pending sectors?


Ответить | Правка | Наверх | Cообщить модератору
Родитель: #267

275. Сообщение от pofigist (?), 03-Авг-21, 11:24   +/
>>>>А вообще, структуру повреждённого RaidZ вполне можно прочитать утилитами восстановления из Винды, если религия позволяет.
>>> это какими?
>> ZFSin например
> так это еще альфа

Тебе шашечки или ехать? 90+% опенсорца - альфа по жизни, но тем не менее - работает и используется.

Ответить | Правка | Наверх | Cообщить модератору
Родитель: #272

276. Сообщение от Tim (??), 20-Сен-21, 16:52   +/
в zfs же RoW, а не CoW
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #86

277. Сообщение от Онаним (?), 20-Сен-21, 20:32   +/
FoW там. Fragment on Write или Fuckup on Write, как кому привычнее.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #86

278. Сообщение от Онаним (?), 20-Сен-21, 20:34   +/
И как наша доблестная жанночка решит проблему фрагментации на носителе?
Как раз причина, почему ZFS идёт нахер - если ему не отдать памяти по горло, он нормально работать не будет.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #261 Ответы: #279

279. Сообщение от freehckemail (ok), 22-Сен-21, 13:48   +/
Совсем не решит, но существенно облегчит дело за счёт сериализации данных перед сбросом.
А по поводу памяти -- ну так сначала надо выбрать ФС, удовлетворяющую вашим нуждам, а потом уже систему заказывать. К слову, рама стоит вообще копейки.
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #278 Ответы: #280

280. Сообщение от Онаним (?), 22-Сен-21, 14:07   +/
Так собственно да, и это не ZFS :)
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #279

281. Сообщение от xss (?), 14-Окт-21, 16:43   +/
А давно ли оперативка является линейным хранилищем?
Можно расшифровать RAM?
Ответить | Правка | Наверх | Cообщить модератору
Родитель: #75


Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру