|
2.4, Аноним (4), 20:44, 18/12/2022 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +8 +/– |
У меня часто сыпиться на внешних устройствах, которые я выдерагиваю после записи. Теперь я делаю sync до выдергивания флешки и вроде они перестали глючить. Для встроенных дисков - проблем небыло уже пол года, возможно они были связаны с btrfs-convert (там были фиксы). Вообщем я бы не назвал ее 100% надежной.
| |
|
3.16, Ананимист (?), 21:17, 18/12/2022 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| –17 +/– |
100 пудов юзается что-то архаичное. BTRFS уже давно считается стабильной фс. И если какие-то с ней проблемы, то время грешить на аппаратуру/дистр.
| |
|
4.47, Аноним (4), 22:10, 18/12/2022 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +8 +/– |
У меня глючила очень долго. Сейчас последние полгода-год нормально работает - никаких крешей. Но похоже все равно еще дыры есть. Например если записать 20 гигов на флешку и размнотировать - она размнотируется мгновенно. И если выдернуть - она может не просто потерять новые файлы, а сломаться полностью. Вообщем есть какие-то косяки.
1) Кроме того btrfs не поддерживает badblocks. 2) Нужно запускать 'btrfs balance start -dusage=90 /' раз в неделю. 3) grub-32 не грузится со сжатой файловой системы. 4) нет поддержки zerofree, что очень плохо когда архивируешь или используешь виртуалку 5) нет хорошей поддержки fsck. у меня много раз было когда btrfs fsck проходит - а файловая система не грузиться или валиться. 6) плохая поддержка для deduping
Вообщем не 100%
| |
|
5.68, Аноним (68), 00:56, 19/12/2022 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +/– |
> balance
Пользоваться фс которая посыпется если не сделать во время балансинг это как сидеть на пороховой бочке. Возможно конечно она уже не сыпется от этого с тех пор как я последний раз её пробовал (и поскользнулся именно на этом), но учитывая что речь идет о самой штабильной фс (тм) я бы не стал на это надеяться
| |
|
6.167, Аноним (-), 18:53, 21/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> Пользоваться фс которая посыпется если не сделать во время балансинг это как
> сидеть на пороховой бочке. Возможно конечно она уже не сыпется от
> этого с тех пор как я последний раз её пробовал
Это когда было? Сейчас оно глобальный резерв заводит и таких проблем не имеет. Фйэсбука это тоже видите ли кусало. Они и починили.
| |
6.116, Аноним (4), 14:07, 19/12/2022 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +/– |
она не сыпиться - просто заканчивается место и ты не можешь удалить файлы. правда сейчас это исправлено - добавлен reserve в несколько гигов (зарезервированная память, которая использууется исключительно когда заканчивается место). сейчас она более менее. и много полезных и крутых штук.
| |
|
7.148, Аноним (148), 05:38, 20/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
Каким дистрибутивом ты пользуешся ?
У меня ВСЕ кроме boot на 3 машинах на btrfs. И флешки в том числе. Ща ежедневно еще и свет гаснет, никаких проблем. Вообще никаких. Ubuntu LTS 22.04.
До убунты пользовался gentoo сидел на LTS ядре. Все так же никаких проблем.
И нет я НЕ делал btrfs balance как устаномил систему (9 месяцев).
| |
7.151, Аноним (151), 06:51, 20/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
Невозможность именно что удалить файлы, если кончилось место -- это что-то новое. Такое вряд ли (сам не пользовался) было даже на ФС для пятидюймовых дискет Спектрума, где не было фрагментации и нужно было файлы специальной командой перемещать, чтобы высвободить свободное место.
| |
|
|
5.126, crypt (ok), 14:34, 19/12/2022 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +3 +/– |
тем временем на FreeBSD ZFS используется на корю с перманентными снапшотами.
bectl create BeforeUpdateFromOfficialRepo
обновился, не понравилось
bectl activate BeforeUpdateFromOfficialRepo
перезагрузился и вот он тебе rollback. снапшот никуда не делся. хочешь, можно обратно на апдейты.
как тебе такое илон маск?
| |
|
|
3.33, Аноним (33), 21:54, 18/12/2022 [^] [^^] [^^^] [ответить] [↓] [↑] [к модератору]
| –1 +/– |
В линуксе даже фат 32 портится если не размонтировать.
А в sync режиме тормозит.
Нет какого-то среднего режима как в винде.
| |
|
4.150, Аноним (148), 05:42, 20/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
/etc/sysctl.conf
# This fix enoumous big diry bytes (16 gb system vm.dirty_background_bytes 3.2 Gb ??? )
# 64 mb - when system starts writing to disk 64*1024*1024
# 256 mb - when system limits io to device speed 256*1024*1024
# Guys from SUSE recommends keep this in proportion 1:2 - 1:4
# Ubuntu guys recommends to set this even lower 16 and 42 Mb but well...
# This emulates near 1 gb ram default behaviour
#let only 64 mb of pages in ram before writing to disk on background
vm.dirty_bytes = 67108864
#let only 256 mb of pages in ram before blocking i/o to write to disk
vm.dirty_background_bytes = 268435456
## use this on low ram machile (32 and 64 mb)
#vm.dirty_bytes = 33554432
#vm.dirty_background_bytes = 67108864
| |
|
|
4.117, Аноним (4), 14:08, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
после размонтированя конечно. посмотри как btrfs себя ведет если залить 20 гигов и размонтировать - она размонтируется мгновенно. похоже какие то журналы еще не записаны на уровне ядра.
| |
|
5.149, Аноним (148), 05:40, 20/12/2022 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +/– |
Это зависит от параметра ядра.
добавь это в /etc/sysctl.conf
#let only 64 mb of pages in ram before writing to disk on background
vm.dirty_bytes = 67108864
#let only 256 mb of pages in ram before blocking i/o to write to disk
vm.dirty_background_bytes = 268435456
| |
|
6.178, Аноним (-), 19:48, 24/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
С более-менее новыми ядрами это уже не надо: они сами замечают что накопитель медленный и урезают ему dirty по своей инициативе, чтобы размонтирование, отбор памяти у кэша и проч занимали бы человеческое время.
А на быстром накопителе это только немного просадит производительность без особых положительных эффектов. Лучше ядра использовать не сильно древние, а на десктопе еще и low latency варианты к тому же. Для общей интерактивности системы.
| |
|
|
|
3.176, Аноним (-), 19:35, 24/12/2022 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
> У меня часто сыпиться на внешних устройствах,
Эти с любой ФС сыпятся. Иногда даже настолько что совсем умирают. Там надо не только размонтировать но и EJECT делать, как безопасное извлечение в винде.
В этом случае оно еще более-менее остановит фоновые операции. Иначе - возможно все что угодно. Вплоть до слета транслятора - и горе вам если у вас бэкапов нет, это вообще не определяется как устройство, или определяется в сервисном режиме контроллера - но что вы с ним таким делать будете? Btrfs если dup включить, с его 3 копиями суперблоков даже зачастую выживает, гораздо чаще чем многие другие.
| |
|
|
|
4.22, Ананимист (?), 21:20, 18/12/2022 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +/– |
Послали нафiг, сказав, что у нас есть свои велосипеды.
Ну вот теперь в своих Stratisах реализуют то, что уже давно готово в BTRFS.
А на самом деле, они бы уже сейчас перешли.
Но, признаются, что тупо нет спроса у клиентов. На их сабреддите можешь почитать.
| |
|
|
|
7.145, penetrator (?), 22:52, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
Fedora не годится для прода, а вот сервер с гуи часто встречается. И вместо LXQt приходится ставить кеды, в Роки есть. Но LXQt нет... и BTRFS тоже к сожалению.
| |
|
|
|
|
|
2.24, НяшМяш (ok), 21:23, 18/12/2022 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +/– |
Второй SSD на 2TB у меня на ней полгода крутится. Но там всего лишь файлопомойка да каталог стима. Другой SSD с корнем и хомяком пока страшно переводить )
| |
|
3.70, Аноним (68), 01:16, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +5 +/– |
Zfs как-то умудряется работать без рекомендаций: поставил и поехал, ничего не сыпется. А с этим чудом нужно обращаться как с фарфоровой куклой
| |
|
4.79, EULA (?), 05:22, 19/12/2022 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| –2 +/– |
Умудряется работать ровно до обновления ядра. Потом нужно ждать от трех дней до недели, чтобы вначале в апстриме сделали возможной сборку модуля для нового ядра, затем в дистрибутиве ждать обновлений.
На LQO насчитали более 50 случаев, когда бэкпорт патчей из нового ядра ломал возможность сборки или функционирования модуля ZFS в старом ядре.
Именно поэтому ZFS нельзя для проды использовать
| |
|
5.90, rinat85 (ok), 07:18, 19/12/2022 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +1 +/– |
"Потом нужно ждать от трех дней до недели, чтобы вначале в апстриме сделали возможной сборку модуля для нового ядра" "Именно поэтому ZFS нельзя для проды использовать"
Зато на прод можно ставить btrfs, который даже для загрузочного диска гипервизора не поставить в зеркало из 2х, т.к. он при деградации массива тупо отказывается работать пока не починят, вместо того, чтобы админ получил авто уведомление о проблеме и думал, когда и как ею заняться, а не бежал чинить, т.к. тюкают по голове звонками и чатами пользователи, оставшиеся без возможности работать :)
| |
|
6.93, EULA (?), 08:02, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
Так не надо делать из BTRFS зеркало RAID0.
Ну или не надо ставить GRUB в Legacy на этот же раздел.
| |
|
7.140, rinat85 (ok), 20:57, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> Так не надо делать из BTRFS зеркало RAID0.
> Ну или не надо ставить GRUB в Legacy на этот же раздел.
Я написал зеркало, очевидно имея ввиду аналог RAID1, иначе написал бы stripe :) Да, именно на массиве типа зеркало btrfs так себя ведет (год-полтора назад как минимум таковым точно было его поведение согласно дизайну, сам в шоке и не поверил сначала своим глазам:)
| |
|
|
5.99, Аноним (98), 09:20, 19/12/2022 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
Юзою ЗФС на продах ещё с 19-го года. Но в бубунте её модуль идёт сразу с ведром, потому проблем с модулем нет.
| |
|
6.106, EULA (?), 10:02, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
Поэтому в бубунте ядро в репы добавляют не в день релиза, а в день, когда все модули соберут. Иногда на это уходит неделя, если модульдел неделю думает, как модуль сделать для ядра.
| |
6.180, Аноним (-), 19:54, 24/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> Юзою ЗФС на продах ещё с 19-го года. Но в бубунте её
> модуль идёт сразу с ведром, потому проблем с модулем нет.
Кроме того момента когда вон там фикс на уязвимость выкатывают, а ты еще пару неделек уязвимый походи. С общеизвестной уязвимостью. Вот блин радость.
| |
|
|
4.123, Заноним (?), 14:28, 19/12/2022 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +1 +/– |
C ZFS было пару раз (в версии 0.6.x и 0.7.x), не монтировалась/не импортировалась штатно, приходилось импортировать принудительно для восстановления, вникать/искать в то какая там последняя рабочая транзакция, затем с неё сливать в новый пул на другом накопителе. Причём сбойный пул был на двух накопителях в mirror (сбоило на обоих накопителях). Но надо учитывать, что это был ПК без ECC с CPU и RAM в экспериментальном разгоне и сбой на FS возник после кучи ошибок и многократных зависаний системы. Однако если-бы был raidz, возможно восстановление было-бы ещё более заморочным, хотя я вряд-ли с raidz стал-бы сильно разгонять проц и память.
| |
4.129, DEF (?), 14:47, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
ZFS сыпется и теряет данные не реже, чем Btrfs. Вообще удивляет, как пипл верит ничем неподтвержденным мифам о супер-надежности ZFS. Где конкретные критерии стабильности и надежности ФС? Я лично более 1000 раз во время записи делал холодный ресет и Btrfs ни разу не рассыпалась.
| |
|
5.130, Заноним (?), 15:03, 19/12/2022 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +1 +/– |
> ZFS сыпется и теряет данные не реже, чем Btrfs
Вот это миф, т.к. ничем не доказать.
> Вообще удивляет, как пипл верит ничем неподтвержденным мифам о супер-надежности ZFS.
Пипл не верит, пипл разбирается в технических деталях и знает, что сама ZFS не крошится и данные если и потеряются, то лишь нескольких последних параллельных транзакций. И даже без ECC, и даже если выключить ZIL.
| |
|
6.181, Аноним (-), 19:58, 24/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> Вот это миф, т.к. ничем не доказать.
Поискари в интернете найдут вопли по любой ФС, а если вы хотите это конденсировано - придите в тусовку разработчиков, туда приходят те кому больше идти уже некуда.
> Пипл не верит, пипл разбирается в технических деталях и знает, что сама
> ZFS не крошится и данные если и потеряются, то лишь нескольких
> последних параллельных транзакций. И даже без ECC, и даже если выключить ZIL.
Свежо предание.
| |
|
7.192, Заноним (?), 22:49, 26/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
Утверждение раз пять перечитайте, что-бы понять на что я возразил.
> придите в тусовку разработчиков, туда приходят те кому больше идти уже некуда.
Давно там, по другим причинам. А вот вы сходите, и когда наскребёте статистику по потере данных в zfs и btrfs, тогда и приходите с доказательствами.
> Свежо предание
Ну можете обпроверяться.
| |
|
|
5.131, Аноним (131), 15:06, 19/12/2022 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
Ресет убивает btrfs только в одном случае - с no barrier. Проблемы с данной фс намного глубже. Можно просто после перезагрузки получить сообщение о ошибках связанных с деревом. Лично я, встречался с этим дважды - разумеется, третьего не будет. Благо, с zfs данных никогда не терял.
| |
5.135, Аноним (68), 17:09, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
Опыт штука такая, бтрфс в моем случае потерял два раздела, а зфс на тех же винтах после (которые я смог собрать в рейд уже без мдадма, вау) - ноль раз. Еще и балансить её не нужно и вообще прикасаться без необходимости, вот это чудеса. Конечно после такого опыта снова трогать бтрфс не хочется, и ничего подтверждать не надо
| |
|
|
|
|
|
4.80, EULA (?), 05:25, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
Ежики, которые не в курсе, что ZFS нет в ядре, и никогда скорее всего, не будет, не знают, что бывает, когда модуль на собирается с новой версией ядра.
| |
|
5.100, Аноним (98), 09:22, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
В бубунце модуль ЗФС идёт вместе с ведром. Чтобы этого добиться, там даже лояры прорабатывали этот вопрос. Полёт нормальный, с 19-20 годов пофиксили кучу багов и гонок c read-locks.
| |
|
6.107, EULA (?), 10:06, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
> В бубунце модуль ЗФС идёт вместе с ведром. Чтобы этого добиться, там
> даже лояры прорабатывали этот вопрос. Полёт нормальный, с 19-20 годов пофиксили
> кучу багов и гонок c read-locks.
Выше уже писал. Попадание свежего ядра в реп из--за этого может на неделю зависнуть.
Несколько версий ядер с бэкпортироваными фичами просто в реп не попали, так как модуль с этими ядрами не собрался.
| |
|
7.127, Заноним (?), 14:38, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +1 +/– |
Ничего, подождёшь недельку, ухле ныть - оно даже если не обновится, ничего страшного, старое же ядро работает и собранный под него модуль работает же.
| |
|
|
|
|
3.94, Аноним (94), 08:28, 19/12/2022 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
Пользую btrfs около 8 лет как основную и намерен продолжать использовать.
Использую её на домашнем ПК/ноутбуке.
Поначалу были факапы примерно раз в год.
Последние пару лет использую нормальное оборудование и последние версии ядра - проблем не было ни одной.
Пользовал btrfs на SMR-дисках при интенсивной записи: да, была СТАБИЛЬНО РЕГУЛЯРНАЯ беда раз в пол года примерно год назад (если игнорить тот факт, что SMR и интенсивная запись несовместимы).
У кого btrfs сыпется регулярно - ищите проблемы либо в аппаратной части, либо в своих навыках пользования имеющимися инструментами.
btrfs - конфетка, золотая середина для локального использования.
| |
|
4.108, EULA (?), 10:09, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +1 +/– |
> У кого btrfs сыпется регулярно - ищите проблемы либо в аппаратной части,
> либо в своих навыках пользования имеющимися инструментами.
Вы просто не пробовали размещать btrfs на умирающих дисках, как это делают все недовольные этой ФС.
| |
4.119, 1 (??), 14:11, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> У кого btrfs сыпется регулярно - ищите проблемы . . ., либо в своих навыках пользования имеющимися инструментами.
Это как ? Компилировать ядро только по субботам ? А не в любой момент, когда захотелось ?
| |
|
|
2.38, penetrator (?), 21:59, 18/12/2022 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| –1 +/– |
у меня есть большой массив, чексумы на данные - это киллер фича, уже нашел 2 битых файла за несколько лет эксплуатации (глюканул рейд контроллер), восстановил их из архивов
| |
2.59, eugener (ok), 23:10, 18/12/2022 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +/– |
У меня на работе произошла забавная история.
Как-то я прочёл эту статью - https://habr.com/ru/post/559014/ - там про болячку btrfs с исчерпанием свободного места на диске.
Буквально через неделю коллега жалуется что у него убунта не грузится. Говорит что нет места на /. Я такой "а там у тебя случайно не btrfs??" - коллега "ага, оно самое".
Посмотрел, действительно, занято всего ничего - а свободного места ноль. Никакие команды не отрабатывают, в том числе и rm и fsck, ругаются что "недостаточно свободного места, действие не может быть завершено" - что-то в этом роде.
Мне было интересно можно ли оживить, но коллега просто форматнул / и переставил убунту, благо /home был отдельным разделом.
| |
2.96, Аноним (96), 08:50, 19/12/2022 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
Фиг знает.
Для десктопа сойдёт.
Для продакшна - зависит от нагрузки. Если много мелкой записи и критичны IOPS - лучше не трогать.
| |
2.120, Аноним (131), 14:14, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
Готова, при наличии бэкапа. Но все равно медленнее zfs, которую можно гибко настроить. Чего не скажешь о btrfs.
| |
|
1.2, Аноним (2), 20:34, 18/12/2022 [ответить] [﹢﹢﹢] [ · · · ] [↓] [↑] [к модератору]
| +2 +/– |
А на самом деле:
- fix destructive RMW for raid5 data (raid6 still needs work)
Т.е. великим трудом поправлен один частный случай да и то для raid5.
Дополнительно можно отметить рекомендации по использованию RAID5/6 от разработчиков, суть которых сводится к тому, что использовать btrfs не рекомендуется там, где данные имеют ненулевую ценность.
Поправил, не благодарите.
| |
|
2.77, Андрей (??), 03:56, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
А чего это благо что хоум на отдельном разделе? Я не использую хоум вообще для хранения чего либо, там у меня только конфиги и всё которые скопированы дополнительно в другое место, поэтому хоум никогда не делаю отдельно, а для помойки использую том примонтированый в медиа
| |
2.82, EULA (?), 05:30, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
Знаю как красиво убить ZFS.
Надо во время записи на диск вызвать ошибку загрузки любого модуля ядра. Например, BT или WIFI.
| |
|
1.3, Kuromi (ok), 20:41, 18/12/2022 [ответить] [﹢﹢﹢] [ · · · ] [↑] [к модератору]
| –1 +/– |
"Также можно отметить, что для SSD в Btrfs в ядре 6.2 будет активировано по умолчанию асинхронное выполнение операции "discard" (пометка освобождённых блоков, которые уже можно не хранить физически). Достоинством этого режима является высокая производительность из-за эффективной группировки операций "discard" в очереди и далее обработки очереди фоновым обработчиком, из-за чего нормальные операции ФС не замедляются, как в случае с синхронным "discard" по мере освобождения блоков, а SSD может принимать более удачные решения."
Целиком срисовано с F2FS, там именно так оно и работает.
| |
|
2.9, Аноним (9), 20:54, 18/12/2022 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| –1 +/– |
Я использую btrfs на системном ссд с данными, всё норм. Мне нужны сжатие текстовых данных и дедупликация, что в ext4 не удобно так это необходимость регулярно прогонять hardlink и отсутствие сжатия. Зачем тебе btrfs, mdadm не хватит?
| |
|
|
4.88, Аноним (9), 07:00, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
Сжатие умеет tar. Снапшоты тоже. Именно так бэкапятся изменения за неделю и в конце недели полноценный бэкап. Рейд это не бэкап, ему не нужны снапшоты или сжатие.
| |
|
5.165, Аноним (-), 14:39, 21/12/2022 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
> Сжатие умеет tar.
Это все отлично конечно, но по времени операций и удобству рядом не стояло.
> Снапшоты тоже. Именно так бэкапятся изменения за неделю и в конце недели полноценный бэкап.
Сделать снапшот терабайтной ФС в сабже моментально. А таром так можно? То-то и оно :). Снапшот не бэкап но откатить систему после неудачного обновления или смены настроек удобно.
| |
|
|
|
|
|
2.12, Аноним (9), 21:00, 18/12/2022 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| –7 +/– |
Проблема дешёвых ссд. в следующий раз не будешь вестись на рекламу и проплаченные отзывы и возьмёшь качественные adata (поспеши пока островной китай на плаву).
| |
|
|
|
5.89, leap42 (ok), 07:01, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> ...Но, при этом он собирается на нормальном контроллере...
Ну как нормальным. У меня штук 7-8 ssd было, проблемный был один - Adata XPG. После поверхностного гугления ошибок из dmesg понял, что проблема с контроллером.
| |
|
|
7.186, Аноним (-), 20:20, 24/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> У них фишка в том, что они собираются на рандомном контроллере, в
> лучших китайских традициях.
И еще и из рандомного флеша, который удалось как можно дешевле где-то ухватить. Мало ли, скидывал нормальный производитель брак, допустим, и выбор был между совсем под пресс, или вон тем дешевым, без претензий, с кучей бэдов это отдать? В первом случае еще за утилизацию платить надо, во втором - даже профит какой-то. Ничего личного, это бизнес.
| |
|
|
|
|
|
2.124, Аноним (131), 14:30, 19/12/2022 [^] [^^] [^^^] [ответить] [↓] [↑] [к модератору]
| +/– |
Работает, но не поддерживает корректно queued trim. Этим существенно замедляя операции во время собственно trim'а. fstrim даже лучше discard - после выполнения по расписанию trim'а, не вызывает падение производительности.
| |
2.184, Аноним (-), 20:13, 24/12/2022 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
> discard не работает на многих ssd самсунга, зря активировали.
Ядро само отключает для проблемных накопителей, там список вредин и плохих версий фирмварей ведется. Для таких ядро будет просто игнорить дискард, не повод из-за кривых железок обламывать всех остальных. Сделали так что пролетать будут только владельцы (некоторых) самсунгов.
| |
|
|
|
|
|
5.45, Ананимист (?), 22:08, 18/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
Не, или starздишь, или мало гуляешь.
Нужно больше.
openSUSE и в госпиталях юзают (у них на сайте есть инфа, не падай ток в обморок).
И в учебных заведениях (можешь погуглить, только держи себя в руках).
Давай, как погуляешь, дай знать.
| |
|
|
|
6.54, Аноним (15), 22:45, 18/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| –3 +/– |
Опять ссылку на свой манямирок дал? Ты мозгов вообще обучен пользоваться? Тебе явно к психиатору прими таблетки.
| |
|
|
|
|
6.111, YetAnotherOnanym (ok), 11:10, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| –2 +/– |
> Ну конечно, куда какой-то Европе до Г-нодонска или Задрыщинска из российской глубинки.
Дооо, уязвил сарказмом, ага. Куда ж нам, сиволапым, до Шайзенштадта и Фартборо - это ж столицы мирового IT, на них равняются в Беркли, Тайбэе, Москве, Токио и вообще во всём мире.
| |
|
|
|
|
4.43, Аноним (15), 22:06, 18/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
Новости 33 миллиона лет ты так жестко рофлишь над самим собой? И то в те времена то что менеджеры получили больше откатов конкретно в этой фирме говорит ровно ни о чём.
После этого никто, подчеркиваю никто из тех кто дружит с головой ни в какие серьёзные вещи суши не пихал.
| |
|
5.48, pavlinux (ok), 22:13, 18/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> жестко рофлишь
Йопт, малолетнее дебилушко. иди гугле HPE GreenLake, Kubernetes
И свои высеры про "откаты" и "никто" ссылками подтверждай. А то выглядишь де6илом
| |
|
6.53, Аноним (15), 22:44, 18/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
Йопт, старый маразматушка. Нет там никакого суши забудь. Суши есть у мелких отщипенцев типа тебя, с ограниченными умственными способностями. Твои нелепые попытки гуглить это просто смех. Ты смешном по жизни.
| |
|
|
|
|
2.69, Аноним (68), 00:59, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
Там (в зюзе) уже сто лет дефолты такие, они были еще когда бтрфс сыпалась во много раз чаще чем сейчас, так что это нулевой аргумент
| |
|
1.62, Kirikekeks (ok), 23:31, 18/12/2022 [ответить] [﹢﹢﹢] [ · · · ] [↓] [к модератору]
| +/– |
Упрощаете товащи!
Здесь про рэйд5 новость. Использовать саму btrfs можно, кому нужно. А вот райд5 btrfs - кому нужно? Я бы послушал. Вот lvm к примеру срачей отмены ни у кого не вызывает, а хоть кто-то, ну то нибудь пользуется lvm raid5?
| |
|
2.104, Аноним (104), 09:43, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +1 +/– |
Ага, по этой логике и sqlite использовать не стоит, нигде и никогда. У неё как были проблемы с множественной записью так и остались.
| |
|
|
|
3.137, пох. (?), 17:32, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +1 +/– |
минусов гораздо больше. Начиная от отсутствия средств восстановления, продолжая невозможностью менять конфигурации сложившиеся исторически, и заканчивая все тем же смешным неумением без перезагрузки увеличить существующий раздел (только у л@п4тых, но беда в том что другой zfs для вас у меня уже нет)
Про абсолютно неэффективную работу с памятью уже и не стоит...
| |
|
|
1.112, Аноним (112), 12:27, 19/12/2022 [ответить] [﹢﹢﹢] [ · · · ] [↓] [↑] [к модератору]
| +/– |
Какой смысл использовать RAID5/6, когда диски стали большими и дешевыми? Время восстановления после сбойного диска будет куда больше чем у RAID1/10, а по стоимости выйгрыш минимальный.
| |
|
2.121, Аноним (7), 14:14, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
Это справедливо лишь по отношению к потребительским накопителям (если говорить об ssd), модели серверного/промышленного класса нифига не стали дешевле.
| |
2.136, пох. (?), 17:29, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
Именно в том что они стали слишком большими (и слишком дешевыми).
Время восстановления после сбоя любимого тобой raid10 тождественно равно нулю.
Потому что он не восстановится с непомерно высокой вероятностью.
Выкрасить и выбросить можно сразу.
А 3way mirror все еще немного дороговат.
| |
2.157, Аноним (96), 22:48, 20/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
Это смотря сколько у тебя дисков.
Предлагаешь загнать 15 8Tб дисков с данными под тройную чётность, купив 45?
Не, я лучше куплю ещё два и обойдусь RAID6.
| |
|
1.138, Аноним (138), 18:52, 19/12/2022 [ответить] [﹢﹢﹢] [ · · · ] [↓] [↑] [к модератору]
| +4 +/– |
Ребята, не стоит использовать RAID 5/6. Никогда. Вы молодые, шутливые, вам все легко. Это не то. Это не RAID1 и даже не JBOD. Сюда лучше не лезть. Серьезно, любой из вас будет жалеть. Лучше закройте тему и забудьте, что тут писалось. Я вполне понимаю, что данным сообщением вызову дополнительный интерес, но хочу сразу предостеречь пытливых – стоп. Остальных просто не найдут.
| |
|
2.139, пох. (?), 19:57, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| –1 +/– |
программировать, а не использовать. Использовать-то можно, если данные не нужны.
Поправил, не благодари.
А в остальном все верно. Со времен Левенталя не осталось достаточно грамотных людей, способных в эту математику (и одновременно в код, но это неточно).
ВСЕ современные попытки почему-то (мы знаем почему) оборачиваются г-ном.
| |
|
|
4.142, пох. (?), 21:36, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
угу, в xor. Вот в твоем лин00ps'е - с первого раза - нишмагли, в mdraid.
И его реализация raid6 просто превращала данные в мусор.
Нет, не потому что перепутали байтики в xor. Она вообще не работала. А почему - в твоей, лапоть, церковноприходской школе, тебя не учат не то что понимать, а хотя бы осознать глубину своей безграмотности.
Лет пять назад ситуация повторилась в lizardfs. Там интереснее - там, видимо, именно перепутали, но за пять лет НИКТО не смог исправить. Ну не хватает им тебя, эксперта, чтоб показать, что там не так в ихнем xor.
А тех кто мог бы - Организация видимо убила и съела. Или как Левенталя... уж лучше б - съела.
| |
|
5.144, пох. (?), 22:21, 19/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
Не, ну реализуется-то оно в основном и правда на xor и сдвигах, как любое умножение двоичных полиномов.
Только местному эксперту (к счастью для него) никогде не разобраться, почему иногда при этом получаются обратно данные, а иногда - фигня какая-то.
А с теми кто могли - всякое странное происходило. Так что да, не советую в этом копаться. Просто не найдут. Или найдут разработчиком в оракле.
| |
|
|
|
|
1.156, аНОНИМ (?), 22:37, 20/12/2022 [ответить] [﹢﹢﹢] [ · · · ] [↑] [к модератору]
| +/– |
я как-то тестировал openzfs raidz1 (ихнее название для raid5) btrfs raid5. Создавал fs, писал данные, размонтировал. Потом один из 3 разделов перезаписывал /dev/urandomом. Монтировал обратно. После этого zfs ругалась, тормозила, но все данные возвращала (а resilver фиксил ситуацию к тому что было до). btrfs же вообще ничего не читала, ну может случайно 1 короткий файл из 10. Это цена отсутствия чексуммы на блок чётности.
Из аналогичного упражнения для mirror/raid1 обе фс выбирались без потерь.
| |
|
|
3.162, пох. (?), 00:26, 21/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
при отсутствии контроля четности второе ничем не лучше. Ну есть у тебя теперь второй блок контрольных данных. А какой поврежден - по прежнему неизвестно. Может этот самый второй. Может первый. А может сами данные. raid делали для защиты от отказов носителя, не от silent corruption или отказа управления.
| |
|
4.163, аНОНИМ (?), 11:52, 21/12/2022 [^] [^^] [^^^] [ответить] [↓] [к модератору]
| +/– |
Чисто формально, в случае порчи *одного* любого блока из страйпа raid6 данные можно восстановить. Но это существенно большие вычисления чем в случае, если известно, какие блоки пропали. И mdraid так не умеет.
| |
|
5.170, edo (ok), 19:05, 21/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> Но это существенно большие вычисления
Не только, это ещё и больше i/o, поэтому сомневаюсь, что оно где-то используется при штатной работе для контроля целостности данных
| |
5.171, пох. (?), 21:45, 21/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
> Чисто формально, в случае порчи *одного* любого блока из страйпа raid6 данные можно
> восстановить.
э... как? Если мы не знаем, какой именно это блок? Если у страйпа хотя бы был бы общий контрольный, не ec, код - то да, можно собирать его всеми способами выкидывая все блоки поочереди, пока контролька не совпадет. Ну или ты предлагаешь мажоритарным методом - каких больше, тот и прав? Так и xor можно. Правда, необязательно это будет правильный ответ ;-)
> mdraid так не умеет.
мне кажется, так никто из EC-based не умеет.
| |
|
4.164, аНОНИМ (?), 11:53, 21/12/2022 [^] [^^] [^^^] [ответить] [↑] [к модератору]
| +/– |
Ну и да, в случае зеркал с >2 копиями тоже такто можно задетектить порченный блок и восстановить. И опять mdraid не умеет.
| |
|
5.172, пох. (?), 21:51, 21/12/2022 [^] [^^] [^^^] [ответить] [к модератору]
| +/– |
Ну то же самое - либо контрольный код, и просто прочитать тот где совпало, либо те где больше одинаковых, те и правы.
Но опять же сомневаюсь что хоть что-то так работает.
В synology mdraid вроде умеет в какой-то self-healing, "но это неточно" и исходников нет.
| |
|
|
|
|
|