> Автор, вон, пишет, что всё лежит в виде обычных файлов на каком-нибудь ext4 у тебя 200T файлов на ext4. Без конца перебалансируемых-перебалансируемых через непонятного качества ethernet на непонятного качества памяти и процессорах. (а, да - еще и общение с тем ethernet и дисками - через супернадежную шину usb3)
Тут в пору задаваться даже уже не вопросом "какова вероятность что они давным-давно уже представляют собой занимательную кашицу", а "какой их процент".
> Зато чувак может пережить смерть аж целого комплюхтера с данными: он ведь у него не один теперь.
у него там какая-то странная конфигурация - где-то даже и не одного, где-то "и хрен с ними, с данными". (кстати, из-за пофайлового подхода у тебя тут либо 2x потеря, и мы переживем отказ целого одного диска или его ноды, либо больше 2)
причем статья годичной давности, собирал он это все, надо полагать, еще с год, когда scrub-демона еще вооще не существовало - так что, по-моему, он просто очень смелый и отважный (надо бы попытаться ему впарить тур на Алтай - тем более что и небедный - 20 10T дисков на дороге не валяются даже если их в полку втыкать, а тут еще и каждому надо дополнительных $35-60 в виде цельного компьюхтера )
знания о состоянии дел в zfs, безусловно, печалят неимоверно, как и знания о ее внутреннем устройстве. btw, gluster'у все равно - может и поверх zfs работать (правда, совсем недавно починили ;-) - но от порчи битиков это не поможет, они могут портиться еще до попадания в fs.
в общем, хотелось бы какого-нибудь еще опыта. Пока - страшноватенько.