> Rclone нарушает unix-wayНе нарушает. В rsync нет нативного бэкенда для синхронизации с S3, а rclone именно под него заточен.
> А чем rsync не устроил, если те же облака замонтировать как разделы?
Суть не в rsync, а скорее в том, что s3 нельзя представить в виде полноценной файловой системы. В частности, вы не можете записать или прочитать файл частично. Потому можете забыть про флаг -no-W, например: передача дельт работать не будет. А она кстати включена по умолчанию, когда источник с таргетом у rsync-а локальные. И когда вы монтируете, у вас все пути именно такими и будут: rsync-у не ведомо, что по одному из путей -- сетевая фс.
Плюс к тому, если вы смонтируете s3-бакет и попытаетесь с ним работать при помощи rsync, всплывёт куча удивляющих вещей. Например, многие не знают, что при синхронизации файла rsync по умолчанию создаёт part-файл, куда и ведёт загрузку новой версии, а когда завершит, перемещает part-файл по целевому пути. В случае с s3 это приведёт к двум загрузкам одного и того же файла (и ещё, кажется, одной выгрузке).
И это ещё не все нюансы. Оно конечно всё фиксится флагами rsync-а, но их целая куча, и их ещё пойди подбери, плюс тебе ещё надо монтировать s3fs через fuse... Очень много телодвижений, прям беда: за всем этим нужно следить, и ошибиться проще некуда. А rclone взял, указал источник с таргетом -- и всё. В общем, специализированный инструмент тут как раз надёжнее. К тому же он неплохо параллелится.
А облачный s3 штука нужная и востребованная, так что никуда от него не деться: это же фактически бесконечное хранилище, где вы платите только за занятое место. Плюс к тому, есть очень много кейсов, когда функции ФС в полной мере не нужны: любое хранилище артефактов например. Вам нужно много места, вам нужно туда загружать файлы целиком, и точно также выгружать их оттуда целиком. Собственно, s3 для того и создавался.
PS: суть этого поста не в "rclone хорош" (я сам пользуюсь s3cmd sync); Суть в том, что "rsync для s3 не удобен".