The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]

Перенос данных через loop-диск, физически занимающий не больше размера скопированных данных
У меня на роутере с линуксом висят 3 флешки, объединенные в один длинный диск
через линейный программный RAID. Возникла необходимость заменить одну из этих
флешек, ничего умнее не придумал, как на ноутбуке скопировать всю информацию из
старого массива в новый, через диск внутри файла, подключенный как loop device.

Но мне было лениво создавать loop-диск в 30 ГБ, поскольку это долго - скорость
записи на диск не большая, а 30 ГБ это много. Поискал информацию про диски
размером в одну дырку, и вот нашел вот этот чудесный пост.

У меня стоит ubuntu 12.04, через консоль перешел на диск от Windows 7 с ntfs:

   cd /media/Data

Создаем диск в 30ГБ размером в одну дырку

   dd if=/dev/zero of=disk.image bs=1M seek=30000 count=1

Проверьте сейчас сколько он у вас занимает, через 

   du -h disk.image

Форматируем диск:

   losetup /dev/loop0 disk.image
   mke2fs /dev/loop0

После предыдущего шага "du -h disk.image" показал у меня 460 МБ

Монтируем и заливаем на диск информацию - и файл с диском растет на разделе
в процессе загрузки данных

   mount /dev/loop0 /mnt/where/you/need
 
18.10.2012 , Автор: Паша , Источник: http://www.debian-administration.or...
Ключи: sparse, hole, disk, growable, loop, device, ntfs
Раздел:    Корень / Администратору / Система / Диски и файлы / Файловые системы

Обсуждение [ Линейный режим | Показать все | RSS ]
  • 1.1, Аноним (-), 12:33, 19/10/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    О сколько нам открытий чудных
    Готовит просвещенья дух...

    ^_^

     
  • 1.2, igor (??), 14:06, 19/10/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    После предыдущего шага "du -h disk.image" показал у меня 460 МБ

    а если данных на 300mb ? :)

     
     
  • 2.10, PavelR (??), 22:57, 20/10/2012 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > После предыдущего шага "du -h disk.image" показал у меня 460 МБ
    > а если данных на 300mb ? :)

    В оригинальной статье с дебиан-администрейшн-а все делалось ради других целей, пусть тоже и спорных, но автор статьи на этом сайте явно не разобрался в теме и спорол явную чушь.

     
  • 2.26, A_n_D (ok), 09:55, 07/06/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Значит, испольуй jfs.
     

  • 1.3, Аноним (-), 14:30, 19/10/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Спасибо!
     
  • 1.4, Роман (??), 14:39, 19/10/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +4 +/
    Чет не пойму для чего это? В чем профит по сравнению с tar (да или просто cp)?
     
     
  • 2.5, Andrey Mitrofanov (?), 20:02, 19/10/2012 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > Чет не пойму для чего это? В чем профит по сравнению с tar (да или просто cp)?

    Видимо он сделал дырку в Win7 своей убунтой. ??? +1, я тоже ни-фи-га не понял.

     
     
  • 3.7, Аноним (-), 23:16, 19/10/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Видимо он сделал дырку в Win7 своей убунтой.

    Ну а что, полезное применение :)

     

  • 1.6, Аноним (-), 23:16, 19/10/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +3 +/
    Гражданин открыл для себя sparse файлы. Вау.
     
     
  • 2.9, PavelR (ok), 09:51, 20/10/2012 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > Гражданин открыл для себя sparse файлы. Вау.

    Это он для себя еще tar не открыл. Следите за новостями.

     

  • 1.8, mitiok (ok), 09:07, 20/10/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    "весит" . автор, купи букварь.
     
  • 1.11, mihalych (ok), 20:34, 21/10/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Ёще один извратный метод:
    dd if=/dev/zero of=/mnt/dos-c/zero.bin
    #^^^пока не свалится с ошибкой "нет места на диске"
    rm -vf /mnt/dos-c/zero.bin
    umount /mnt/dos-c
    dd if=/dev/sda1| xz --fast --compress --stdout > /var/backup/dos-c.dd.xz
    #сдесь я имел в виду, что /dev/sda1 монтируется в каталог /mnt/dos-c
     
  • 1.12, iZEN (ok), 23:23, 21/10/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • –3 +/
    При использовании ZFS в конфигурации линейного RAID-0 из нескольких носителей легко заменяется один носитель на новый методом включения (attach) заменяющего носителя к заменяемому (получается сегмент в виде зеркала). После резилверинга можно исключить (detach) заменяемый носитель из пула.
     
     
  • 2.13, некто (?), 08:46, 22/10/2012 [^] [^^] [^^^] [ответить]  
  • +4 +/
    > При использовании ZFS в конфигурации линейного RAID-0 из нескольких носителей легко заменяется
    > один носитель на новый методом включения (attach) заменяющего носителя к заменяемому
    > (получается сегмент в виде зеркала). После резилверинга можно исключить (detach) заменяемый
    > носитель из пула.

    кто о чем, а вшивый о бане

     
     
  • 3.14, Аноним (-), 18:40, 22/10/2012 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > кто о чем, а вшивый о бане

    Казалось бы при чем тут Лужков и ZFS? :)

     
  • 2.25, Аноним (-), 11:37, 05/12/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Пля, а в Линуксе еще проще делается, и что? У тебя на каком роутере на флешке ZFS стоит? Покажи, а?
     

  • 1.15, vl (??), 09:58, 23/10/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    Может, что не понял, но почему нельзя было использовать tar ?
     
  • 1.18, truncate (?), 10:11, 24/10/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    вместо:

    dd if=/dev/zero of=disk.image bs=1M seek=30000 count=1

    можно использовать:

    truncate -s 30G disk.image

     
  • 1.19, Аноним (-), 21:10, 25/10/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Суть в том, что обычно при создании image файла, он занимает в системе ровно столько, на сколько он был создан. Иными словами фиксированный размер image файла, а в данном посте автор рассказывает, как создать image файл с динамическим размером, который будет увеличиваться по мере заполнения image файла.
     
     
  • 2.24, ram_scan (?), 19:30, 08/11/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Обычно при создании таким образом файла (один раз лсикнуть, подрезать и закрыть) он занимает (по крайней мере на ext3) в системе ровно размер иноды. Физически начинает пухнуть по мере записи.
     

  • 1.20, sluge (??), 16:25, 26/10/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    то же самое написано в man losetup
     
  • 1.21, Аноним (-), 22:24, 26/10/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Остер отдыхает, короче..
     
  • 1.22, zomg (?), 13:53, 29/10/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    LVM надо было юзать, а не линейный RAID. добавить четвертую флешку в группу, выкинуть одну старую. данные переедут.
     
     
  • 2.23, anonymous (??), 11:20, 30/10/2012 [^] [^^] [^^^] [ответить]  
  • +/
    плюсик
     


     Добавить комментарий
    Имя:
    E-Mail:
    Заголовок:
    Текст:




    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру