- Убери sw и suСоздайparted -a optimal dev sdb mkpart primary xfs 2048s 100 mkfs , Bosh (?), 19:15 , 06-Ноя-12 (1)
Убери sw и su Создай parted -a optimal /dev/sdb mkpart primary xfs 2048s 100% mkfs.xfs -f -l lazy-count=1,size=128m,version=2 -n size=64k -b size=4096 -d agsize=512m -i size=1024 /dev/sdb1 agsize в зависимости от типа данных mount -t xfs -o defaults,attr2,inode64,noatime,nodiratime,nobarrier,logbufs=8,logbsize=128k,noquota,allocsize=512m /dev/sdb1 /mnt/xfsdisk allocsize в зависимости от типа данныхЗатюнь disk system под xfs #!/bin/sh for i in `cat /proc/diskstats | grep sd[a-zA-Z][^0-9] | awk '{print $3}'` do blockdev --setra 4096 /dev/$i echo deadline > /sys/block/$i/queue/scheduler echo 4096 > /sys/block/$i/queue/read_ahead_kb echo 4096 > /sys/block/$i/queue/nr_requests echo 64 > /sys/block/$i/queue/iosched/fifo_batch echo 0 > /sys/block/$i/queue/iosched/front_merges echo 150 > /sys/block/$i/queue/iosched/read_expire echo 1500 > /sys/block/$i/queue/iosched/write_expire echo "Set $i - done" done echo 10 > /proc/sys/vm/swappiness echo 10 > /proc/sys/vm/dirty_ratio echo 5 > /proc/sys/vm/dirty_background_ratio echo 1000 > /proc/sys/vm/dirty_expire_centisecs echo 1000 > /proc/sys/vm/dirty_writeback_centisecs echo 50 > /proc/sys/vm/vfs_cache_pressure Посмотри в /proc/interrupts грепни по aacraid и сделай так что бы это прерывание работало на ВСЕХ процах (если сервак малтикоре) >[оверквотинг удален] > " Initial write " 42760.28 > " Rewrite " 31235.14 > " Read " 135243.35 > " Re-read " 133918.22 > " Random read " 4361.25 > " Random write " 3402.84 > Что может повлиять на производительность случайного чтения в первом случае? > Пробовал увеличить queue_depth и поменять scheduler на noop. > Тестировал разные уровни raid (10, 5, 50) со всеми так. > Так и должно быть или что-то не то с настройками?
- И ,ДА , 6 RAID он чисто просто тормоз бай дизайн , если есть время собери 1, Bosh (?), 19:21 , 06-Ноя-12 (2)
И ,ДА !!!, 6 RAID он чисто просто тормоз бай дизайн , если есть время собери 10>[оверквотинг удален] > " Initial write " 42760.28 > " Rewrite " 31235.14 > " Read " 135243.35 > " Re-read " 133918.22 > " Random read " 4361.25 > " Random write " 3402.84 > Что может повлиять на производительность случайного чтения в первом случае? > Пробовал увеличить queue_depth и поменять scheduler на noop. > Тестировал разные уровни raid (10, 5, 50) со всеми так. > Так и должно быть или что-то не то с настройками?
- привет read cache выключи, под raid6 контроллер должен быть заточен т е алгорит, нуда (?), 17:05 , 10-Ноя-12 (6)
> Добрый день. > Есть рейд 6 массив из 12 SATA дисков на контроллере Adaptec 6й > серии 512MB Cache. > Read и Write cache включены. Файловая система xfs с заданными sw и > su.привет! read cache выключи, под raid6 контроллер должен быть заточен т.е. алгоритм этот специфический, для raid6 оптимальное количество дисков при 12 шпинделях это 11 + 1 spare. затестите bonnie++, у меня есть для от него некоторая статистика для сравнения, несколько raid6,raid10 и т.п. на 12 дисковых массивах.
- например, конкретно для raid6 вот node15 hp dl165g6 , ext4 noatime, nobarrie, нуда (?), 17:09 , 10-Ноя-12 (7) +1
- Контроллер достаточно хороший, Adaptec 6серии, умеет множество уровней Я думаю , stre10k (ok), 21:43 , 04-Дек-12 (8)
|