БЕГЕМОТИКОВ МОЖНО! Войти !bnw Сегодня Клубы
УНЯНЯ. У нас есть немножечко инфы об этом пользователе. Мы знаем, что он понаписал, порекомендовал и даже и то и другое сразу. А ещё у нас есть RSS.
Теги: Клубы:

https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=804629#25 Actually, after some research and having run dozens of old kernel versions I came to the conclusion that this LVM/RAID1 shit NEVER WORKED PROPERLY. It's just unbelievable. This RAID1 feature was added to LVM2 in 2011. dm-raid1 support was added to the kernel in v3.1, around 2011 or 2012 too. I tried almost all the kernel versions since 3.1 and in most of them all I get at boot is some shit about "wrong ioctl" and "bad magic" instead of activated volume. Which volume, mind you, was created just fine in the same kernel version, and it even works -- until reboot! SO IN FIVE FUCKING YEARS THIS SHIT NEVER WORKED AND NOBODY GIVE A FUCK ABOUT IT! So much for all that fucking "bazaar" and shit! It happened to work only due to the bug introduced somewhere in 4.0, which, by unfortunate coincidence, was exactly when some poor fuckers like me choose to convert some of their LVM volumes to RAID1. And it worked somehow, but then - oops! - the bug was fixed! Sorry, I just frustrated as fuck. I can't believe it. "Linux is reliable", they said. "All bugs are shallow", they said... Five years to test. FIVE FUCKING YEARS!
#0789NH (7) / @stiletto / 3273 дня назад
Святый боженька, дай здоровья прыщепидорам изобретшим LVM, btrfs и ext[234] У меня в домашнем сервере был 1 Тб диск и 500 Гб диск, на которых была LVM VG. Захотелось сделать НАДЁЖНО и добавить второй 1 Тб диск, сделав из этих дисков зеркало, чтобы LVM-PV был на зеркале, а на 500 Гб винте оставить неважные разделы. Я воткнул в систему винт, создал на нем RAID1 без одной половинки, на нем создал PV, добавил в VG. Сделал pvmove разделов старого терабайтника на этот RAID. vgreduce-нул группу со старого винта, pvremove-нул старый винт. Создал вторую половину RAID1 на старом винте, успешно, RAID начал синхронизироваться. И тут у меня пошел по пизде контроллер (внешний) или SATA-кабель, не важно. Ребут, передергивание контроллера и кабелей. И вот я сижу с двумя винтами, на разделы которых file -s говорит "data". Счастье моё заключалось в том, что корень был двухтомным btrfs с raid1 на оба старых винта. Подключаю VG в degraded, монтирую btrfs с третьего винта в degraded, достаю оттуда /etc/lvm/archive, делаю pvcreate с --uuid и конфигом "до pvmove", восстанавливаю конфиг VG, подключаю её. Делаю e2fsck на разделы. Один слегка поврежден синхронизацией RAID1. Проебаны ПАРА ДЕСЯТКОВ ФАЙЛОВ. ЕБАНАЯ ПАРА ДЕСЯТКОВ ФАЙЛОВ ПОСЛЕ КОРРАПТА PV и RAID1 ВО ВЕСЬ ДИСК Боженька, если ты есть, пошли к лвмоблядкам лучших шлюх и обеспечь им космический минет с божественным причмком, аминь.
#OMXE6T (10+2) / @stiletto / 3408 дней назад

Легкая наркомания: захотел сделать копию корня перед перепрошивкой ссдшки.
ДОБАВЛЯЕМ LV КОРНЯ МИРРОР НА PV НА НЖМД
ЖДЕМ ЗАВЕРШЕНИЯ СИНХРОНИЗАЦИИ
ДЕЛАЕМ СПЛИТМИРРОР
ПОЛУЧАЕМ КОПИЮ РАЗДЕЛА С ССД НА ВИНТЕ

Попутно обнаружил, что fstrim скастованный на дм-миррор вызывает NMI.

#NKBEWB (2) / @stiletto / 4023 дня назад
Псны, у меня какая-то прыщемагия происходит. При чтении с LVM и mdraid устройств не работает дисковый буфер. Вообще. Достаточно актуальный рачлинуск, 3.4.7-1 ведро dd if=/dev/vg0/oldsec of=/dev/null bs=64M count=2 всегда выдает скорость чтения диска dd if=/dev/sdc of=/dev/null bs=64M count=2 в то же время успешно достает данные из буфера начиная со второго чтения. Пиная прыщеядро при помощи blktrace заметил, что ПРИ РАБОТАЮЩЕМ ТРЕЙСЕ БУФЕР БЛЯТЬ РАБОТАЕТ. Потрейсил blktrace при помощи strace чтобы узнать что же оно такое делает. В общем минимальный набор внешнего воздействия, который заставляет этот Гейзенбаг спрятаться, я вычленил в этот исходник: https://gist.github.com/3335416 т.е. мы просто открываем устройство логического тома lvm с этими опциями и держим открытым. DAFUQ?!
#MSP0X6 (0) / @stiletto / 4517 дней назад
ipv6 ready BnW для ведрофона BnW на Реформале Викивач Котятки

Цоперайт © 2010-2016 @stiletto.