Хочу ноучное исследование, суть такова: наркоманы гоняют жесткие диски в разных режимах (always on, hdparm -B 1, включая-выключая, вот это все) и смотрят, какие из них быстрее загибаются.
Хочу ноучное исследование, суть такова: наркоманы гоняют свои тушки в разных режимах (дудка, спиды, хмурый, марафоны, вот это все) и смотрят, какие из них быстрее загибаются.
@anonymous Хочу ноучное исследование, суть такова: раки гоняют свои мозги в разных режимах (хуйк, поинт, бнв, вк, тиреч, вот это все) и смотрят, какие из них быстрее загибаются.
@komar WD штоле купил, лолка?
Засыпания ограничены сотнями тысяч, в остальном ортогонально вроде. Так что если у тебя не WD с дефолтными 8ю секундами (и игнором hdparm -B), то лет на десять парковок хватит; иначе - на полгода.
@l29ah Ну я же говорю что скорее всего даже у амазона где написано что бекап с ледника достаётся 6 часов тоже харды. Просто потому что прогресс достаточно быстрый.
@anonymous Неа, и я не представляю чо у него там, роботы или таджики, и не ебу как это считать.
У них скорость записи такая же как и чтения, схуя бы ей быть разной?
@komar Охуел штоле забесплатно руби+окамль писать? Хуле ты там рынок шатаешь. Сегодня окамль забесплатно - завтра формально верифицированные протоколы на хаскеле за миску риса. Один жс-скам останется же.
@l29ah “They’ve optimized for low-power, low-speed, which will lead to increased cost savings due to both energy savings and increased drive life. I’m not sure how much detail I can go into, but I will say that they’ve contracted a major hardware manufacturer to create custom low-RPM (and therefore low-power) hard drives that can programmatically be spun down. These custom HDs are put in custom racks with custom logic boards all designed to be very low-power. The upper limit of how much I/O they can perform is surprisingly low – only so many drives can be spun up to full speed on a given rack. I’m not sure how they stripe their data, so the perceived throughput may be higher based on parallel retrievals across racks, but if they’re using the same erasure coding strategy that S3 uses, and writing those fragments sequentially, it doesn’t matter – you’ll still have to wait for the last usable fragment to be read.”