home.social

#nvme — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #nvme, aggregated by home.social.

  1. Linux accelera gli SSD NVMe con nuove patch sviluppate da Jens Axboe: benchmark iniziali mostrano fino al 60% di prestazioni I/O in più per core CPU. #Linux #NVMe #SSD #io_uring #OpenSource

    linuxeasy.org/linux-ssd-nvme-p

  2. NVME erasing: Various options for wiping an SSD. There's a neat crypto option by default that is nearly instant, but only some drives have it
    drivewipe.com/guides/nvme-secu
    #cryptography #security #linux #nvme #wipe #ssd #+

  3. Naty @eclecticpassions ·

    Weeknote 2026-W18 is cancelled due to illness, plus my Mac is also "sick" with memory corruption issues.

    View full note: burgeonlab.com/notes/2026/0507

    This is post 39 of

    📈 burgeonlab.com/tags/100daystoo

    Via getindiekit.com/

  4. Производительность софт NVMe рейдов на основе mdadm, LVM и ZFS при использовании iSER и NVMe-oF (100G version) — Part 2

    Продолжение первой части, смысл данной статьи сохраняется, а именно показать максимальную производительность, когда вопрос сохранности данных решается репликами или бэкапами. Цель - протестировать производительность трёх систем объединения физических устройств в одно логическое систем при использовании iSER и NVMe-oF. Так как статья получилась объёмная, она поделена на 2 части. В этой части - тесты с использованием HCIbench и iSER\NVMe-oF

    habr.com/ru/articles/1030300/

    #vmware #nvme #zfs #lvm #mdadm #nvmeof #iser

  5. Производительность софт NVMe рейдов на основе mdadm, LVM и ZFS при использовании iSER и NVMe-oF (100G version) — Part 1

    Смысл данной статьи показать максимальную производительность, когда вопрос сохранности данных решается репликами или бэкапами. Цель - протестировать производительность трёх систем объединения физических устройств в одно логическое систем при использовании iSER и NVMe-oF. Так как статья получилась объёмная, она поделена на 2 части, в первой идут тесты на уровне локального устройства + вступление. Во второй уже тесты с использованием HCIbench и iSER\NVMe-oF

    habr.com/ru/articles/895112/

    #vmware #nvme #zfs #lvm #mdadm #nvmeof #iser

  6. So I moved all LXCs to another #Proxmox node. The problematic drive’s usage has returned to normal, but another node where containers were moved is still fine.

    Looks like the issue is in a WD Green SSD on that node. It took 1429 hours to retire it.

    I'm running #diskscan on it right now. Have no idea why, because I still will replace it with a spare NVMe drive I have.

    #homelab #Proxmox #sdd #nvme #drive

  7. Почему мы полностью отказались от HDD

    В индустрии есть устоявшееся мнение, что HDD — это устаревающая технология. Это с одной стороны. С другой стороны, много у кого написано «Медленные SSD», а по факту при тестах они начинают показывать характерные скорости HDD, характерные бутылочные горлышки HDD и вообще ведут себя как жёсткие диски. У нас тоже есть тариф с HDD-хранилищем, но он довольно давно тариф с HDD-содержащим хранилищем, потому что уже пять-шесть лет (в зависимости от страны) мы закупаем SSD вместо HDD. Совсем скоро последние хрустящие диски уйдут из эксплуатации, и это будет тариф типа SSD с ограничением по скорости для совместимости с легаси-ценами. При этом мы используем HDD для долговременного хранения.

    habr.com/ru/companies/ruvds/ar

    #ruvds_статьи #HDD #SSD #nvme #docker #kubernetes #хранение_данных #бэкапы

  8. Never buy #ADATA / #XPG products. They suffer from #componentlottery issues, meaning they will switch components mid production if something cheaper or more convenient comes up. When your #NVMe #SSD eventually breaks down, the replacement under #warranty process is a fucking nightmare.

    To compare, my NAS is using #Toshiba HDDs, and when one of them died, I quickly filed a replacement request with Toshiba, giving them the serial number of the disk and some SMART diagnostics. A shipping label was issued, and the thing was sent. Replacement arrived some weeks later.

    ADATA on the other hand requires a tedious registration process, actual proof of purchase and payment for shipping to #Taiwan. This process ends abruptly, since I can't seem to find any proof of purchase anywhere. In short, the remaining 3 years warranty is fucking useless, because I forgot where I bought it.

    Fuck you, ADATA.

    Never buying your shit again.

    PS: Backup, people. It's a thing.

    #siliconlottery

  9. [Перевод] Как ускорить создание реплики PostgreSQL: pgBackRest вместо pg_basebackup

    Создать реплику PostgreSQL на базе в 1 TiB — задача, где быстро выясняется, что NVMe и сеть в 75 Гбит/с сами по себе ничего не гарантируют: упираешься в инструмент, который копирует данные в один поток. В статье разбираемся, как обойти этот потолок с помощью pgBackRest и параллельной передачи, какие настройки реально влияют на скорость, где легко потерять порядок величины на «мелочи» вроде хранилища под spool, и почему в PostgreSQL 18 внезапно стало лучше — но недостаточно. Открыть статью

    habr.com/ru/companies/otus/art

    #postgresql #создание_реплики #pgBackRest #резервное_копирование #производительность_копирования #SSH #пропускная_способность_сети #NVMe

  10. One of the #MSTDNDK nodes is currently experiencing issues with an #NVMe disk that started reporting #SMART errors. It's still up, and we're talking to #Hetzner support about scheduling a replacement. Once we've agreed on a plan moving forward, the node will be taken down and hardware will be replaced. Hopefully you won't feel a thing.

  11. NVIDIA’s Inference Context Memory Storage Platform, announced at CES 2026, marks a major shift in how AI inference is architected. Instead of forcing massive KV caches into limited GPU HBM, NVIDIA formalizes a hierarchical memory model that spans GPU HBM, CPU memory, cluster-level shared context, and persistent NVMe SSD storage.

    This enables longer-context and multi-agent inference by keeping the most active KV data in HBM while offloading less frequently used context to NVMe—expanding capacity without sacrificing performance. This shift also has implications for AI infrastructure procurement and the secondary GPU/DRAM market, as demand moves toward higher bandwidth memory and context-centric architectures.

    buysellram.com/blog/nvidia-unv

    #NVIDIA #Rubin #AI #Inference #LLM #AIInfrastructure #MemoryHierarchy #HBM #NVMe #DPU #BlueField4 #AIHardware #GPU #DRAM #KVCache #LongContextAI #DataCenter #AIStorage #AICompute #AIEcosystem #tech

  12. NVIDIA’s Inference Context Memory Storage Platform, announced at CES 2026, marks a major shift in how AI inference is architected. Instead of forcing massive KV caches into limited GPU HBM, NVIDIA formalizes a hierarchical memory model that spans GPU HBM, CPU memory, cluster-level shared context, and persistent NVMe SSD storage.

    This enables longer-context and multi-agent inference by keeping the most active KV data in HBM while offloading less frequently used context to NVMe—expanding capacity without sacrificing performance. This shift also has implications for AI infrastructure procurement and the secondary GPU/DRAM market, as demand moves toward higher bandwidth memory and context-centric architectures.

    buysellram.com/blog/nvidia-unv

    #NVIDIA #Rubin #AI #Inference #LLM #AIInfrastructure #MemoryHierarchy #HBM #NVMe #DPU #BlueField4 #AIHardware #GPU #DRAM #KVCache #LongContextAI #DataCenter #AIStorage #AICompute #AIEcosystem #tech

  13. NVIDIA’s Inference Context Memory Storage Platform, announced at CES 2026, marks a major shift in how AI inference is architected. Instead of forcing massive KV caches into limited GPU HBM, NVIDIA formalizes a hierarchical memory model that spans GPU HBM, CPU memory, cluster-level shared context, and persistent NVMe SSD storage.

    This enables longer-context and multi-agent inference by keeping the most active KV data in HBM while offloading less frequently used context to NVMe—expanding capacity without sacrificing performance. This shift also has implications for AI infrastructure procurement and the secondary GPU/DRAM market, as demand moves toward higher bandwidth memory and context-centric architectures.

    buysellram.com/blog/nvidia-unv

    #NVIDIA #Rubin #AI #Inference #LLM #AIInfrastructure #MemoryHierarchy #HBM #NVMe #DPU #BlueField4 #AIHardware #GPU #DRAM #KVCache #LongContextAI #DataCenter #AIStorage #AICompute #AIEcosystem #tech

  14. NVIDIA’s Inference Context Memory Storage Platform, announced at CES 2026, marks a major shift in how AI inference is architected. Instead of forcing massive KV caches into limited GPU HBM, NVIDIA formalizes a hierarchical memory model that spans GPU HBM, CPU memory, cluster-level shared context, and persistent NVMe SSD storage.

    This enables longer-context and multi-agent inference by keeping the most active KV data in HBM while offloading less frequently used context to NVMe—expanding capacity without sacrificing performance. This shift also has implications for AI infrastructure procurement and the secondary GPU/DRAM market, as demand moves toward higher bandwidth memory and context-centric architectures.

    buysellram.com/blog/nvidia-unv

    #NVIDIA #Rubin #AI #Inference #LLM #AIInfrastructure #MemoryHierarchy #HBM #NVMe #DPU #BlueField4 #AIHardware #GPU #DRAM #KVCache #LongContextAI #DataCenter #AIStorage #AICompute #AIEcosystem #tech

  15. NVIDIA’s Inference Context Memory Storage Platform, announced at CES 2026, marks a major shift in how AI inference is architected. Instead of forcing massive KV caches into limited GPU HBM, NVIDIA formalizes a hierarchical memory model that spans GPU HBM, CPU memory, cluster-level shared context, and persistent NVMe SSD storage.

    This enables longer-context and multi-agent inference by keeping the most active KV data in HBM while offloading less frequently used context to NVMe—expanding capacity without sacrificing performance. This shift also has implications for AI infrastructure procurement and the secondary GPU/DRAM market, as demand moves toward higher bandwidth memory and context-centric architectures.

    buysellram.com/blog/nvidia-unv

  16. TerraMaster F8 SDD Plus: смотрим на китайский NAS с SSD-накопителями

    Несколько месяцев назад я обзавёлся довольно интересным сетевым хранилищем — F8 SSD Plus. Это решение от китайской компании TerraMaster. Интересно оно тем, что вместо привычных жёстких дисков в нём используют NVMe-накопители. Из плюсов пользователь получает высокую скорость чтения/записи. Минусы: относительно дорогие накопители, высокая цена самого устройства и вопросы к сроку жизни накопителей. В этой статье смотрим на F8 SSD Plus и его возможности.

    habr.com/ru/articles/942600/

    #nas #TerraMaster #Terra_Master #F8_SDD_Plus #nvme #ssd #сетевое_хранилище #гаджеты #железо #устройства

  17. Crazy stuff. 1TB #NVMe in #microSD size. This will reach higher capacities, thanks to #Nintendo. There needs to be a force pushing this stuff from behind. We would've still got stuck with the inferior Intel if Apple didn't go for ARM. Although it is annoying that most consumer SSDs are still capped at 8TB.

    #Switch2 #microSDEx #microSDExpress

  18. Some updates on the #OrangePi RV2:
    1) installed the #Gnome Ubuntu 24.04 iso

    2) Moved the boot drive from micro SD to #NVME

    3) Installed #XFCE and #LXDE

    4) Was able to switch LXDE over to the labwc #Wayland compositor

    5) Played around with a few #Mastodon/ #Fediverse apps to little success