home.social

#h100 — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #h100, aggregated by home.social.

  1. Мы уткнулись в потолок. Почему видеокарты перестали быстро расти — и что с этим делать

    H100 стоит $30 000 и потребляет 700 Вт. RTX 5090 — $2 000 (де-факто больше) и 575 Вт. Прирост производительности между поколениями сжался с 80% до 15–20%. Разбираемся, почему это структурная проблема и что индустрия делает, чтобы с ней жить.

    habr.com/ru/articles/1031370/

    #GPU #NVIDIA #закон_Мура #HBM #AI_инфраструктура #чиплеты #архитектура_GPU #LLM #H100 #Blackwell

  2. Мы уткнулись в потолок. Почему видеокарты перестали быстро расти — и что с этим делать

    H100 стоит $30 000 и потребляет 700 Вт. RTX 5090 — $2 000 (де-факто больше) и 575 Вт. Прирост производительности между поколениями сжался с 80% до 15–20%. Разбираемся, почему это структурная проблема и что индустрия делает, чтобы с ней жить.

    habr.com/ru/articles/1031370/

    #GPU #NVIDIA #закон_Мура #HBM #AI_инфраструктура #чиплеты #архитектура_GPU #LLM #H100 #Blackwell

  3. Мы уткнулись в потолок. Почему видеокарты перестали быстро расти — и что с этим делать

    H100 стоит $30 000 и потребляет 700 Вт. RTX 5090 — $2 000 (де-факто больше) и 575 Вт. Прирост производительности между поколениями сжался с 80% до 15–20%. Разбираемся, почему это структурная проблема и что индустрия делает, чтобы с ней жить.

    habr.com/ru/articles/1031370/

    #GPU #NVIDIA #закон_Мура #HBM #AI_инфраструктура #чиплеты #архитектура_GPU #LLM #H100 #Blackwell

  4. Мы уткнулись в потолок. Почему видеокарты перестали быстро расти — и что с этим делать

    H100 стоит $30 000 и потребляет 700 Вт. RTX 5090 — $2 000 (де-факто больше) и 575 Вт. Прирост производительности между поколениями сжался с 80% до 15–20%. Разбираемся, почему это структурная проблема и что индустрия делает, чтобы с ней жить.

    habr.com/ru/articles/1031370/

    #GPU #NVIDIA #закон_Мура #HBM #AI_инфраструктура #чиплеты #архитектура_GPU #LLM #H100 #Blackwell

  5. The introduction of the Vera Rubin platform shifts the calculus for AI infrastructure planning. While H100 and Blackwell GPUs remain key workhorses, secondary-market demand for current-gen accelerators has reached a unique inflection point. This analysis explores the technical and financial variables influencing hardware transitions as the industry prepares for the Rubin wave.

    buysellram.com/blog/the-post-g

    #NVIDIA #TechStrategy #DataCenter #GPU #GraphicsCard #GPULiquidation #H100 #H200 #technology

  6. As the AI arms race accelerates, the 18-month hardware refresh cycle has transformed GPUs from simple components into high-value infrastructure assets. This article explores why selling hundreds of units—like NVIDIA’s H100 or A100—requires a shift from "peer-to-peer" thinking to "Enterprise ITAD" strategy.

    medium.com/@samlamucf/where-to

    #DataCenter #ITAD #GPU #EnterpriseTech #NVIDIA #TechStrategy #BuySellRam #CircularEconomy #AI #H100 #Blackwell #GPU #TechNews #EnterpriseAI #AssetRecovery

  7. NVIDIA GPU Cluster Liquidation: Maximize ROI and Asset Recovery
    The shift to Blackwell is accelerating the depreciation of NVIDIA A100, H100, and H200 clusters. What were recently frontier training assets are now facing mid-life value cliffs due to performance-per-watt gaps, power density limits, and liquid-cooling requirements.

    This turns GPU cluster liquidation into a capital strategy, not just decommissioning. Timing the secondary market, preserving service records to capture refurbished premiums, and enforcing IEEE 2883 data sanitization are key to maximizing ROI and funding next-generation deployments.

    In compressed AI refresh cycles, asset recovery speed directly impacts infrastructure competitiveness.

    buysellram.com/blog/nvidia-a10

    #GPU #AIInfrastructure #DataCenter #AssetRecovery #H100 #A100 #H200 #Blackwell #ITAD #AIHardware #GraphicsCard #VideoCard #HPC #tech

  8. The shift to Blackwell is accelerating the depreciation of NVIDIA A100, H100, and H200 clusters. What were recently frontier training assets are now facing mid-life value cliffs due to performance-per-watt gaps, power density limits, and liquid-cooling requirements. This turns GPU cluster liquidation into a capital strategy....

    buysellram.com/blog/nvidia-a10

    #GPU #AIInfrastructure #DataCenter #AssetRecovery #H100 #A100 #H200 #Blackwell #ITAD #AIHardware #GraphicsCard #VideoCard #HPC #technology

  9. Как мы готовили Kubernetes под ML-нагрузки: пошаговый гайд (и что пошло не так)

    Привет! Я Дмитрий, инженер и руководитель направления MLOps в Совкомбанке. Специализируюсь на разработке и эксплуатации ML-платформ на базе Kubernetes и GPU. С 2010 года в ИТ: строю инфраструктуру для машинного обучения, внедряю Kubeflow и GPU-оператор, настраиваю MIG на H100 в корпоративных средах с повышенными требованиями к безопасности и надежности. В последние годы фокусируюсь на оптимизации ML-пайплайнов, повышении утилизации GPU (включая MIG-профили) и интеграции MLOps-практик в процессы продуктовых команд. В 2022 году в некоторых командах разработки уже существовали проекты с применением ИИ, но как отдельные компоненты, не хватало единой платформы управления. По мере роста количества и сложности бизнес-задач возникла необходимость в создании ML-платформы как сервиса с едиными стандартами авторизации. Мы изучили доступные инструменты, попытались объединить их в одном Kubernetes-кластере, столкнулись с рядом ограничений — и в итоге пришли к архитектуре на базе Kubeflow и GPU-оператора. В статье рассказываем, какие сложности были в ходе проекта, как выстроили работу с Kubeflow, настраивали H100 с MIG-разделением и что важно учесть, если вы планируете строить ML-платформу на bare-metal-GPU в корпоративной среде.

    habr.com/ru/companies/sovcomba

    #MLOps #DevOps #Kubernetes #Kubeflow #GPU #NVIDIA #H100 #MIG #baremetal #GPUоператор

  10. Тестируем B200 от NVIDIA: живые бенчмарки с GLM-4.7

    Если вы занимаетесь обучением или тюнингом больших языковых моделей, используете инференс в режиме реального времени или выполняете сложные HPC-симуляции, то наверняка задавались вопросом: «а каково это будет на одном из лучших в мире чипов»? Как только мы получили B200, графический процессор, который по заявлениям производителя открывает новые грани производительности, гибкости и масштабируемости, то сразу побежали его тестировать. Сегодня я и мои коллеги из

    habr.com/ru/companies/cloud_ru

    #b200 #hgx #a100 #h100 #h200 #dgx #ml #glm47

  11. Ein #Schnäppchen der besonderen Art: Ein Software-Entwickler hat einen #KI-Server mit zwei #Nvidia #H100 GPUs und knapp einem Terabyte #RAM im Wert von 70.000 Euro für einen lächerlichen Preis ergattert. winfuture.de/news,155567.html?

  12. #Nvidia backed startup #Starcloud trained an #AImodel in #space for the first time, using a #satellite equipped with an Nvidia #H100 #GPU. This achievement demonstrates the potential of #orbitaldatacentres to alleviate Earth’s digital infrastructure crisis by utilising #solarenergy and offering lower #energycosts. cnbc.com/2025/12/10/nvidia-bac #tech #media #news

  13. #Nvidia backed startup #Starcloud trained an #AImodel in #space for the first time, using a #satellite equipped with an Nvidia #H100 #GPU. This achievement demonstrates the potential of #orbitaldatacentres to alleviate Earth’s digital infrastructure crisis by utilising #solarenergy and offering lower #energycosts. cnbc.com/2025/12/10/nvidia-bac #tech #media #news

  14. #Nvidia backed startup #Starcloud trained an #AImodel in #space for the first time, using a #satellite equipped with an Nvidia #H100 #GPU. This achievement demonstrates the potential of #orbitaldatacentres to alleviate Earth’s digital infrastructure crisis by utilising #solarenergy and offering lower #energycosts. cnbc.com/2025/12/10/nvidia-bac #tech #media #news

  15. #Nvidia backed startup #Starcloud trained an #AImodel in #space for the first time, using a #satellite equipped with an Nvidia #H100 #GPU. This achievement demonstrates the potential of #orbitaldatacentres to alleviate Earth’s digital infrastructure crisis by utilising #solarenergy and offering lower #energycosts. cnbc.com/2025/12/10/nvidia-bac #tech #media #news

  16. #Nvidia backed startup #Starcloud trained an #AImodel in #space for the first time, using a #satellite equipped with an Nvidia #H100 #GPU. This achievement demonstrates the potential of #orbitaldatacentres to alleviate Earth’s digital infrastructure crisis by utilising #solarenergy and offering lower #energycosts. cnbc.com/2025/12/10/nvidia-bac #tech #media #news

  17. Departament Sprawiedliwości USA ujawnia kulisy przemytu układów Nvidia. W tle superkomputery i broń masowego rażenia

    Biuro Spraw Publicznych Departamentu Sprawiedliwości USA poinformowało o rozbiciu zorganizowanej grupy przestępczej zajmującej się nielegalnym eksportem zaawansowanych technologii AI do Chin.

    W sprawę zamieszanych jest dwóch obywateli USA oraz dwóch obywateli Chin. Akt oskarżenia, ujawniony 20 listopada 2025 roku, rzuca nowe światło na determinację, z jaką Państwo Środka dąży do pozyskania amerykańskich procesorów, niezbędnych do modernizacji armii.

    Wśród aresztowanych znajdują się Hon Ning Ho (34 l.) i Jing Chen (45 l.) zatrzymani na Florydzie, Brian Curtis Raymond (46 l.), CTO firmy zajmującej się technologiami Cloud AI, aresztowany w Alabamie oraz Cham Li (38 l.) ujęty w Kalifornii. Prokuratura zarzuca im spisek, przemyt oraz pranie brudnych pieniędzy, za co grożą wyroki sięgające 20 lat pozbawienia wolności za poszczególne zarzuty.

    Chiny oskarżają USA o cyberatak. Celem miało być Narodowe Centrum Czasu

    Nieruchomości jako przykrywka dla superkomputerów

    Śledczy ujawnili mechanizm działania grupy, który funkcjonował od września 2023 do listopada 2025 roku. Spiskowcy wykorzystywali firmę „Janford Realtor, LLC” z siedzibą w Tampie na Florydzie. Choć nazwa sugerowała działalność na rynku nieruchomości, spółka nigdy nie przeprowadziła żadnej transakcji tego typu. Służyła wyłącznie jako słup do zakupu kontrolowanych technologii, które następnie – z fałszywą dokumentacją – trafiały do Chin drogą okrężną przez Malezję i Tajlandię.

    Skala procederu była znacząca. Grupie udało się skutecznie wywieźć 400 układów graficznych Nvidia A100 w dwóch transportach między październikiem 2024 a styczniem 2025 roku.

    Udaremniony przemyt najnowszych technologii

    Najciekawszy jest jednak wątek trzeciego i czwartego transportu, które zostały przejęte przez organy ścigania. Przemytnicy próbowali wywieźć 10 superkomputerów Hewlett Packard Enterprise wyposażonych w układy Nvidia H100, a także – co szczególnie istotne – 50 sztuk najnowszych procesorów graficznych Nvidia H200.

    To sprzęt o krytycznym znaczeniu strategicznym. Jak wskazuje akt oskarżenia, Chiny dążą do osiągnięcia pozycji światowego lidera AI do 2030 roku, a pozyskane technologie miały wspierać modernizację wojska, projektowanie i testowanie broni masowego rażenia oraz rozwój zaawansowanych narzędzi inwigilacji.

    Miliony dolarów w przelewach

    Departament Sprawiedliwości ujawnił również przepływy finansowe. Oskarżeni otrzymali z Chin przelewy na łączną kwotę ponad 3,89 miliona dolarów na sfinansowanie tego procederu. Brian Curtis Raymond, wykorzystując swoją firmę elektroniczną w Alabamie, pełnił rolę dostawcy sprzętu dla Ho i pozostałych członków grupy.

    Władze USA zapowiedziały dążenie do przepadku mienia, w tym przejętych 50 układów Nvidia H200. Sprawę prowadzi wydział Homeland Security Investigations we współpracy z Defense Criminal Investigative Service oraz Biurem Przemysłu i Bezpieczeństwa Departamentu Handlu.

    Wielka rywalizacja o AI. Chiny inwestują miliardy i omijają sankcje, by uniezależnić się od USA

    #a100 #aiSi #chiny #departamentSprawiedliwosci #h100 #h200 #news #nvidia #przemyt #przestepczosc #sankcje #usa

  18. Cztery osoby oskarżone o przemyt superkomputerów i chipów Nvidia do Chin

    Sprawa jest o tyle ciekawa, że pokazuje, iż rzekomy przełom w produkcji rodzimych czipów AI w Chinach jest bardziej faktem propagandowym niż rzeczywistością. Chińskie firmy są wciąż uzależnione od amerykańskich technologii, ale ten stan rzeczy nie musi trwać wiecznie.

    wp.me/p3fv0T-hRb #USA #Chiny #ChRL #przemyt #czipy #Nvidia #AI #H100 #H200 #A100 #superkomputer #POLECANE

  19. Дата-центры в космосе: гигантские радиаторы вместо кондиционера

    Nvidia помогает стартапу Starcloud запустить H100 на орбиту. SpaceX отправит спутник с GPU в ноябре — первый раз в истории дата-центр полетит над антеннами и проводами.

    habr.com/ru/articles/960264/

    #starcloud #nvidia #spacex #дженсен_хуанг #h100 #илон_маск #космос #орбита

  20. Играемся с видеокартой Tesla H100 (GH100)

    Продолжаем статьи про практические тесты актуальных картонок от Nvidia ( RTX 5090 , A5000 Ada , A100 , 3090 и A10 ). В этот раз мне уже предложили покрутить на несколько часиков H100 с 80 GB VRAM. Тренировать опять ничего не будем, снимем попугаев через gpu-burn , попробуем MIG (multi-instance GPU) и также замерим инференс одной нашей прожорливой сетки. С A100 и MIG мне как-то тоже пришлось поиграться, но я не думал, что в России в принципе когда-либо появятся H100. Поэтому в этот раз главная шутка будет про санкции и про сумочку , сделанную из H100. Также пару слов расскажем про "фишку" MIG, доступную для самых толстых карт в линейках NVIDIA (из "доступных" в основном A100 и H100, но есть и экзотика). В конце даже получилась небольшая детективная история. Поехали

    habr.com/ru/articles/945290/

    #nvidia #H100 #hopper #deep_learning #машинное_обучение #видеокарта #nvidia_tesla #nvidia_tesla_h100

  21. Sizing up #MI300A’s #GPU
    It’s well ahead of #Nvidia’s #H100 PCIe for just about every major category of 32- or 64-bit operations. MI300A can achieve 113.2 TFLOPS of #FP32 throughput, with each FMA counting as two floating point operations. For comparison, H100 PCIe achieved 49.3 TFLOPS in same test.
    #AMD cut down #MI300X’s GPU to create MI300A. 24 #Zen4 cores is a lot of #CPU power, and occupies one quadrant on the MI300 chip. But MI300’s main attraction is still the GPU.
    chipsandcheese.com/p/sizing-up

  22. The 4x #Nvidia #H100 SXM5 server in the new Festus cluster at Uni Bayreuth is the fastest system I've ever tested in #FluidX3D #CFD, achieving 78 GLUPs/s #LBM performance at ~1650W #GPU power draw. 🖖😋🖥️🔥
    github.com/ProjectPhysX/FluidX
    hpc.uni-bayreuth.de/clusters/f

  23. #Huawei #HiSilicon #Ascend 910C is a version of the company's Ascend 910 processor for #AI training introduced in 2019. By now, the performance of the Ascend 910 is barely sufficient for the cost-efficient training of large AI models. Still, when it comes to inference, it delivers 60% of #Nvidia #H100 performance, according to researchers from #DeepSeek While the Ascend 910C is not a performance champion, it can succeed in reducing China's reliance on Nvidia #GPU's tomshardware.com/tech-industry

  24. Okay, loosing my mind here a bit. I just tested #OpenGL rendering under Linux on an #NVIDIA #H100 GPU, through #VirtualGL's #EGL backend.

    And it worked... Renderer "NVIDIA H100/PCIe/SSE2", driver 555.42.06

    I always understood the H100s to be incapable of OpenGL. But it seems I missed a crucial part in the H100 architecture doc (resources.nvidia.com/en-us-ten), shown in the image.

    Except, I'm sure I tested OpenGL at some point under X, but it didn't work. So, did anything change (e.g. driver)?

  25. Intel Gaudi — гонка ИИ-ускорителей

    Привет Хабр! С вами снова ServerFlow и мы хотим поговорить о насущном – о ИИ с нейросетями, а точнее о железе на котором нейросети обучают и на котором впоследствии они работают. В последние годы эта индустрия напоминает арену бойцовского клуба, где технологические гиганты с ожесточенной конкуренцией стремятся предложить наиболее производительные и эффективные решения для машинного обучения. И хотя не особо похоже, чтобы у кого-то на этой арене получилось сместить лидера рынка в лице NVIDIA, однако, попытки продолжают предприниматься. Так продолжает и Intel, представив свету свою серию ИИ-ускорителей под брендом Gaudi, а не так давно и обновленную модель Gaudi 3. Ранее Intel предпринимала попытки в собственные разработки ИИ ускорителей, но в этот раз за работу взялась компания Habana Labs, приобретённая Intel в 2019 году за внушительную сумму в 2 миллиарда долларов.

    habr.com/ru/companies/serverfl

    #npu #Intel #Gaudi #nvidia #h100 #ии #нейросети #gpu #b200 #FP8

  26. 👉 Samsung svela Mach-1, il suo primo chip acceleratore AI per l’inferenza
    Con Mach-1, Samsung entra nel mercato degli acceleratori IA per l'inferenza, puntando alle applicazioni edge computing.

    gomoot.com/samsung-svela-mach-

    #AGI #AI #gpu #H100 #H200 #HBMe #ia #LLM #mach1 #nvidia #Samsung

  27. #AMD Has a #GPU to Rival #Nvidia’s #H100
    #MI300X is a GPU-only version of previously announced #MI300A supercomputing chip, which includes a #CPU and #GPU. The MI300A will be in El Capitan, a supercomputer coming next year to the #LosAlamos #NationalLaboratory. El Capitan is expected to surpass 2 exaflops of performance. The MI300X has 192GB of #HBM3, which Su said was 2.4 times more memory density than Nvidia’s H100. The SXM and PCIe versions of H100 have 80GB of HBM3.
    hpcwire.com/2023/06/13/amd-has

  28. #AMD Has a #GPU to Rival #Nvidia’s #H100
    #MI300X is a GPU-only version of previously announced #MI300A supercomputing chip, which includes a #CPU and #GPU. The MI300A will be in El Capitan, a supercomputer coming next year to the #LosAlamos #NationalLaboratory. El Capitan is expected to surpass 2 exaflops of performance. The MI300X has 192GB of #HBM3, which Su said was 2.4 times more memory density than Nvidia’s H100. The SXM and PCIe versions of H100 have 80GB of HBM3.
    hpcwire.com/2023/06/13/amd-has

  29. Has a to Rival ’s
    is a GPU-only version of previously announced supercomputing chip, which includes a and . The MI300A will be in El Capitan, a supercomputer coming next year to the . El Capitan is expected to surpass 2 exaflops of performance. The MI300X has 192GB of , which Su said was 2.4 times more memory density than Nvidia’s H100. The SXM and PCIe versions of H100 have 80GB of HBM3.
    hpcwire.com/2023/06/13/amd-has

  30. #AMD Has a #GPU to Rival #Nvidia’s #H100
    #MI300X is a GPU-only version of previously announced #MI300A supercomputing chip, which includes a #CPU and #GPU. The MI300A will be in El Capitan, a supercomputer coming next year to the #LosAlamos #NationalLaboratory. El Capitan is expected to surpass 2 exaflops of performance. The MI300X has 192GB of #HBM3, which Su said was 2.4 times more memory density than Nvidia’s H100. The SXM and PCIe versions of H100 have 80GB of HBM3.
    hpcwire.com/2023/06/13/amd-has

  31. #AMD Has a #GPU to Rival #Nvidia’s #H100
    #MI300X is a GPU-only version of previously announced #MI300A supercomputing chip, which includes a #CPU and #GPU. The MI300A will be in El Capitan, a supercomputer coming next year to the #LosAlamos #NationalLaboratory. El Capitan is expected to surpass 2 exaflops of performance. The MI300X has 192GB of #HBM3, which Su said was 2.4 times more memory density than Nvidia’s H100. The SXM and PCIe versions of H100 have 80GB of HBM3.
    hpcwire.com/2023/06/13/amd-has

  32. #AMD Instinct#MI300 is THE Chance to Chip into #NVIDIA #AI Share
    NVIDIA is facing very long lead times for its #H100 and #A100, if you want NVIDIA for AI and have not ordered don't expect it before 2024. For a traditional #GPU, MI300 is GPU-only part. All four center tiles are GPU. With 192GB #HBM, & can simply fit more onto a single GPU than NVIDIA. #MI300A has 24 #Zen4, #CDNA3 GPU cores, and 128GB #HBM3. This is CPU deployed in the El Capitan 2+ Exaflop #supercomputer.
    servethehome.com/amd-instinct-

  33. #AMD Instinct#MI300 is THE Chance to Chip into #NVIDIA #AI Share
    NVIDIA is facing very long lead times for its #H100 and #A100, if you want NVIDIA for AI and have not ordered don't expect it before 2024. For a traditional #GPU, MI300 is GPU-only part. All four center tiles are GPU. With 192GB #HBM, & can simply fit more onto a single GPU than NVIDIA. #MI300A has 24 #Zen4, #CDNA3 GPU cores, and 128GB #HBM3. This is CPU deployed in the El Capitan 2+ Exaflop #supercomputer.
    servethehome.com/amd-instinct-

  34. Instinct#MI300 is THE Chance to Chip into Share
    NVIDIA is facing very long lead times for its and , if you want NVIDIA for AI and have not ordered don't expect it before 2024. For a traditional , MI300 is GPU-only part. All four center tiles are GPU. With 192GB , & can simply fit more onto a single GPU than NVIDIA. has 24 , GPU cores, and 128GB . This is CPU deployed in the El Capitan 2+ Exaflop .
    servethehome.com/amd-instinct-

  35. #AMD Instinct#MI300 is THE Chance to Chip into #NVIDIA #AI Share
    NVIDIA is facing very long lead times for its #H100 and #A100, if you want NVIDIA for AI and have not ordered don't expect it before 2024. For a traditional #GPU, MI300 is GPU-only part. All four center tiles are GPU. With 192GB #HBM, & can simply fit more onto a single GPU than NVIDIA. #MI300A has 24 #Zen4, #CDNA3 GPU cores, and 128GB #HBM3. This is CPU deployed in the El Capitan 2+ Exaflop #supercomputer.
    servethehome.com/amd-instinct-

  36. #AMD Instinct#MI300 is THE Chance to Chip into #NVIDIA #AI Share
    NVIDIA is facing very long lead times for its #H100 and #A100, if you want NVIDIA for AI and have not ordered don't expect it before 2024. For a traditional #GPU, MI300 is GPU-only part. All four center tiles are GPU. With 192GB #HBM, & can simply fit more onto a single GPU than NVIDIA. #MI300A has 24 #Zen4, #CDNA3 GPU cores, and 128GB #HBM3. This is CPU deployed in the El Capitan 2+ Exaflop #supercomputer.
    servethehome.com/amd-instinct-