#h100 — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #h100, aggregated by home.social.
-
Мы уткнулись в потолок. Почему видеокарты перестали быстро расти — и что с этим делать
H100 стоит $30 000 и потребляет 700 Вт. RTX 5090 — $2 000 (де-факто больше) и 575 Вт. Прирост производительности между поколениями сжался с 80% до 15–20%. Разбираемся, почему это структурная проблема и что индустрия делает, чтобы с ней жить.
https://habr.com/ru/articles/1031370/
#GPU #NVIDIA #закон_Мура #HBM #AI_инфраструктура #чиплеты #архитектура_GPU #LLM #H100 #Blackwell
-
Мы уткнулись в потолок. Почему видеокарты перестали быстро расти — и что с этим делать
H100 стоит $30 000 и потребляет 700 Вт. RTX 5090 — $2 000 (де-факто больше) и 575 Вт. Прирост производительности между поколениями сжался с 80% до 15–20%. Разбираемся, почему это структурная проблема и что индустрия делает, чтобы с ней жить.
https://habr.com/ru/articles/1031370/
#GPU #NVIDIA #закон_Мура #HBM #AI_инфраструктура #чиплеты #архитектура_GPU #LLM #H100 #Blackwell
-
Мы уткнулись в потолок. Почему видеокарты перестали быстро расти — и что с этим делать
H100 стоит $30 000 и потребляет 700 Вт. RTX 5090 — $2 000 (де-факто больше) и 575 Вт. Прирост производительности между поколениями сжался с 80% до 15–20%. Разбираемся, почему это структурная проблема и что индустрия делает, чтобы с ней жить.
https://habr.com/ru/articles/1031370/
#GPU #NVIDIA #закон_Мура #HBM #AI_инфраструктура #чиплеты #архитектура_GPU #LLM #H100 #Blackwell
-
Мы уткнулись в потолок. Почему видеокарты перестали быстро расти — и что с этим делать
H100 стоит $30 000 и потребляет 700 Вт. RTX 5090 — $2 000 (де-факто больше) и 575 Вт. Прирост производительности между поколениями сжался с 80% до 15–20%. Разбираемся, почему это структурная проблема и что индустрия делает, чтобы с ней жить.
https://habr.com/ru/articles/1031370/
#GPU #NVIDIA #закон_Мура #HBM #AI_инфраструктура #чиплеты #архитектура_GPU #LLM #H100 #Blackwell
-
The introduction of the Vera Rubin platform shifts the calculus for AI infrastructure planning. While H100 and Blackwell GPUs remain key workhorses, secondary-market demand for current-gen accelerators has reached a unique inflection point. This analysis explores the technical and financial variables influencing hardware transitions as the industry prepares for the Rubin wave.
#NVIDIA #TechStrategy #DataCenter #GPU #GraphicsCard #GPULiquidation #H100 #H200 #technology
-
As the AI arms race accelerates, the 18-month hardware refresh cycle has transformed GPUs from simple components into high-value infrastructure assets. This article explores why selling hundreds of units—like NVIDIA’s H100 or A100—requires a shift from "peer-to-peer" thinking to "Enterprise ITAD" strategy.
#DataCenter #ITAD #GPU #EnterpriseTech #NVIDIA #TechStrategy #BuySellRam #CircularEconomy #AI #H100 #Blackwell #GPU #TechNews #EnterpriseAI #AssetRecovery
-
NVIDIA GPU Cluster Liquidation: Maximize ROI and Asset Recovery
The shift to Blackwell is accelerating the depreciation of NVIDIA A100, H100, and H200 clusters. What were recently frontier training assets are now facing mid-life value cliffs due to performance-per-watt gaps, power density limits, and liquid-cooling requirements.This turns GPU cluster liquidation into a capital strategy, not just decommissioning. Timing the secondary market, preserving service records to capture refurbished premiums, and enforcing IEEE 2883 data sanitization are key to maximizing ROI and funding next-generation deployments.
In compressed AI refresh cycles, asset recovery speed directly impacts infrastructure competitiveness.
#GPU #AIInfrastructure #DataCenter #AssetRecovery #H100 #A100 #H200 #Blackwell #ITAD #AIHardware #GraphicsCard #VideoCard #HPC #tech
-
The shift to Blackwell is accelerating the depreciation of NVIDIA A100, H100, and H200 clusters. What were recently frontier training assets are now facing mid-life value cliffs due to performance-per-watt gaps, power density limits, and liquid-cooling requirements. This turns GPU cluster liquidation into a capital strategy....
#GPU #AIInfrastructure #DataCenter #AssetRecovery #H100 #A100 #H200 #Blackwell #ITAD #AIHardware #GraphicsCard #VideoCard #HPC #technology
-
Как мы готовили Kubernetes под ML-нагрузки: пошаговый гайд (и что пошло не так)
Привет! Я Дмитрий, инженер и руководитель направления MLOps в Совкомбанке. Специализируюсь на разработке и эксплуатации ML-платформ на базе Kubernetes и GPU. С 2010 года в ИТ: строю инфраструктуру для машинного обучения, внедряю Kubeflow и GPU-оператор, настраиваю MIG на H100 в корпоративных средах с повышенными требованиями к безопасности и надежности. В последние годы фокусируюсь на оптимизации ML-пайплайнов, повышении утилизации GPU (включая MIG-профили) и интеграции MLOps-практик в процессы продуктовых команд. В 2022 году в некоторых командах разработки уже существовали проекты с применением ИИ, но как отдельные компоненты, не хватало единой платформы управления. По мере роста количества и сложности бизнес-задач возникла необходимость в создании ML-платформы как сервиса с едиными стандартами авторизации. Мы изучили доступные инструменты, попытались объединить их в одном Kubernetes-кластере, столкнулись с рядом ограничений — и в итоге пришли к архитектуре на базе Kubeflow и GPU-оператора. В статье рассказываем, какие сложности были в ходе проекта, как выстроили работу с Kubeflow, настраивали H100 с MIG-разделением и что важно учесть, если вы планируете строить ML-платформу на bare-metal-GPU в корпоративной среде.
https://habr.com/ru/companies/sovcombank_technologies/articles/994534/
#MLOps #DevOps #Kubernetes #Kubeflow #GPU #NVIDIA #H100 #MIG #baremetal #GPUоператор
-
Тестируем B200 от NVIDIA: живые бенчмарки с GLM-4.7
Если вы занимаетесь обучением или тюнингом больших языковых моделей, используете инференс в режиме реального времени или выполняете сложные HPC-симуляции, то наверняка задавались вопросом: «а каково это будет на одном из лучших в мире чипов»? Как только мы получили B200, графический процессор, который по заявлениям производителя открывает новые грани производительности, гибкости и масштабируемости, то сразу побежали его тестировать. Сегодня я и мои коллеги из
-
Challenge accepted 💪
Will talk about my Christmas holiday project NanoSchnack @ Cloud Native Heidelberg meetup, Feb 26.
GPT-2 the Hard Way. Building a LLM from scratch.
#transformers #attention #tokens #embeddings #training #pytorch #h100 #inference
-
Ein #Schnäppchen der besonderen Art: Ein Software-Entwickler hat einen #KI-Server mit zwei #Nvidia #H100 GPUs und knapp einem Terabyte #RAM im Wert von 70.000 Euro für einen lächerlichen Preis ergattert. https://winfuture.de/news,155567.html?utm_source=Mastodon&utm_medium=ManualStatus&utm_campaign=SocialMedia
-
#Nvidia backed startup #Starcloud trained an #AImodel in #space for the first time, using a #satellite equipped with an Nvidia #H100 #GPU. This achievement demonstrates the potential of #orbitaldatacentres to alleviate Earth’s digital infrastructure crisis by utilising #solarenergy and offering lower #energycosts. https://www.cnbc.com/2025/12/10/nvidia-backed-starcloud-trains-first-ai-model-in-space-orbital-data-centers.html?eicker.news #tech #media #news
-
#Nvidia backed startup #Starcloud trained an #AImodel in #space for the first time, using a #satellite equipped with an Nvidia #H100 #GPU. This achievement demonstrates the potential of #orbitaldatacentres to alleviate Earth’s digital infrastructure crisis by utilising #solarenergy and offering lower #energycosts. https://www.cnbc.com/2025/12/10/nvidia-backed-starcloud-trains-first-ai-model-in-space-orbital-data-centers.html?eicker.news #tech #media #news
-
#Nvidia backed startup #Starcloud trained an #AImodel in #space for the first time, using a #satellite equipped with an Nvidia #H100 #GPU. This achievement demonstrates the potential of #orbitaldatacentres to alleviate Earth’s digital infrastructure crisis by utilising #solarenergy and offering lower #energycosts. https://www.cnbc.com/2025/12/10/nvidia-backed-starcloud-trains-first-ai-model-in-space-orbital-data-centers.html?eicker.news #tech #media #news
-
#Nvidia backed startup #Starcloud trained an #AImodel in #space for the first time, using a #satellite equipped with an Nvidia #H100 #GPU. This achievement demonstrates the potential of #orbitaldatacentres to alleviate Earth’s digital infrastructure crisis by utilising #solarenergy and offering lower #energycosts. https://www.cnbc.com/2025/12/10/nvidia-backed-starcloud-trains-first-ai-model-in-space-orbital-data-centers.html?eicker.news #tech #media #news
-
#Nvidia backed startup #Starcloud trained an #AImodel in #space for the first time, using a #satellite equipped with an Nvidia #H100 #GPU. This achievement demonstrates the potential of #orbitaldatacentres to alleviate Earth’s digital infrastructure crisis by utilising #solarenergy and offering lower #energycosts. https://www.cnbc.com/2025/12/10/nvidia-backed-starcloud-trains-first-ai-model-in-space-orbital-data-centers.html?eicker.news #tech #media #news
-
Nvidia Develops 'Digital Leash' to Track AI Chips as Smuggling Rings Defy Export Bans
#AI #Nvidia #AIChips #China #ExportControls #GPUs #Blackwell #DeepSeek #ChipSmuggling #Geofencing #H100 #Semiconductors
-
Departament Sprawiedliwości USA ujawnia kulisy przemytu układów Nvidia. W tle superkomputery i broń masowego rażenia
Biuro Spraw Publicznych Departamentu Sprawiedliwości USA poinformowało o rozbiciu zorganizowanej grupy przestępczej zajmującej się nielegalnym eksportem zaawansowanych technologii AI do Chin.
W sprawę zamieszanych jest dwóch obywateli USA oraz dwóch obywateli Chin. Akt oskarżenia, ujawniony 20 listopada 2025 roku, rzuca nowe światło na determinację, z jaką Państwo Środka dąży do pozyskania amerykańskich procesorów, niezbędnych do modernizacji armii.
Wśród aresztowanych znajdują się Hon Ning Ho (34 l.) i Jing Chen (45 l.) zatrzymani na Florydzie, Brian Curtis Raymond (46 l.), CTO firmy zajmującej się technologiami Cloud AI, aresztowany w Alabamie oraz Cham Li (38 l.) ujęty w Kalifornii. Prokuratura zarzuca im spisek, przemyt oraz pranie brudnych pieniędzy, za co grożą wyroki sięgające 20 lat pozbawienia wolności za poszczególne zarzuty.
Chiny oskarżają USA o cyberatak. Celem miało być Narodowe Centrum Czasu
Nieruchomości jako przykrywka dla superkomputerów
Śledczy ujawnili mechanizm działania grupy, który funkcjonował od września 2023 do listopada 2025 roku. Spiskowcy wykorzystywali firmę „Janford Realtor, LLC” z siedzibą w Tampie na Florydzie. Choć nazwa sugerowała działalność na rynku nieruchomości, spółka nigdy nie przeprowadziła żadnej transakcji tego typu. Służyła wyłącznie jako słup do zakupu kontrolowanych technologii, które następnie – z fałszywą dokumentacją – trafiały do Chin drogą okrężną przez Malezję i Tajlandię.
Skala procederu była znacząca. Grupie udało się skutecznie wywieźć 400 układów graficznych Nvidia A100 w dwóch transportach między październikiem 2024 a styczniem 2025 roku.
Udaremniony przemyt najnowszych technologii
Najciekawszy jest jednak wątek trzeciego i czwartego transportu, które zostały przejęte przez organy ścigania. Przemytnicy próbowali wywieźć 10 superkomputerów Hewlett Packard Enterprise wyposażonych w układy Nvidia H100, a także – co szczególnie istotne – 50 sztuk najnowszych procesorów graficznych Nvidia H200.
To sprzęt o krytycznym znaczeniu strategicznym. Jak wskazuje akt oskarżenia, Chiny dążą do osiągnięcia pozycji światowego lidera AI do 2030 roku, a pozyskane technologie miały wspierać modernizację wojska, projektowanie i testowanie broni masowego rażenia oraz rozwój zaawansowanych narzędzi inwigilacji.
Miliony dolarów w przelewach
Departament Sprawiedliwości ujawnił również przepływy finansowe. Oskarżeni otrzymali z Chin przelewy na łączną kwotę ponad 3,89 miliona dolarów na sfinansowanie tego procederu. Brian Curtis Raymond, wykorzystując swoją firmę elektroniczną w Alabamie, pełnił rolę dostawcy sprzętu dla Ho i pozostałych członków grupy.
Władze USA zapowiedziały dążenie do przepadku mienia, w tym przejętych 50 układów Nvidia H200. Sprawę prowadzi wydział Homeland Security Investigations we współpracy z Defense Criminal Investigative Service oraz Biurem Przemysłu i Bezpieczeństwa Departamentu Handlu.
Wielka rywalizacja o AI. Chiny inwestują miliardy i omijają sankcje, by uniezależnić się od USA
#a100 #aiSi #chiny #departamentSprawiedliwosci #h100 #h200 #news #nvidia #przemyt #przestepczosc #sankcje #usa
-
Cztery osoby oskarżone o przemyt superkomputerów i chipów Nvidia do Chin
Sprawa jest o tyle ciekawa, że pokazuje, iż rzekomy przełom w produkcji rodzimych czipów AI w Chinach jest bardziej faktem propagandowym niż rzeczywistością. Chińskie firmy są wciąż uzależnione od amerykańskich technologii, ale ten stan rzeczy nie musi trwać wiecznie.
https://wp.me/p3fv0T-hRb #USA #Chiny #ChRL #przemyt #czipy #Nvidia #AI #H100 #H200 #A100 #superkomputer #POLECANE
-
Дата-центры в космосе: гигантские радиаторы вместо кондиционера
Nvidia помогает стартапу Starcloud запустить H100 на орбиту. SpaceX отправит спутник с GPU в ноябре — первый раз в истории дата-центр полетит над антеннами и проводами.
https://habr.com/ru/articles/960264/
#starcloud #nvidia #spacex #дженсен_хуанг #h100 #илон_маск #космос #орбита
-
Processing Strings 109x Faster Than Nvidia on H100
https://ashvardanian.com/posts/stringwars-on-gpus/
#HackerNews #ProcessingStrings #StringWars #GPUs #Nvidia #H100 #TechInnovation
-
Играемся с видеокартой Tesla H100 (GH100)
Продолжаем статьи про практические тесты актуальных картонок от Nvidia ( RTX 5090 , A5000 Ada , A100 , 3090 и A10 ). В этот раз мне уже предложили покрутить на несколько часиков H100 с 80 GB VRAM. Тренировать опять ничего не будем, снимем попугаев через gpu-burn , попробуем MIG (multi-instance GPU) и также замерим инференс одной нашей прожорливой сетки. С A100 и MIG мне как-то тоже пришлось поиграться, но я не думал, что в России в принципе когда-либо появятся H100. Поэтому в этот раз главная шутка будет про санкции и про сумочку , сделанную из H100. Также пару слов расскажем про "фишку" MIG, доступную для самых толстых карт в линейках NVIDIA (из "доступных" в основном A100 и H100, но есть и экзотика). В конце даже получилась небольшая детективная история. Поехали
https://habr.com/ru/articles/945290/
#nvidia #H100 #hopper #deep_learning #машинное_обучение #видеокарта #nvidia_tesla #nvidia_tesla_h100
-
Deploying DeepSeek on 96 H100 GPUs
https://lmsys.org/blog/2025-05-05-large-scale-ep/
#HackerNews #Deploying #DeepSeek #on #96 #H100 #GPUs #deepseek #h100 #gpus #deployment #techblog #highperformancecomputing #large-scalecomputing
-
»#Huawei readies new #AIchip for mass shipment: It achieves performance comparable to #Nvidia's #H100 chip by combining two #910B processors through advanced integration techniques.« https://www.reuters.com/world/china/huawei-readies-new-ai-chip-mass-shipment-china-seeks-nvidia-alternatives-sources-2025-04-21/?eicker.news #tech #media #news
-
We are buying high-end GPUs, which are used for AI computing, like A100, H100, H200, MI300, etc. Check this link: https://www.buysellram.com/sell-graphics-card-gpu/
#SellGPU #AIHardware #GPUBuyback #GPUBuyers #TechResale
#AIComputing #DataCenterGPUs #A100 #H100 #H200 #MI300
#ITAssetRecovery #EnterpriseGPUs #EwasteRecycling #Tech #GPU -
Sizing up #MI300A’s #GPU
It’s well ahead of #Nvidia’s #H100 PCIe for just about every major category of 32- or 64-bit operations. MI300A can achieve 113.2 TFLOPS of #FP32 throughput, with each FMA counting as two floating point operations. For comparison, H100 PCIe achieved 49.3 TFLOPS in same test.
#AMD cut down #MI300X’s GPU to create MI300A. 24 #Zen4 cores is a lot of #CPU power, and occupies one quadrant on the MI300 chip. But MI300’s main attraction is still the GPU.
https://chipsandcheese.com/p/sizing-up-mi300as-gpu -
The 4x #Nvidia #H100 SXM5 server in the new Festus cluster at Uni Bayreuth is the fastest system I've ever tested in #FluidX3D #CFD, achieving 78 GLUPs/s #LBM performance at ~1650W #GPU power draw. 🖖😋🖥️🔥
https://github.com/ProjectPhysX/FluidX3D?tab=readme-ov-file#multi-gpu-benchmarks
https://www.hpc.uni-bayreuth.de/clusters/festus/#__tabbed_1_3 -
#Huawei #HiSilicon #Ascend 910C is a version of the company's Ascend 910 processor for #AI training introduced in 2019. By now, the performance of the Ascend 910 is barely sufficient for the cost-efficient training of large AI models. Still, when it comes to inference, it delivers 60% of #Nvidia #H100 performance, according to researchers from #DeepSeek While the Ascend 910C is not a performance champion, it can succeed in reducing China's reliance on Nvidia #GPU's https://www.tomshardware.com/tech-industry/artificial-intelligence/deepseek-research-suggests-huaweis-ascend-910c-delivers-60-percent-nvidia-h100-inference-performance
-
Okay, loosing my mind here a bit. I just tested #OpenGL rendering under Linux on an #NVIDIA #H100 GPU, through #VirtualGL's #EGL backend.
And it worked... Renderer "NVIDIA H100/PCIe/SSE2", driver 555.42.06
I always understood the H100s to be incapable of OpenGL. But it seems I missed a crucial part in the H100 architecture doc (https://resources.nvidia.com/en-us-tensor-core), shown in the image.
Except, I'm sure I tested OpenGL at some point under X, but it didn't work. So, did anything change (e.g. driver)?
-
»#DeepSeek Debates: Chinese Leadership On #Cost, True #TrainingCost, Closed Model Margin Impacts #H100 Pricing Soaring, Subsidized Inference Pricing, #ExportControls, MLA.« https://semianalysis.com/2025/01/31/deepseek-debates/?eicker.news #tech #media
-
NVIDIA pide explicaciones a Super Micro por vender GPU H100 en China a pesar de las sanciones https://blog.elhacker.net/2025/01/nvidia-pide-explicaciones-super-micro-vender-gpu-h100-china.html #estadosunidos #restricciones #supermicro #nvidia #china #h100 #gpu
-
Intel Gaudi — гонка ИИ-ускорителей
Привет Хабр! С вами снова ServerFlow и мы хотим поговорить о насущном – о ИИ с нейросетями, а точнее о железе на котором нейросети обучают и на котором впоследствии они работают. В последние годы эта индустрия напоминает арену бойцовского клуба, где технологические гиганты с ожесточенной конкуренцией стремятся предложить наиболее производительные и эффективные решения для машинного обучения. И хотя не особо похоже, чтобы у кого-то на этой арене получилось сместить лидера рынка в лице NVIDIA, однако, попытки продолжают предприниматься. Так продолжает и Intel, представив свету свою серию ИИ-ускорителей под брендом Gaudi, а не так давно и обновленную модель Gaudi 3. Ранее Intel предпринимала попытки в собственные разработки ИИ ускорителей, но в этот раз за работу взялась компания Habana Labs, приобретённая Intel в 2019 году за внушительную сумму в 2 миллиарда долларов.
https://habr.com/ru/companies/serverflow/articles/839090/
#npu #Intel #Gaudi #nvidia #h100 #ии #нейросети #gpu #b200 #FP8
-
👉 Samsung svela Mach-1, il suo primo chip acceleratore AI per l’inferenza
Con Mach-1, Samsung entra nel mercato degli acceleratori IA per l'inferenza, puntando alle applicazioni edge computing.https://gomoot.com/samsung-svela-mach-1-il-suo-primo-chip-acceleratore-ai-per-linferenza
#AGI #AI #gpu #H100 #H200 #HBMe #ia #LLM #mach1 #nvidia #Samsung
-
#AMD Has a #GPU to Rival #Nvidia’s #H100
#MI300X is a GPU-only version of previously announced #MI300A supercomputing chip, which includes a #CPU and #GPU. The MI300A will be in El Capitan, a supercomputer coming next year to the #LosAlamos #NationalLaboratory. El Capitan is expected to surpass 2 exaflops of performance. The MI300X has 192GB of #HBM3, which Su said was 2.4 times more memory density than Nvidia’s H100. The SXM and PCIe versions of H100 have 80GB of HBM3.
https://www.hpcwire.com/2023/06/13/amd-has-a-gpu-to-rival-nvidias-h100/ -
#AMD Has a #GPU to Rival #Nvidia’s #H100
#MI300X is a GPU-only version of previously announced #MI300A supercomputing chip, which includes a #CPU and #GPU. The MI300A will be in El Capitan, a supercomputer coming next year to the #LosAlamos #NationalLaboratory. El Capitan is expected to surpass 2 exaflops of performance. The MI300X has 192GB of #HBM3, which Su said was 2.4 times more memory density than Nvidia’s H100. The SXM and PCIe versions of H100 have 80GB of HBM3.
https://www.hpcwire.com/2023/06/13/amd-has-a-gpu-to-rival-nvidias-h100/ -
#AMD Has a #GPU to Rival #Nvidia’s #H100
#MI300X is a GPU-only version of previously announced #MI300A supercomputing chip, which includes a #CPU and #GPU. The MI300A will be in El Capitan, a supercomputer coming next year to the #LosAlamos #NationalLaboratory. El Capitan is expected to surpass 2 exaflops of performance. The MI300X has 192GB of #HBM3, which Su said was 2.4 times more memory density than Nvidia’s H100. The SXM and PCIe versions of H100 have 80GB of HBM3.
https://www.hpcwire.com/2023/06/13/amd-has-a-gpu-to-rival-nvidias-h100/ -
#AMD Has a #GPU to Rival #Nvidia’s #H100
#MI300X is a GPU-only version of previously announced #MI300A supercomputing chip, which includes a #CPU and #GPU. The MI300A will be in El Capitan, a supercomputer coming next year to the #LosAlamos #NationalLaboratory. El Capitan is expected to surpass 2 exaflops of performance. The MI300X has 192GB of #HBM3, which Su said was 2.4 times more memory density than Nvidia’s H100. The SXM and PCIe versions of H100 have 80GB of HBM3.
https://www.hpcwire.com/2023/06/13/amd-has-a-gpu-to-rival-nvidias-h100/ -
#AMD Has a #GPU to Rival #Nvidia’s #H100
#MI300X is a GPU-only version of previously announced #MI300A supercomputing chip, which includes a #CPU and #GPU. The MI300A will be in El Capitan, a supercomputer coming next year to the #LosAlamos #NationalLaboratory. El Capitan is expected to surpass 2 exaflops of performance. The MI300X has 192GB of #HBM3, which Su said was 2.4 times more memory density than Nvidia’s H100. The SXM and PCIe versions of H100 have 80GB of HBM3.
https://www.hpcwire.com/2023/06/13/amd-has-a-gpu-to-rival-nvidias-h100/ -
#AMD Instinct#MI300 is THE Chance to Chip into #NVIDIA #AI Share
NVIDIA is facing very long lead times for its #H100 and #A100, if you want NVIDIA for AI and have not ordered don't expect it before 2024. For a traditional #GPU, MI300 is GPU-only part. All four center tiles are GPU. With 192GB #HBM, & can simply fit more onto a single GPU than NVIDIA. #MI300A has 24 #Zen4, #CDNA3 GPU cores, and 128GB #HBM3. This is CPU deployed in the El Capitan 2+ Exaflop #supercomputer.
https://www.servethehome.com/amd-instinct-mi300-is-the-chance-to-chip-into-nvidia-ai-share/ -
#AMD Instinct#MI300 is THE Chance to Chip into #NVIDIA #AI Share
NVIDIA is facing very long lead times for its #H100 and #A100, if you want NVIDIA for AI and have not ordered don't expect it before 2024. For a traditional #GPU, MI300 is GPU-only part. All four center tiles are GPU. With 192GB #HBM, & can simply fit more onto a single GPU than NVIDIA. #MI300A has 24 #Zen4, #CDNA3 GPU cores, and 128GB #HBM3. This is CPU deployed in the El Capitan 2+ Exaflop #supercomputer.
https://www.servethehome.com/amd-instinct-mi300-is-the-chance-to-chip-into-nvidia-ai-share/ -
#AMD Instinct#MI300 is THE Chance to Chip into #NVIDIA #AI Share
NVIDIA is facing very long lead times for its #H100 and #A100, if you want NVIDIA for AI and have not ordered don't expect it before 2024. For a traditional #GPU, MI300 is GPU-only part. All four center tiles are GPU. With 192GB #HBM, & can simply fit more onto a single GPU than NVIDIA. #MI300A has 24 #Zen4, #CDNA3 GPU cores, and 128GB #HBM3. This is CPU deployed in the El Capitan 2+ Exaflop #supercomputer.
https://www.servethehome.com/amd-instinct-mi300-is-the-chance-to-chip-into-nvidia-ai-share/ -
#AMD Instinct#MI300 is THE Chance to Chip into #NVIDIA #AI Share
NVIDIA is facing very long lead times for its #H100 and #A100, if you want NVIDIA for AI and have not ordered don't expect it before 2024. For a traditional #GPU, MI300 is GPU-only part. All four center tiles are GPU. With 192GB #HBM, & can simply fit more onto a single GPU than NVIDIA. #MI300A has 24 #Zen4, #CDNA3 GPU cores, and 128GB #HBM3. This is CPU deployed in the El Capitan 2+ Exaflop #supercomputer.
https://www.servethehome.com/amd-instinct-mi300-is-the-chance-to-chip-into-nvidia-ai-share/ -
#AMD Instinct#MI300 is THE Chance to Chip into #NVIDIA #AI Share
NVIDIA is facing very long lead times for its #H100 and #A100, if you want NVIDIA for AI and have not ordered don't expect it before 2024. For a traditional #GPU, MI300 is GPU-only part. All four center tiles are GPU. With 192GB #HBM, & can simply fit more onto a single GPU than NVIDIA. #MI300A has 24 #Zen4, #CDNA3 GPU cores, and 128GB #HBM3. This is CPU deployed in the El Capitan 2+ Exaflop #supercomputer.
https://www.servethehome.com/amd-instinct-mi300-is-the-chance-to-chip-into-nvidia-ai-share/