#fp64 — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #fp64, aggregated by home.social.
-
China’s LineShine Supercomputer To Hit 2 ExaFlops With 47,000 CPUs and Zero Reliance on Foreign Chips China has unveiled its new supercomputer, called LineShine, in Shenzen, which will deliver 2 ...
#Featured #News #Sticky #DeepSeek #FP16 #FP32 #FP64 #Fusion #Architecture #Huawei #Kunpeng
Origin | Interest | Match -
#ScientificComputing is about to get a massive injection of #AI
#Nvidia's #IanBuck on the importance of #FP64 to power research, in a world that's hot for inferencing
Enabling the AI-#HPC merger: on Monday, the company unveiled Apollo – a new family of open models designed to accelerate industrial and computation engineering. Nvidia has integrated Apollo into industrial design software suites from Cadence, Synopsys, and Siemens.
https://www.theregister.com/2025/11/18/future_of_scientific_computing/ #SC25 -
Interesting take from an #Nvidia engineer I met at #ISC25: "Do you need IEEE-754 compliant #FP64, or do you need digits? Digits we can get you through FP64 emulation."
Not sure what to make of that. Things were an absolute mess before the IEEE-754 standard, and I wouldn't want to ever go back to that. No standards means you cannot at all port software between hardware architectures even from within the same vendor. Having to re-architect software for each and every new chip is not gonna happen.
-
#JackDongarra Makes a Stand for Traditional #HPC: "US still doesn’t have a clear, long-term plan for what comes next.... U.S. risks falling behind."
Challenges to high-performance computing threaten #US #innovation
The #AI boom has led chip makers to focus on #FP16 and #FP8, not the #FP64 used by scientific research. If chip companies stop making the parts that #scientists need, then it could become harder to do important research.
https://theconversation.com/challenges-to-high-performance-computing-threaten-us-innovation-255188 -
#HPC and other scientific computing folks should like this image ... it's a floating point 😀
-
#ElCapitan Towers Above the #Top500 in a Big #HPE Win using #AMD Instinct #MI300A system. With sustained #HPL of 1.742EF and peak speed of 2.79EF of #FP64, this is a big jump over previous generation systems. El Capitan has a unique architecture as it uses #APU combining #CPU plus #GPU onto a package with high-bandwidth memory. Over 44,000 of these MI300A APUs are then packed into the HPE #Cray Shasta liquid cooled platform, and connected via the Slingshot interconnect.
https://www.servethehome.com/el-capitan-towers-above-the-top500-in-a-big-hpe-and-amd-win/ -
Happy #Exascale day to all who celebrate and the companies that use it as marketing
Doug Eadline has a wonderful piece in HPCWire about how not all exa are equivalent, and the push to brand things with lower precision as #zetascale flies in the face of 30 years of agreeing that FLOPS are #fp64, so there is one and only one definition of #exaFLOPS, and its bases on the #HPLinpack benchmark.
Go Read; In This Club, You Must 'Earn the Exa'
https://www.hpcwire.com/2024/10/17/in-this-club-you-must-earn-the-exa/ -
FP32, FP16, BF16 и FP8 — разбираемся в основных типах чисел с плавающей запятой
Привет, Хабр! Сегодня давайте поговорим о том, как современные вычисления на GPU стали более гибкими и эффективными благодаря различным форматам чисел с плавающей запятой ( FP64 , FP32 , FP16 , BFLOAT16 и FP8 ). Эти форматы не просто числа — за каждым из них стоит конкретная область применения. В разных ситуациях мы сталкиваемся с задачами, где важны либо скорость, либо точность, и правильно выбранный тип floating point помогает оптимизировать ресурсы. Давайте разберём всё это на примерах и поймём, в каких задачах каждый из этих форматов будет наиболее полезен.
https://habr.com/ru/companies/serverflow/articles/847068/
#FP16 #fp32 #FP64 #BF16 #floating_point #плавающая_запятая #fp8 #числа_с_плавающей_запятой #формат_с_плавающей_запятой
-
FP32, FP16, BF16 и FP8 — разбираемся в основных типах чисел с плавающей запятой
Привет, Хабр! Сегодня давайте поговорим о том, как современные вычисления на GPU стали более гибкими и эффективными благодаря различным форматам чисел с плавающей запятой ( FP64 , FP32 , FP16 , BFLOAT16 и FP8 ). Эти форматы не просто числа — за каждым из них стоит конкретная область применения. В разных ситуациях мы сталкиваемся с задачами, где важны либо скорость, либо точность, и правильно выбранный тип floating point помогает оптимизировать ресурсы. Давайте разберём всё это на примерах и поймём, в каких задачах каждый из этих форматов будет наиболее полезен.
https://habr.com/ru/companies/serverflow/articles/847068/
#FP16 #fp32 #FP64 #BF16 #floating_point #плавающая_запятая #fp8 #числа_с_плавающей_запятой #формат_с_плавающей_запятой
-
FP32, FP16, BF16 и FP8 — разбираемся в основных типах чисел с плавающей запятой
Привет, Хабр! Сегодня давайте поговорим о том, как современные вычисления на GPU стали более гибкими и эффективными благодаря различным форматам чисел с плавающей запятой ( FP64 , FP32 , FP16 , BFLOAT16 и FP8 ). Эти форматы не просто числа — за каждым из них стоит конкретная область применения. В разных ситуациях мы сталкиваемся с задачами, где важны либо скорость, либо точность, и правильно выбранный тип floating point помогает оптимизировать ресурсы. Давайте разберём всё это на примерах и поймём, в каких задачах каждый из этих форматов будет наиболее полезен.
https://habr.com/ru/companies/serverflow/articles/847068/
#FP16 #fp32 #FP64 #BF16 #floating_point #плавающая_запятая #fp8 #числа_с_плавающей_запятой #формат_с_плавающей_запятой
-
21 #ExaFLOP #Isambard #AI #Supercomputer Uses 5,448 #NVidia #GH200 #GraceHopper Superchips
U.K.'s most powerful supercomputer boasts 200 #PetaFLOP #FP64 compute.
The machine, which is set to be built by #HPE, cost £225 million ($273.38 million)
https://www.tomshardware.com/pc-components/gpus/21-exaflop-isambard-ai-supercomputer-uses-5448-gh200-grace-hopper-superchips