home.social

#cuda — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #cuda, aggregated by home.social.

  1. Fedora approved the AI Developer Desktop initiative to create AI-focused Atomic Desktop images with local-first tooling and no default cloud AI connections. 🤖
    Planned Fedora 45 releases include open-source AI images plus CUDA-based remixes for Intel, AMD, NVIDIA, and ARM hardware support. 🐧

    🔗 itsfoss.com/news/fedora-ai-dev

    #TechNews #Fedora #Ubuntu #Linux #AI #ArtificialIntelligence #OpenSource #Atomic #CUDA #Cloud #CloudAI #LocalAI #FOSS #NVIDIA #AMD #Intel #ARM #MachineLearning #Developers

  2. CUDA Demonstrates That Nvidia Is Primarily a Software Firm Please excuse my use of a well-worn phrase, a bit of finance lingo that has […] The post CUDA Demonstrates That Nvidia Is Primarily a So...

    #Artificial #Intelligence #Blog #CUDA #Demonstrates #Firm #Nvidia #Primarily #Software

    Origin | Interest | Match
  3. NVIDIA sideband socket Permission denied with AMD+NVIDIA hybrid GPU on Ubuntu, GDM freezes #drivers #nvidia #xorg #cuda

    askubuntu.com/q/1566659/612

  4. A backend for writing kernels as you'd write them in C. github.com/NVlabs/cuda-oxide

  5. Ubuntu 26.04 + pytorch + CUDA - what else do I need to install? #nvidia #cuda #2604

    askubuntu.com/q/1566422/612

  6. Голосовой ввод на русско-английском в 2026: WisprFlow, Handy, OpenWhispr, GigaAM v3 — для диктовки нейросетям и кода

    Голосом мы говорим в 2-3 раза быстрее, чем печатаем — это давно известно. Вопрос только в том, умеет ли голосовой ввод разбираться с русско-английской смесью, на которой мы общаемся с LLM и пишем код: «объясни на русском», «открой в Cursor», «проверь, что deploy прошёл». За полгода я перепробовал 5+ приложений и 5 моделей, чтобы найти те, что умеют. Приложения : WisprFlow, SpeakFlow, Handy, OpenWhispr, SuperWhisper — облачные и локальные, платные и open source. Модели : Whisper Large v3, Turbo, GigaAM v3 от Сбера, Canary 1B v2 от NVIDIA, Parakeet V3. Внутри: — Замена облачного WisprFlow на бесплатный open source без потери качества. — Один текстовый промпт, починивший пропадающую пунктуацию в 99% случаев — без LLM-постпроцессоров и задержек. — Мой бенчмарк Whisper Turbo vs Large v3 на RTX 5070 Ti (Vulkan на Blackwell внезапно быстрее CUDA на 50%). — GigaAM v3 и Canary 1B v2 — где конкурируют с Whisper, а где ломают английские слова в кириллицу («Gemini» → «Jemni»). — Первый в моей жизни принятый в main pull request в open source. Актуально на апрель 2026.

    habr.com/ru/articles/1024634/

    #whisper #голосовой_ввод #транскрибация #gigaam #распознавание_речи #openwhispr #cuda #vulkan #superwhisper #нейросети

  7. 谷歌一篇论文砸崩内存巨头?不懂“显存墙”,怎么做 AI 时代的工程师! 本文永久链接 – https://tonybai.com/2026/03/28/ai-engineer-gpu-introduction-course 大家好...

    #技术志 #AIModel #AI模型 #ArtificialIntelligence #AttentionMechanism #ComputeBound #ComputingPower #CUDA #FlashAttention #FP8 #Go

    Origin | Interest | Match
  8. Keynote at IWOCL 2026: Paulius Velesko presents chipStar — compiling unmodified CUDA/HIP code into OpenCL & SPIR-V fat binaries that run on Intel, AMD, NVIDIA, ARM, and RISC-V hardware. No recompilation needed.

    Join us at IWOCL 2026, May 6–8 in Heilbronn, Germany to hear more.

    View the full program at: iwocl.org/iwocl-2026/conferenc

  9. With the cluster and storage down for maintenance this week, I thought about doing some #pytorch development locally an my laptop. No dedicated GPU, but a recent #intel Core Ultra 2 CPU. So first I went for the CPU-only packages.

    Only yesterday I realized that the Windows task manager shows something called #npu in its charts. Fair enough, let's see whether pytorch can use it ...

    I have to say, the #xpu pytorch integration has gone a long way. In my case, I could use it as a drop-in replacement for #cuda / #rocm pytorch, yet with the obvious performance differences between HPC GPUs and a laptop iGPU.

    docs.pytorch.org/docs/stable/n

    Always nice to have alternatives. Especially for basic testing I don't need big (expensive) GPUs.

  10. Học CUDA miễn phí trên Google Colab! 🚀 Một người dùng Reddit chia sẻ dự án học CUDA bằng GPU miễn phí của Colab. Ngày đầu tiên đã bắt đầu!

    #CUDA #GoogleColab #SideProject #LậpTrình #GPU #Free

    reddit.com/r/SideProject/comme

  11. #OffreDeStage niveau Master / fin d'étude (4 à 6 mois) "Mise en place d’un serveur de transcription automatique de la parole pour les enregistreurs phoniques d’aéronefs (boites noires audio)"

    Lieu : Laboratoire Audio-CVR, Bureau d'Enquête et d'Analyse pour la sécurité de l'aviation civile (@bea_aviation), 10 rue de Paris, 93350 Le Bourget (Ile-de-France)

    à 30 min de Paris Nord

    Sujet : drive.proton.me/urls/VBPJ540V7

    #architectureparallele #Linux #Serveur #CUDA #OpenAI #whisper #bea

  12. #OffreDeStage niveau Master / fin d'étude (4 à 6 mois) "Mise en place d’un serveur de transcription automatique de la parole pour les enregistreurs phoniques d’aéronefs (boites noires audio)"

    Lieu : Laboratoire Audio-CVR, Bureau d'Enquête et d'Analyse pour la sécurité de l'aviation civile (@bea_aviation), 10 rue de Paris, 93350 Le Bourget (Ile-de-France)

    à 30 min de Paris Nord

    Sujet : drive.proton.me/urls/VBPJ540V7

    #architectureparallele #Linux #Serveur #CUDA #OpenAI #whisper #bea

  13. #OffreDeStage niveau Master / fin d'étude (4 à 6 mois) "Mise en place d’un serveur de transcription automatique de la parole pour les enregistreurs phoniques d’aéronefs (boites noires audio)"

    Lieu : Laboratoire Audio-CVR, Bureau d'Enquête et d'Analyse pour la sécurité de l'aviation civile (@bea_aviation), 10 rue de Paris, 93350 Le Bourget (Ile-de-France)

    à 30 min de Paris Nord

    Sujet : drive.proton.me/urls/VBPJ540V7

    #architectureparallele #Linux #Serveur #CUDA #OpenAI #whisper #bea

  14. #OffreDeStage niveau Master / fin d'étude (4 à 6 mois) "Mise en place d’un serveur de transcription automatique de la parole pour les enregistreurs phoniques d’aéronefs (boites noires audio)"

    Lieu : Laboratoire Audio-CVR, Bureau d'Enquête et d'Analyse pour la sécurité de l'aviation civile (@bea_aviation), 10 rue de Paris, 93350 Le Bourget (Ile-de-France)

    à 30 min de Paris Nord

    Sujet : drive.proton.me/urls/VBPJ540V7

    #architectureparallele #Linux #Serveur #CUDA #OpenAI #whisper #bea

  15. #OffreDeStage niveau Master / fin d'étude (4 à 6 mois) "Mise en place d’un serveur de transcription automatique de la parole pour les enregistreurs phoniques d’aéronefs (boites noires audio)"

    Lieu : Laboratoire Audio-CVR, Bureau d'Enquête et d'Analyse pour la sécurité de l'aviation civile (@bea_aviation), 10 rue de Paris, 93350 Le Bourget (Ile-de-France)

    à 30 min de Paris Nord

    Sujet : drive.proton.me/urls/VBPJ540V7

    #architectureparallele #Linux #Serveur #CUDA #OpenAI #whisper #bea

  16. Can you claim to be a real #HPC software engineer if you've never coded with at least 2 of #Fortran, #MPI, #OpenMP, or #CUDA?

    Can you claim to be a modern #supercomputing scientist if you've never worked with at least 2 of #cloud, #AI/#ML, #FP16, or #RSEs?

  17. Can you claim to be a real #HPC software engineer if you've never coded with at least 2 of #Fortran, #MPI, #OpenMP, or #CUDA?

    Can you claim to be a modern #supercomputing scientist if you've never worked with at least 2 of #cloud, #AI/#ML, #FP16, or #RSEs?

  18. Can you claim to be a real #HPC software engineer if you've never coded with at least 2 of #Fortran, #MPI, #OpenMP, or #CUDA?

    Can you claim to be a modern #supercomputing scientist if you've never worked with at least 2 of #cloud, #AI/#ML, #FP16, or #RSEs?

  19. Can you claim to be a real #HPC software engineer if you've never coded with at least 2 of #Fortran, #MPI, #OpenMP, or #CUDA?

    Can you claim to be a modern #supercomputing scientist if you've never worked with at least 2 of #cloud, #AI/#ML, #FP16, or #RSEs?

  20. Can you claim to be a real #HPC software engineer if you've never coded with at least 2 of #Fortran, #MPI, #OpenMP, or #CUDA?

    Can you claim to be a modern #supercomputing scientist if you've never worked with at least 2 of #cloud, #AI/#ML, #FP16, or #RSEs?

  21. Сможет ли языковая модель научиться читать биржевые графики? Эксперимент с LLM на данных Московской биржи

    Представьте опытного трейдера: наверняка он не говорит котировками и не рассказывает про индикаторы — он просто говорит «сильный тренд», «пробой уровня» или «ложный отскок». Для него график это язык: свечи, объёмы и уровни складываются в понятные фразы о том, что сейчас происходит на рынке. Именно от этой человеческой интуиции я и отталкивался в своём эксперименте. Идея была такая: а что, если научить искусственный интеллект понимать этот язык? Не подавать модели сырые числа, а переводить бары и объёмы в текстовые описания наблюдаемых паттернов и кормить ими языковую модель. Гипотеза была что в тексте уже будет содержатся достаточно данных, чтобы модель научилась связывать недавнюю торговую историю с тем, пойдёт ли цена вверх на следующий день. Инструмент эксперимента — модель distilbert‑base‑uncased с Hugging Face и это облегчённая, быстрая версия BERT для понимания языка. Мне показалось это практичным выбором для прототипа — позволяет быстро проверять разные способы текстовой разметки без гигантских ресурсов. Цель была чёткая: по текстовому описанию недавней истории торгов предсказать рост цены на следующий день. Но это исследование моя попытка представления рыночных данных как языка, а не попытка сразу создать алгоритм для автотрейдинга. Ещё важно: это мой личный эксперимент, проведённый одним человеком и выполненный однократно. Результаты дали интересные наблюдения. Расскажу, как происходила разметка графиков в текст, какие шаблоны сработали лучше и какие метрики использовались. Также отмечу ограничения подхода и идеи для повторных экспериментов. А ещё весь код уже на GitHub. Анализ и код

    habr.com/ru/articles/955612/

    #BERT #cuda #rtx_5060 #алгоритмическая_торговля #sm_120

  22. #ZLUDA 5 Released With An Offline #Compiler For #CUDA On Non-NVIDIA #GPUs
    #ZLUDA5 introduces "zoc" as an offline compiler for ZLUDA. #Zoc will take a NVIDIA PTX file as input and output the #LLVM intermediate representation (IR) and the #RDNA Assembly for the GPU in use generated in turn by the #ROCm compiler.
    phoronix.com/news/ZLUDA-5-Rele

  23. Nvidia CMP – микроскопы для забивания гвоздей?! Копаем глубже…

    Почему видеокарта, имеющая неплохие вычислительные возможности, в Stable Diffusion работает в 20 раз медленнее, чем RTX 3060? Почему в LM Studio она становится фаворитом, а в ComfyUI карета превращается в тыкву? Почему FurMark на CMP 90HX тормозит, а на CMP 50HX «бублик» крутится почти нормально? Разгадки в разных программных ограничениях, которые можно найти с помощью экспериментов. Я купил три майнинговые карты Nvidia, чтобы понять, можно ли заставить их эффективно работать. В этот раз мы рассмотрим: статистику производительности в LM Studio, как всё печально в ComfyUI и Stable Diffusion, анатомию программного кода GPU, почему оптимизации производительности дают на CMP обратный эффект, какие режимы вычислений могут раскрыть их потенциал.

    habr.com/ru/articles/948396/

    #llm #nvidia #cmp #50hx #90hx #lm_studio #майнинг #cuda #cublas #40hx

  24. It's #ROCm getting better? Yes

    Will you still use #CUDA? Yes.

    youtube.com/watch?v=wCBLMXgk3N

    What #AMD should focus on is to bring all of their SKU to use ROCm stable on all platforms. Currently that isn't possible, which is frustrating given their cards have more memory than #RTX at the same price.

    #AI #LLM #OLlama #Llama #NVIDIA #GeForce #ArtificialIntelligence #OpenCompute #GPUOpen #Computer #Computers #Technology #PC #PCHardware #Hardware #GPU #dGPU #Laptop #Laptops #StrixHalo #Radeon

  25. It's #ROCm getting better? Yes

    Will you still use #CUDA? Yes.

    youtube.com/watch?v=wCBLMXgk3N

    What #AMD should focus on is to bring all of their SKU to use ROCm stable on all platforms. Currently that isn't possible, which is frustrating given their cards have more memory than #RTX at the same price.

    #AI #LLM #OLlama #Llama #NVIDIA #GeForce #ArtificialIntelligence #OpenCompute #GPUOpen #Computer #Computers #Technology #PC #PCHardware #Hardware #GPU #dGPU #Laptop #Laptops #StrixHalo #Radeon

  26. It's #ROCm getting better? Yes

    Will you still use #CUDA? Yes.

    youtube.com/watch?v=wCBLMXgk3N

    What #AMD should focus on is to bring all of their SKU to use ROCm stable on all platforms. Currently that isn't possible, which is frustrating given their cards have more memory than #RTX at the same price.

    #AI #LLM #OLlama #Llama #NVIDIA #GeForce #ArtificialIntelligence #OpenCompute #GPUOpen #Computer #Computers #Technology #PC #PCHardware #Hardware #GPU #dGPU #Laptop #Laptops #StrixHalo #Radeon

  27. It's #ROCm getting better? Yes

    Will you still use #CUDA? Yes.

    youtube.com/watch?v=wCBLMXgk3N

    What #AMD should focus on is to bring all of their SKU to use ROCm stable on all platforms. Currently that isn't possible, which is frustrating given their cards have more memory than #RTX at the same price.

    #AI #LLM #OLlama #Llama #NVIDIA #GeForce #ArtificialIntelligence #OpenCompute #GPUOpen #Computer #Computers #Technology #PC #PCHardware #Hardware #GPU #dGPU #Laptop #Laptops #StrixHalo #Radeon

  28. It's #ROCm getting better? Yes

    Will you still use #CUDA? Yes.

    youtube.com/watch?v=wCBLMXgk3N

    What #AMD should focus on is to bring all of their SKU to use ROCm stable on all platforms. Currently that isn't possible, which is frustrating given their cards have more memory than #RTX at the same price.

    #AI #LLM #OLlama #Llama #NVIDIA #GeForce #ArtificialIntelligence #OpenCompute #GPUOpen #Computer #Computers #Technology #PC #PCHardware #Hardware #GPU #dGPU #Laptop #Laptops #StrixHalo #Radeon

  29. #3DFX dominaba en su día con su #API propietaria #Glide. El desarrollo de #OpenGL (y más tarde de #Direct3D para atarlos a todos en las Ventanas) permitió a otros fabricantes de tarjetas gráficas como #NVIDIA que los desarrolladores de software pudieran utilizar hardware alternativo manteniendo la compatibilidad.

    Es irónico que NVIDIA ahora haga con #CUDA lo mismo que hacía 3DFx con Glide. Bueno, no lo es. Es el cuento de siempre.

  30. My brain is absolutely fried.
    Today is the last day of coursework submissions for this semester. What a hectic month.
    DNN with PyTorch, Brain model parallelisation with MPI, SYCL and OpenMP offloading of percolation models,hand optimizing serial codes for performance.
    Two submissions due today. Submitted one and finalising my report for the second one.
    Definitely having a pint after this

  31. Started SYCL this semester in my MSc, and I have a coursework on it.
    I have never been more frustrated in my life.
    I am not saying SYCL is bad. I might just be too dumb to master it in a sem in order to port an existing CPU code to use MPI & SYCL together.
    CUDA was much easier for me for the same task.

  32. It seems that #Vulkan could be the real alternative for using #AI on GPUs or CPUs of any brand, without necessarily having to rely on #CUDA or #AMD's #ROCm. I thought #SYCL was the alternative. This might finally free us from of monopoly #Nvidia.
    #Khronos