home.social

#triton — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #triton, aggregated by home.social.

  1. What makes this especially notable is the uncertainty: the loss is confirmed, but reporting also says there is no confirmed evidence the aircraft went down in Iranian territory.
    #MQ4C #Triton #USNavy #DroneLoss #MilitaryAviation #Geopolitics #PersianGulf

  2. Kernel-Smith: A Unified Recipe for Evolutionary Kernel Optimization We present Kernel-Smith, a framework for high-performance GPU kernel and operator generation that combines a stable evaluation-dr...

    #Computer #science #CUDA #paper #Heterogeneous #systems #nVidia #Triton

    Origin | Interest | Match
  3. Clean up on aisle 7! Interesting idea - who will pay the bill?

    US based Portal Space Systems and Australian startup Paladin Space are combing forces to create and launch a scalable, commercial space debris clean-up service.

    Paladin’s supplies their Triton debris identification and capture system with Portal provides its maneuverable Starburst spacecraft. Target launch = Q2 2027. inc.com/chloe-aiello/these-two

    #Portal #Paladin #Triton #Space #SpaceJunk #LEO #Starburst #SpaceCraft #SpaceDebris

  4. Clean up on aisle 7! Interesting idea - who will pay the bill?

    US based Portal Space Systems and Australian startup Paladin Space are combing forces to create and launch a scalable, commercial space debris clean-up service.

    Paladin’s supplies their Triton debris identification and capture system with Portal provides its maneuverable Starburst spacecraft. Target launch = Q2 2027. inc.com/chloe-aiello/these-two

    #Portal #Paladin #Triton #Space #SpaceJunk #LEO #Starburst #SpaceCraft #SpaceDebris

  5. Clean up on aisle 7! Interesting idea - who will pay the bill?

    US based Portal Space Systems and Australian startup Paladin Space are combing forces to create and launch a scalable, commercial space debris clean-up service.

    Paladin’s supplies their Triton debris identification and capture system with Portal provides its maneuverable Starburst spacecraft. Target launch = Q2 2027. inc.com/chloe-aiello/these-two

    #Portal #Paladin #Triton #Space #SpaceJunk #LEO #Starburst #SpaceCraft #SpaceDebris

  6. Clean up on aisle 7! Interesting idea - who will pay the bill?

    US based Portal Space Systems and Australian startup Paladin Space are combing forces to create and launch a scalable, commercial space debris clean-up service.

    Paladin’s supplies their Triton debris identification and capture system with Portal provides its maneuverable Starburst spacecraft. Target launch = Q2 2027. inc.com/chloe-aiello/these-two

    #Portal #Paladin #Triton #Space #SpaceJunk #LEO #Starburst #SpaceCraft #SpaceDebris

  7. Clean up on aisle 7! Interesting idea - who will pay the bill?

    US based Portal Space Systems and Australian startup Paladin Space are combing forces to create and launch a scalable, commercial space debris clean-up service.

    Paladin’s supplies their Triton debris identification and capture system with Portal provides its maneuverable Starburst spacecraft. Target launch = Q2 2027. inc.com/chloe-aiello/these-two

  8. Learn the critical failure points when running LLM inference on Kubernetes, including resource constraints, operator compatibility, security, scalability, and monitoring best practices for production workloads.

    #Kubernetes #LLM Inference #Dynatrace #GPU Resource Allocation #Service Mesh #Network Policies #KEDA #Triton Inference Server #Redis #Prometheus

    dasroot.net/posts/2026/02/runn

  9. Triton, Flash-attension, Sage-attension и bitsandbytes с Rocm7 в Windows

    В конце января 2026 вышел triton-windows 3.6.0.post25 , который позволяет использовать flash-attention , sage-attention (v1) и другие библиотеки, использующие Triton, на картах AMD с поддержкой rocWMMA в Windows. Также, несмотря на то, что в официальном репозитории bitsandbytes еще не приняли PR для поддержки ROCm 7, его все же можно собрать, внеся небольшие изменения в код. Эти изменения я уже сделал в своем форке. В этой статье я расскажу, как установить все это себе, а также для примера запустим пару тестов в ComfyUI, в том числе со свежей LTX-2, и сделаем Qlora адаптер для модели Gemma 3.

    habr.com/ru/articles/987672/

    #triton #amd #rx7900 #sageattention #flashattention #bitsandbytes #rocm #rocm7 #comfyui #ltx2

  10. Triton, Flash-attension, Sage-attension и bitsandbytes с Rocm7 в Windows

    В конце января 2026 вышел triton-windows 3.6.0.post25 , который позволяет использовать flash-attention , sage-attention (v1) и другие библиотеки, использующие Triton, на картах AMD с поддержкой rocWMMA в Windows. Также, несмотря на то, что в официальном репозитории bitsandbytes еще не приняли PR для поддержки ROCm 7, его все же можно собрать, внеся небольшие изменения в код. Эти изменения я уже сделал в своем форке. В этой статье я расскажу, как установить все это себе, а также для примера запустим пару тестов в ComfyUI, в том числе со свежей LTX-2, и сделаем Qlora адаптер для модели Gemma 3.

    habr.com/ru/articles/987672/

    #triton #amd #rx7900 #sageattention #flashattention #bitsandbytes #rocm #rocm7 #comfyui #ltx2

  11. Triton, Flash-attension, Sage-attension и bitsandbytes с Rocm7 в Windows

    В конце января 2026 вышел triton-windows 3.6.0.post25 , который позволяет использовать flash-attention , sage-attention (v1) и другие библиотеки, использующие Triton, на картах AMD с поддержкой rocWMMA в Windows. Также, несмотря на то, что в официальном репозитории bitsandbytes еще не приняли PR для поддержки ROCm 7, его все же можно собрать, внеся небольшие изменения в код. Эти изменения я уже сделал в своем форке. В этой статье я расскажу, как установить все это себе, а также для примера запустим пару тестов в ComfyUI, в том числе со свежей LTX-2, и сделаем Qlora адаптер для модели Gemma 3.

    habr.com/ru/articles/987672/

    #triton #amd #rx7900 #sageattention #flashattention #bitsandbytes #rocm #rocm7 #comfyui #ltx2

  12. Triton, Flash-attension, Sage-attension и bitsandbytes с Rocm7 в Windows

    В конце января 2026 вышел triton-windows 3.6.0.post25 , который позволяет использовать flash-attention , sage-attention (v1) и другие библиотеки, использующие Triton, на картах AMD с поддержкой rocWMMA в Windows. Также, несмотря на то, что в официальном репозитории bitsandbytes еще не приняли PR для поддержки ROCm 7, его все же можно собрать, внеся небольшие изменения в код. Эти изменения я уже сделал в своем форке. В этой статье я расскажу, как установить все это себе, а также для примера запустим пару тестов в ComfyUI, в том числе со свежей LTX-2, и сделаем Qlora адаптер для модели Gemma 3.

    habr.com/ru/articles/987672/

    #triton #amd #rx7900 #sageattention #flashattention #bitsandbytes #rocm #rocm7 #comfyui #ltx2

  13. This week's bi-weekly #SmartOS release may be of interest to more conservative #Triton operators. Upstream and outside software brought a lot of improvements into the 20260205 SmartOS release.

    Cf. smartdatacenter.topicbox.com/g

  14. @ptribble

    I gotta get off my ass at some point for SmartOS v6-only support. We might be mostly/all there already but I can't remember if some of the JS portions of #smartos need some love. I know #Triton does.

    It's less critical for #Triton except for public/external networks because Triton's internal ones are easily covered by RFC 1918 blocks.

  15. Шпаргалка по инференсу на С++

    Если ты только погружаешься в работу с инференсом на C++ и тебе интересно получить представление о том, как можно собирать и запускать популярные ML-библиотеки, то я рад поделиться базой, которую я использую в своих проектах. Здесь ты найдёшь простые проекты, решающие основные ML-задачи, и немного теории к этому коду. Надеюсь, что приведённый код может стать первой рабочей версией для новых фич в твоих проектах.

    habr.com/ru/articles/986204/

    #C++ #Inference #ML #OpenCV #mediapipe #ocr #yolo #triton #onnxruntime #pybind11

  16. Ускоряем LLM по максимуму. Как я создал кросс-платформенный Flash Attention с поддержкой Turing+ архитектур и не только

    На сегодняшний день трансформеры правят балом хайпа в мире машинного обучения, особенно после появления ChatGPT и ему подобных языковых моделей. Это стало возможным благодаря лежащему в основе их архитектуры механизму внимания (attention), однако он же и является слабым местом с точки зрения производительности и потребления памяти. Хотя в связи с этим и была разработана изящная концепция Flash Attention (Tri Dao), её существующие реализации имеют ряд ограничений. Поэтому представляю вашему вниманию первую и единственную open-source реализацию Flash Attention 2 на Triton с поддержкой Linux и Windows, Turing-Blackwell архитектур (теперь можно работать в Google Colab и Kaggle), гомо и гетерогенных кластеров, опциональным детерминизмом, а также возможностью ручной кастомизации ядер (kernels) для более гибкой настройки под каждую GPU архитектуру отдельно. Более подробно о том как это устроено и не только — далее в статье.

    habr.com/ru/articles/976576/

    #машинное_обучение #transformers #трансформеры #внимание #attention #flashattention #triton #большие_языковые_модели #llm #оптимизация_производительности

  17. Ускоряем LLM по максимуму. Как я создал кросс-платформенный Flash Attention с поддержкой Turing+ архитектур и не только

    На сегодняшний день трансформеры правят балом хайпа в мире машинного обучения, особенно после появления ChatGPT и ему подобных языковых моделей. Это стало возможным благодаря лежащему в основе их архитектуры механизму внимания (attention), однако он же и является слабым местом с точки зрения производительности и потребления памяти. Хотя в связи с этим и была разработана изящная концепция Flash Attention (Tri Dao), её существующие реализации имеют ряд ограничений. Поэтому представляю вашему вниманию первую и единственную open-source реализацию Flash Attention 2 на Triton с поддержкой Linux и Windows, Turing-Blackwell архитектур (теперь можно работать в Google Colab и Kaggle), гомо и гетерогенных кластеров, опциональным детерминизмом, а также возможностью ручной кастомизации ядер (kernels) для более гибкой настройки под каждую GPU архитектуру отдельно. Более подробно о том как это устроено и не только — далее в статье.

    habr.com/ru/articles/976576/

    #машинное_обучение #transformers #трансформеры #внимание #attention #flashattention #triton #большие_языковые_модели #llm #оптимизация_производительности

  18. Ускоряем LLM по максимуму. Как я создал кросс-платформенный Flash Attention с поддержкой Turing+ архитектур и не только

    На сегодняшний день трансформеры правят балом хайпа в мире машинного обучения, особенно после появления ChatGPT и ему подобных языковых моделей. Это стало возможным благодаря лежащему в основе их архитектуры механизму внимания (attention), однако он же и является слабым местом с точки зрения производительности и потребления памяти. Хотя в связи с этим и была разработана изящная концепция Flash Attention (Tri Dao), её существующие реализации имеют ряд ограничений. Поэтому представляю вашему вниманию первую и единственную open-source реализацию Flash Attention 2 на Triton с поддержкой Linux и Windows, Turing-Blackwell архитектур (теперь можно работать в Google Colab и Kaggle), гомо и гетерогенных кластеров, опциональным детерминизмом, а также возможностью ручной кастомизации ядер (kernels) для более гибкой настройки под каждую GPU архитектуру отдельно. Более подробно о том как это устроено и не только — далее в статье.

    habr.com/ru/articles/976576/

    #машинное_обучение #transformers #трансформеры #внимание #attention #flashattention #triton #большие_языковые_модели #llm #оптимизация_производительности

  19. Ускоряем LLM по максимуму. Как я создал кросс-платформенный Flash Attention с поддержкой Turing+ архитектур и не только

    На сегодняшний день трансформеры правят балом хайпа в мире машинного обучения, особенно после появления ChatGPT и ему подобных языковых моделей. Это стало возможным благодаря лежащему в основе их архитектуры механизму внимания (attention), однако он же и является слабым местом с точки зрения производительности и потребления памяти. Хотя в связи с этим и была разработана изящная концепция Flash Attention (Tri Dao), её существующие реализации имеют ряд ограничений. Поэтому представляю вашему вниманию первую и единственную open-source реализацию Flash Attention 2 на Triton с поддержкой Linux и Windows, Turing-Blackwell архитектур (теперь можно работать в Google Colab и Kaggle), гомо и гетерогенных кластеров, опциональным детерминизмом, а также возможностью ручной кастомизации ядер (kernels) для более гибкой настройки под каждую GPU архитектуру отдельно. Более подробно о том как это устроено и не только — далее в статье.

    habr.com/ru/articles/976576/

    #машинное_обучение #transformers #трансформеры #внимание #attention #flashattention #triton #большие_языковые_модели #llm #оптимизация_производительности

  20. Wow a first for me. A USN MQ-4 squawking 7600 at FL502 14 hours into first flight off Okinawa. 7600 mean a radio issue #RQ4 #drone #HALE #Triton #USN #MQ4C

  21. Introducing the most riveting tale of all time: the #love #story between a #GPU and its #graphics, sprinkled with just enough #Triton #jargon to make you nod off faster than a PyTorch Profiler. We've got #parallelism, pheromones, and more tangents than a high school geometry class 💤. Pack your bags, folks, because we're going on an #adventure through a sea of terrifying colors and kernels that nobody asked for! 🚀🌈
    ut21.github.io/blog/triton.html #HackerNews #ngated

  22. Как запустить свою LLM для инференса. Руководство по запуску: Ollama, vLLM, Triton, LM Studio, llama.cpp, SGLang

    В этой статье будет приведено практическое руководство по базовой настройке и запуску следующих инструментов для работы с LLM: Ollama, LM Studio, vLLM, Triton, llama.cpp, SGLang. 🔥 Начинаем? 🔥

    habr.com/ru/articles/948934/

    #ollama #vllm #triton #lm_studio #llamacpp #sglang #запуск_llm

  23. 🎉 Presenting Gluon: the revolutionary GPU programming language nobody asked for, built on Triton's compiler stack because why not reinvent the wheel? 🚀 Now you can struggle with a new syntax while pretending it's somehow superior! 😂 #InnovationWeNeverNeeded
    github.com/triton-lang/triton/ #Gluon #Triton #GPUProgramming #Innovation #Technology #Humor #HackerNews #ngated

  24. ✨ Me revoilà !! Avec des Tritons !
    Il s'agit ici d'illustrations réalisées dans le cadre de restaurations de mares. Un projet bien sympa, à deux pas de la maison ! 👌
    ✨ Voici donc dans l'ordre le Triton alpestre, le Triton marbré et le Triton crêté !
    ✨ Connaissiez-vous ces espèces ?
    ✨ Ces illustrations sont disponibles au petit prix de 22€ par ici 🤓 : clairemotzart.etsy.com/fr/list
    °°°°°°°°
    #triton #newt #amphibien #amphibian #herpetology #herpetologie #wildlife #wildlifephotography #wildlifeart #animals #animauxsauvages #EspècesMenacées #especesprotegees #Science #sciencesnaturelles #ecologie #biodiversite #biologie #illustration #nature #naturaliste #animalrights

  25. ✨ Me revoilà !! Avec des Tritons !
    Il s'agit ici d'illustrations réalisées dans le cadre de restaurations de mares. Un projet bien sympa, à deux pas de la maison ! 👌
    ✨ Voici donc dans l'ordre le Triton alpestre, le Triton marbré et le Triton crêté !
    ✨ Connaissiez-vous ces espèces ?
    ✨ Ces illustrations sont disponibles au petit prix de 22€ par ici 🤓 : clairemotzart.etsy.com/fr/list
    °°°°°°°°
    #triton #newt #amphibien #amphibian #herpetology #herpetologie #wildlife #wildlifephotography #wildlifeart #animals #animauxsauvages #EspècesMenacées #especesprotegees #Science #sciencesnaturelles #ecologie #biodiversite #biologie #illustration #nature #naturaliste #animalrights

  26. ✨ Me revoilà !! Avec des Tritons !
    Il s'agit ici d'illustrations réalisées dans le cadre de restaurations de mares. Un projet bien sympa, à deux pas de la maison ! 👌
    ✨ Voici donc dans l'ordre le Triton alpestre, le Triton marbré et le Triton crêté !
    ✨ Connaissiez-vous ces espèces ?
    ✨ Ces illustrations sont disponibles au petit prix de 22€ par ici 🤓 : clairemotzart.etsy.com/fr/list
    °°°°°°°°
    #triton #newt #amphibien #amphibian #herpetology #herpetologie #wildlife #wildlifephotography #wildlifeart #animals #animauxsauvages #EspècesMenacées #especesprotegees #Science #sciencesnaturelles #ecologie #biodiversite #biologie #illustration #nature #naturaliste #animalrights

  27. ✨ Me revoilà !! Avec des Tritons !
    Il s'agit ici d'illustrations réalisées dans le cadre de restaurations de mares. Un projet bien sympa, à deux pas de la maison ! 👌
    ✨ Voici donc dans l'ordre le Triton alpestre, le Triton marbré et le Triton crêté !
    ✨ Connaissiez-vous ces espèces ?
    ✨ Ces illustrations sont disponibles au petit prix de 22€ par ici 🤓 : clairemotzart.etsy.com/fr/list
    °°°°°°°°
    #triton #newt #amphibien #amphibian #herpetology #herpetologie #wildlife #wildlifephotography #wildlifeart #animals #animauxsauvages #EspècesMenacées #especesprotegees #Science #sciencesnaturelles #ecologie #biodiversite #biologie #illustration #nature #naturaliste #animalrights