home.social

#gpu_вычисления — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #gpu_вычисления, aggregated by home.social.

  1. «Мы не догоняем Intel». Как в России создают нейроморфный процессор «Алтай»

    Пока кто-то спорит, догонит ли Россия Intel и AMD в гонке нанометров, небольшая команда в Новосибирске идёт другим путём. Они создают процессор, который потребляет в 1000 раз меньше энергии, чем современные GPU, не использует ни одного зарубежного IP-блока и может работать автономно — от протезов до дата-центров. В стриме телеграм-канала AI4Dev — AI for Development мы поговорили с Валерием Канглером, техническим директором компании «Мотив НТ», о том, как нейроморфный чип «Алтай» бросает вызов архитектуре фон Неймана, почему трансформеры — это не вершина эволюции, и когда в России появится серийное производство процессоров, работающих по принципам человеческого мозга.

    habr.com/ru/articles/997052/

    #нейроморфный_чип #разработка_электроники #процессоры #искусство #искусственные_нейронные_сети #компьютерное_железо #процессоры_intel #нейросети #gpu_вычисления #нейробиология

  2. Обучаем ML-модели и запускаем batch-инференс на YTsaurus, как в Яндексе

    Привет! Меня зовут Алексей Архипенко, я руковожу группой разработки ML‑инфраструктуры в команде YTsaurus. Мы часть Yandex Infrastructure и предоставляем пользователям внутри Яндекса инфраструктурный фундамент для самых разных задач машинного обучения. YTsaurus — основная платформа для хранения и обработки данных Яндекса, которая доступна на GitHub под лицензией Apache 2.0. Это позволяет всем желающим загрузить систему на свои серверы, а также дорабатывать её под свои нужды. Мы уже писали в прошлых постах про её выход в опенсорс и дальнейшее развитие , а также кейсы использования в рекламе . Сегодня расскажу, как Яндекс запускает в ней почти все ML‑обучения и batch‑инференс.

    habr.com/ru/companies/yandex/a

    #ytsaurus #ml #batch_processing #gpu #gpu_вычисления #mapreduce #map_reduce

  3. Обучаем ML-модели и запускаем batch-инференс на YTsaurus, как в Яндексе

    Привет! Меня зовут Алексей Архипенко, я руковожу группой разработки ML‑инфраструктуры в команде YTsaurus. Мы часть Yandex Infrastructure и предоставляем пользователям внутри Яндекса инфраструктурный фундамент для самых разных задач машинного обучения. YTsaurus — основная платформа для хранения и обработки данных Яндекса, которая доступна на GitHub под лицензией Apache 2.0. Это позволяет всем желающим загрузить систему на свои серверы, а также дорабатывать её под свои нужды. Мы уже писали в прошлых постах про её выход в опенсорс и дальнейшее развитие , а также кейсы использования в рекламе . Сегодня расскажу, как Яндекс запускает в ней почти все ML‑обучения и batch‑инференс.

    habr.com/ru/companies/yandex/a

    #ytsaurus #ml #batch_processing #gpu #gpu_вычисления #mapreduce #map_reduce

  4. Обучаем ML-модели и запускаем batch-инференс на YTsaurus, как в Яндексе

    Привет! Меня зовут Алексей Архипенко, я руковожу группой разработки ML‑инфраструктуры в команде YTsaurus. Мы часть Yandex Infrastructure и предоставляем пользователям внутри Яндекса инфраструктурный фундамент для самых разных задач машинного обучения. YTsaurus — основная платформа для хранения и обработки данных Яндекса, которая доступна на GitHub под лицензией Apache 2.0. Это позволяет всем желающим загрузить систему на свои серверы, а также дорабатывать её под свои нужды. Мы уже писали в прошлых постах про её выход в опенсорс и дальнейшее развитие , а также кейсы использования в рекламе . Сегодня расскажу, как Яндекс запускает в ней почти все ML‑обучения и batch‑инференс.

    habr.com/ru/companies/yandex/a

    #ytsaurus #ml #batch_processing #gpu #gpu_вычисления #mapreduce #map_reduce

  5. Обучаем ML-модели и запускаем batch-инференс на YTsaurus, как в Яндексе

    Привет! Меня зовут Алексей Архипенко, я руковожу группой разработки ML‑инфраструктуры в команде YTsaurus. Мы часть Yandex Infrastructure и предоставляем пользователям внутри Яндекса инфраструктурный фундамент для самых разных задач машинного обучения. YTsaurus — основная платформа для хранения и обработки данных Яндекса, которая доступна на GitHub под лицензией Apache 2.0. Это позволяет всем желающим загрузить систему на свои серверы, а также дорабатывать её под свои нужды. Мы уже писали в прошлых постах про её выход в опенсорс и дальнейшее развитие , а также кейсы использования в рекламе . Сегодня расскажу, как Яндекс запускает в ней почти все ML‑обучения и batch‑инференс.

    habr.com/ru/companies/yandex/a

    #ytsaurus #ml #batch_processing #gpu #gpu_вычисления #mapreduce #map_reduce

  6. Учимся разрабатывать для GPU на примере операции GEMM

    Привет, Хабр! Сегодня я расскажу про реализацию матричного умножения и особенности разработки для GPU. Познакомлю вас с устройством GPU, объясню, чем отличается программирование от привычного для CPU, какие нюансы нужно учитывать для эффективной реализации операций GEMM. А затем сравним производительность разных подходов к реализации.

    habr.com/ru/companies/yadro/ar

    #gpu_вычисления #opencl #gemm

  7. Учимся разрабатывать для GPU на примере операции GEMM

    Привет, Хабр! Сегодня я расскажу про реализацию матричного умножения и особенности разработки для GPU. Познакомлю вас с устройством GPU, объясню, чем отличается программирование от привычного для CPU, какие нюансы нужно учитывать для эффективной реализации операций GEMM. А затем сравним производительность разных подходов к реализации.

    habr.com/ru/companies/yadro/ar

    #gpu_вычисления #opencl #gemm

  8. Учимся разрабатывать для GPU на примере операции GEMM

    Привет, Хабр! Сегодня я расскажу про реализацию матричного умножения и особенности разработки для GPU. Познакомлю вас с устройством GPU, объясню, чем отличается программирование от привычного для CPU, какие нюансы нужно учитывать для эффективной реализации операций GEMM. А затем сравним производительность разных подходов к реализации.

    habr.com/ru/companies/yadro/ar

    #gpu_вычисления #opencl #gemm

  9. Учимся разрабатывать для GPU на примере операции GEMM

    Привет, Хабр! Сегодня я расскажу про реализацию матричного умножения и особенности разработки для GPU. Познакомлю вас с устройством GPU, объясню, чем отличается программирование от привычного для CPU, какие нюансы нужно учитывать для эффективной реализации операций GEMM. А затем сравним производительность разных подходов к реализации.

    habr.com/ru/companies/yadro/ar

    #gpu_вычисления #opencl #gemm

  10. Типы и архитектуры параллельных вычислений: какие они бывают?

    Привет, Хабр! В этом материале мы снова вернемся к теме GPU и машинного обучения, но на этот раз поговорим о параллельных вычислениях, видах параллелизма и типах архитектур, которые задействуют для эффективной тренировки и работы нейросетевых моделей.

    habr.com/ru/articles/881488/

    #параллельные_вычисления #gpu #gpu_вычисления #параллелизм #архитектура #глубокое_обучение #глубокие_нейронные_сети #нейронные_сети #нейронные_сети_и_машинное_обучение #cpu

  11. Ускорение LUP-разложения матрицы с помощью OpenCL

    Я являюсь автором проекта по математическому моделированию прикладной механики и в работе моей программы до 90% вычислительного времени уходит на решение системы линейных уравнений. Цель этой статьи сугубо практическая - найти оптимальный метод решения системы линейных уравнений с точки зрения производительность/трудозатрат для небольшого проекта и рассказать о результате. В прошлом я уже несколько раз обращал внимание на вычисления на GPU, но всегда что-то останавливало. И вот у меня накопился достаточный практический опыт программирования на C/C++ и наконец дошли руки, чтобы протестировать OpenCL.

    habr.com/ru/articles/857568/

    #линейная_алгебра #opencl #вычисления #с++ #gpu_вычисления