#pytorch — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #pytorch, aggregated by home.social.
-
Основы глубокого обучения. Часть 1
Приветствую всех! Эта статья будет первой в серии статей про основы глубокого обучения. В этой части я расскажу про то, что такое модели, искусственный интеллект (ИИ), машинное (МО) и глубокое обучение (ГО), про виды этапа обучения моделей, что такое нейронные сети, градиентный спуск и обратное распространение. В конце затронем теорию свёрточных нейронных сетей.
https://habr.com/ru/articles/1034392/
#глубокое_обучение #ai #ии #машинное_обучение #python #numpy #pytorch
-
Smaller models. Lower bandwidth. Portable GPU execution.
How BitNet-style ternary quantization is helping bring efficient LLM inference to ExecuTorch through its Vulkan backend, targeting edge devices where performance and memory matter.
Recap our work from PyTorch Conference Europe 2026: https://www.collabora.com/news-and-blog/blog/2026/04/17/bringing-bitnet-to-executorch-via-vulkan/
-
Нейросети, генетика и десктоп: как я построил микрофреймворк для обучения AI-агентов с неблокирующим GUI
Микрофреймворк для параллельного обучения AI-агентов в средах Gymnasium с графическим интерфейсом на wxPython. Решает классическую проблему «зависшего GUI» при длительном обучении нейросетей: вычисления вынесены в отдельные процессы-сервисы, а интерфейс остаётся полностью отзывчивым. Поддерживает плагинную систему для добавления новых сред, визуализацию прогресса (графики Matplotlib), генетический алгоритм обучения (нейроэволюцию через DEAP) и сборку в один .exe через PyInstaller с автоматическим CI/CD.
https://habr.com/ru/articles/1030208/
#python #нейросети #генетический_алгоритм #нейроэволюция #pytorch #wxpython #multiprocessing #микрофреймворк #desktop_приложение #gui
-
Нейросети, генетика и десктоп: как я построил микрофреймворк для обучения AI-агентов с неблокирующим GUI
Микрофреймворк для параллельного обучения AI-агентов в средах Gymnasium с графическим интерфейсом на wxPython. Решает классическую проблему «зависшего GUI» при длительном обучении нейросетей: вычисления вынесены в отдельные процессы-сервисы, а интерфейс остаётся полностью отзывчивым. Поддерживает плагинную систему для добавления новых сред, визуализацию прогресса (графики Matplotlib), генетический алгоритм обучения (нейроэволюцию через DEAP) и сборку в один .exe через PyInstaller с автоматическим CI/CD.
https://habr.com/ru/articles/1030208/
#python #нейросети #генетический_алгоритм #нейроэволюция #pytorch #wxpython #multiprocessing #микрофреймворк #desktop_приложение #gui
-
Нейросети, генетика и десктоп: как я построил микрофреймворк для обучения AI-агентов с неблокирующим GUI
Микрофреймворк для параллельного обучения AI-агентов в средах Gymnasium с графическим интерфейсом на wxPython. Решает классическую проблему «зависшего GUI» при длительном обучении нейросетей: вычисления вынесены в отдельные процессы-сервисы, а интерфейс остаётся полностью отзывчивым. Поддерживает плагинную систему для добавления новых сред, визуализацию прогресса (графики Matplotlib), генетический алгоритм обучения (нейроэволюцию через DEAP) и сборку в один .exe через PyInstaller с автоматическим CI/CD.
https://habr.com/ru/articles/1030208/
#python #нейросети #генетический_алгоритм #нейроэволюция #pytorch #wxpython #multiprocessing #микрофреймворк #desktop_приложение #gui
-
Нейросети, генетика и десктоп: как я построил микрофреймворк для обучения AI-агентов с неблокирующим GUI
Микрофреймворк для параллельного обучения AI-агентов в средах Gymnasium с графическим интерфейсом на wxPython. Решает классическую проблему «зависшего GUI» при длительном обучении нейросетей: вычисления вынесены в отдельные процессы-сервисы, а интерфейс остаётся полностью отзывчивым. Поддерживает плагинную систему для добавления новых сред, визуализацию прогресса (графики Matplotlib), генетический алгоритм обучения (нейроэволюцию через DEAP) и сборку в один .exe через PyInstaller с автоматическим CI/CD.
https://habr.com/ru/articles/1030208/
#python #нейросети #генетический_алгоритм #нейроэволюция #pytorch #wxpython #multiprocessing #микрофреймворк #desktop_приложение #gui
-
[Перевод] Вредоносный PyTorch Lightning сливал пароли через скрытый JavaScript
30 апреля на PyPI обнаружили новую версию PyTorch Lightning, которая при импорте скачивала Bun и запускала 11,4 МБ опасного JavaScript-вора. Цель — браузеры, облачные API, GitHub-токены. Всего одна строчка импорта: import lightning — и все ваши API-ключи и данные будут скомпрометированы! Полный разбор инцидента внутри. Разобрать инцидент
https://habr.com/ru/articles/1032726/
#python #pytorch #взлом #атака #вредоносный_код #вредоносы #pypi #кибербезопасность #кража_данных #кража_паролей
-
FOSS, single-file, vanilla, save with CTRL + S. This is designed to make single file webpages/programs in absolute position or VW. The keyboard is like Vi. 20 levels per project. #AI #MachineLearning #DeepLearning #DataScience #Python #NLP #ComputerVision #BigData #ArtificialIntelligence #TensorFlow #PyTorch #DataViz #NeuralNetworks #MLOps #LLM
-
FOSS, single-file, vanilla, save with CTRL + S. This is designed to make single file webpages/programs in absolute position or VW. The keyboard is like Vi. 20 levels per project. #AI #MachineLearning #DeepLearning #DataScience #Python #NLP #ComputerVision #BigData #ArtificialIntelligence #TensorFlow #PyTorch #DataViz #NeuralNetworks #MLOps #LLM
-
FOSS, single-file, vanilla, save with CTRL + S. This is designed to make single file webpages/programs in absolute position or VW. The keyboard is like Vi. 20 levels per project. #AI #MachineLearning #DeepLearning #DataScience #Python #NLP #ComputerVision #BigData #ArtificialIntelligence #TensorFlow #PyTorch #DataViz #NeuralNetworks #MLOps #LLM
-
FOSS, single-file, vanilla, save with CTRL + S. This is designed to make single file webpages/programs in absolute position or VW. The keyboard is like Vi. 20 levels per project. #AI #MachineLearning #DeepLearning #DataScience #Python #NLP #ComputerVision #BigData #ArtificialIntelligence #TensorFlow #PyTorch #DataViz #NeuralNetworks #MLOps #LLM
-
FOSS, single-file, vanilla, save with CTRL + S. This is designed to make single file webpages/programs in absolute position or VW. The keyboard is like Vi. 20 levels per project. #AI #MachineLearning #DeepLearning #DataScience #Python #NLP #ComputerVision #BigData #ArtificialIntelligence #TensorFlow #PyTorch #DataViz #NeuralNetworks #MLOps #LLM
-
Почему Chrome весит 7 000 Марио или как сжать «Змейку» в 1 000 раз
На вашем диске лежит семь одинаковых моделей птицы Додо. Не благодарите — это ARK заботливо положил их вам в каждое DLC. Раньше Super Mario Bros весила 40 КБ. Сейчас одно обновление Chrome — это ~7 000 таких Марио. Как мы дошли до жизни такой, и почему все идет по кругу? В статье пройдем путь от тайлов NES до Neural Texture Compression и рассмотрим змейку в трех версиях: по трем вехам сжатия. Одна из них в 1 120 раз меньше первой. И это не та, в которой ИИ.
https://habr.com/ru/companies/selectel/articles/1029402/
#оптимизация #геймдев #нейросети #сжатие_данных #процедурная_генерация #python #pytorch #история_ИТ #алгоритмы #selectel
-
Франкенштейн на 30 ГБ RAM: Как мы пересадили мозг Gemma в скелет DeepSeek и сломали Transformers
Операционная «Ghetto MLOps»: пересадка 31B-мозга Gemma в MoE-экзоскелет DeepSeek. Без наркоза и дообучения.
https://habr.com/ru/articles/1028910/
#llm #deepseek #gemma #transformers #huggingface #pytorch #monkey_patching #moe #kaggle #ghetto_mlops
-
Франкенштейн на 30 ГБ RAM: Как мы пересадили мозг Gemma в скелет DeepSeek и сломали Transformers
Операционная «Ghetto MLOps»: пересадка 31B-мозга Gemma в MoE-экзоскелет DeepSeek. Без наркоза и дообучения.
https://habr.com/ru/articles/1028910/
#llm #deepseek #gemma #transformers #huggingface #pytorch #monkey_patching #moe #kaggle #ghetto_mlops
-
Франкенштейн на 30 ГБ RAM: Как мы пересадили мозг Gemma в скелет DeepSeek и сломали Transformers
Операционная «Ghetto MLOps»: пересадка 31B-мозга Gemma в MoE-экзоскелет DeepSeek. Без наркоза и дообучения.
https://habr.com/ru/articles/1028910/
#llm #deepseek #gemma #transformers #huggingface #pytorch #monkey_patching #moe #kaggle #ghetto_mlops
-
Франкенштейн на 30 ГБ RAM: Как мы пересадили мозг Gemma в скелет DeepSeek и сломали Transformers
Операционная «Ghetto MLOps»: пересадка 31B-мозга Gemma в MoE-экзоскелет DeepSeek. Без наркоза и дообучения.
https://habr.com/ru/articles/1028910/
#llm #deepseek #gemma #transformers #huggingface #pytorch #monkey_patching #moe #kaggle #ghetto_mlops
-
The technical stack sentiment this week is clear:
Ascendant: #Python + #PyTorch + #MLOps + #LLM #GenAI #AgenticAI experience + Cloud.
These are the "Builders".
Debt: Generic software engineering. Pure data annotation. Non-AI cloud migration.
These are the "Reshaped" roles.
If your skill set is in the "Debt" category, the market is telling you to migrate *up* the stack. The window for that migration is closing. -
Red Hat and Tesla engineers tackled a real production problem together.
3x output tokens/sec, 2x faster TTFT on Llama 3.1 70B with KServe + llm-d + vLLM. Fixes pushed upstream to KServe along the way.
This is what open source looks like. 🤝 🚀
https://llm-d.ai/blog/production-grade-llm-inference-at-scale-kserve-llm-d-vllm
#RedHat #Tesla #RedHatAI #vLLM #Pytorch #Kubernetes #OpenShift #KServe #llmd #Llama #OpenSource
-
Red Hat and Tesla engineers tackled a real production problem together.
3x output tokens/sec, 2x faster TTFT on Llama 3.1 70B with KServe + llm-d + vLLM. Fixes pushed upstream to KServe along the way.
This is what open source looks like. 🤝 🚀
https://llm-d.ai/blog/production-grade-llm-inference-at-scale-kserve-llm-d-vllm
#RedHat #Tesla #RedHatAI #vLLM #Pytorch #Kubernetes #OpenShift #KServe #llmd #Llama #OpenSource
-
Red Hat and Tesla engineers tackled a real production problem together.
3x output tokens/sec, 2x faster TTFT on Llama 3.1 70B with KServe + llm-d + vLLM. Fixes pushed upstream to KServe along the way.
This is what open source looks like. 🤝 🚀
https://llm-d.ai/blog/production-grade-llm-inference-at-scale-kserve-llm-d-vllm
#RedHat #Tesla #RedHatAI #vLLM #Pytorch #Kubernetes #OpenShift #KServe #llmd #Llama #OpenSource
-
Red Hat and Tesla engineers tackled a real production problem together.
3x output tokens/sec, 2x faster TTFT on Llama 3.1 70B with KServe + llm-d + vLLM. Fixes pushed upstream to KServe along the way.
This is what open source looks like. 🤝 🚀
https://llm-d.ai/blog/production-grade-llm-inference-at-scale-kserve-llm-d-vllm
#RedHat #Tesla #RedHatAI #vLLM #Pytorch #Kubernetes #OpenShift #KServe #llmd #Llama #OpenSource
-
Red Hat and Tesla engineers tackled a real production problem together.
3x output tokens/sec, 2x faster TTFT on Llama 3.1 70B with KServe + llm-d + vLLM. Fixes pushed upstream to KServe along the way.
This is what open source looks like. 🤝 🚀
https://llm-d.ai/blog/production-grade-llm-inference-at-scale-kserve-llm-d-vllm
#RedHat #Tesla #RedHatAI #vLLM #Pytorch #Kubernetes #OpenShift #KServe #llmd #Llama #OpenSource
-
#NeuralSet turns raw #NeuralRecordings and stimuli into #PyTorch-ready datasets. Supports
🧠 #fMRI, #EEG, #MEG, #iEEG, #spikes… and preprocesses 💬 text 🔊 audio ▶️ video 🏞️ image… #embeddings:📚 https://facebookresearch.github.io/neuroai/neuralset/index.html
📝 https://kingjr.github.io/files/neuralset.pdf -
#NeuralSet turns raw #NeuralRecordings and stimuli into #PyTorch-ready datasets. Supports
🧠 #fMRI, #EEG, #MEG, #iEEG, #spikes… and preprocesses 💬 text 🔊 audio ▶️ video 🏞️ image… #embeddings:📚 https://facebookresearch.github.io/neuroai/neuralset/index.html
📝 https://kingjr.github.io/files/neuralset.pdf -
#NeuralSet turns raw #NeuralRecordings and stimuli into #PyTorch-ready datasets. Supports
🧠 #fMRI, #EEG, #MEG, #iEEG, #spikes… and preprocesses 💬 text 🔊 audio ▶️ video 🏞️ image… #embeddings:📚 https://facebookresearch.github.io/neuroai/neuralset/index.html
📝 https://kingjr.github.io/files/neuralset.pdf -
#NeuralSet turns raw #NeuralRecordings and stimuli into #PyTorch-ready datasets. Supports
🧠 #fMRI, #EEG, #MEG, #iEEG, #spikes… and preprocesses 💬 text 🔊 audio ▶️ video 🏞️ image… #embeddings:📚 https://facebookresearch.github.io/neuroai/neuralset/index.html
📝 https://kingjr.github.io/files/neuralset.pdf -
pip install vllm: The iceberg under a single command
https://developers.redhat.com/articles/2026/04/16/pip-install-vllm-single-command#
-
BitNet-style ternary brings LLM inference to ExecuTorch via its Vulkan backend, enabling much smaller, bandwidth-efficient models with portable GPU execution on edge devices.
Learn more about this work presented at PyTorch Conference Europe 2026: https://www.collabora.com/news-and-blog/blog/2026/04/17/bringing-bitnet-to-executorch-via-vulkan/
-
Как мы провели лоботомию 744-миллиардной нейросети GLM-5.1, чтобы запустить её на 16 ГБ VRAM
У нас не было фермы. У нас была бесплатная виртуальная машина на Kaggle с одной старушкой NVIDIA T4 на 16 ГБ VRAM. И у нас была концепция экстремального MLOps под кодовым названием «Russian Winter 26» . В этой статье я расскажу, как мы вскрыли архитектуру самого тяжелого китайского гиганта, переписали математику матриц внимания, обошли хардкодные ограничения GQA и заставили ядро модели сделать первый вдох на бесплатном железе.
https://habr.com/ru/articles/1022686/
#LLM #MLOps #Hugging_Face #PyTorch #GLM51 #Kaggle #нейросети #оптимизация #тензоры #искусственный_интеллект
-
Как мы провели лоботомию 744-миллиардной нейросети GLM-5.1, чтобы запустить её на 16 ГБ VRAM
У нас не было фермы. У нас была бесплатная виртуальная машина на Kaggle с одной старушкой NVIDIA T4 на 16 ГБ VRAM. И у нас была концепция экстремального MLOps под кодовым названием «Russian Winter 26» . В этой статье я расскажу, как мы вскрыли архитектуру самого тяжелого китайского гиганта, переписали математику матриц внимания, обошли хардкодные ограничения GQA и заставили ядро модели сделать первый вдох на бесплатном железе.
https://habr.com/ru/articles/1022686/
#LLM #MLOps #Hugging_Face #PyTorch #GLM51 #Kaggle #нейросети #оптимизация #тензоры #искусственный_интеллект
-
Как мы провели лоботомию 744-миллиардной нейросети GLM-5.1, чтобы запустить её на 16 ГБ VRAM
У нас не было фермы. У нас была бесплатная виртуальная машина на Kaggle с одной старушкой NVIDIA T4 на 16 ГБ VRAM. И у нас была концепция экстремального MLOps под кодовым названием «Russian Winter 26» . В этой статье я расскажу, как мы вскрыли архитектуру самого тяжелого китайского гиганта, переписали математику матриц внимания, обошли хардкодные ограничения GQA и заставили ядро модели сделать первый вдох на бесплатном железе.
https://habr.com/ru/articles/1022686/
#LLM #MLOps #Hugging_Face #PyTorch #GLM51 #Kaggle #нейросети #оптимизация #тензоры #искусственный_интеллект
-
Как мы провели лоботомию 744-миллиардной нейросети GLM-5.1, чтобы запустить её на 16 ГБ VRAM
У нас не было фермы. У нас была бесплатная виртуальная машина на Kaggle с одной старушкой NVIDIA T4 на 16 ГБ VRAM. И у нас была концепция экстремального MLOps под кодовым названием «Russian Winter 26» . В этой статье я расскажу, как мы вскрыли архитектуру самого тяжелого китайского гиганта, переписали математику матриц внимания, обошли хардкодные ограничения GQA и заставили ядро модели сделать первый вдох на бесплатном железе.
https://habr.com/ru/articles/1022686/
#LLM #MLOps #Hugging_Face #PyTorch #GLM51 #Kaggle #нейросети #оптимизация #тензоры #искусственный_интеллект
-
DiffQuant: прямая оптимизация коэффициента Шарпа через дифференцируемый торговый симулятор
Большинство ML -систем для трейдинга оптимизируют MSE , а оценивают по коэффициенту Sharpe . В DiffQuant этот разрыв убран: весь путь от рыночных признаков до позиции, PnL и издержек собран в единый дифференцируемый граф. Градиент проходит не через proxy -цель, а через саму торговую механику. На двух последовательных held-out кварталах прототип показал Sharpe +1.73 и +1.15 после учёта комиссий. Код, данные и протокол эксперимента открыты. Это не готовая торговая система - это другая постановка задачи.
https://habr.com/ru/articles/1022254/
#machine_learning #алгоритмическая_торговля #deep_learning #pytorch #quantitative_finance #algorithmic_trading #quantitative_research #differentiable_programming #itransformer #backtesting
-
Укрощаем рыночный хаос: Пишем Liquid Neural Network (LNN) на PyTorch для алготрейдинга
Если вы когда-нибудь пытались натравить классическую LSTM на минутные свечи волатильных активов, вы знаете эту боль. Сначала Loss красиво падает на трейне, вы предвкушаете покупку острова, а на тесте модель превращается в тыкву. Она либо предсказывает скользящую среднюю со сдвигом на один шаг, либо упирается в «стену» Loss = 0.693 (то есть −ln(0.5)), сводя всё к подбрасыванию монетки. Проблема не в вас. Проблема в том, что рекуррентные сети (RNN, LSTM, GRU) живут в дискретном времени. Для них шаг между 10:00 и 10:01 абсолютно идентичен шагу между пятницей и утром понедельника. Они не умеют сжимать и растягивать восприятие времени, когда волатильность взрывается. В этой статье мы отойдем от мейнстримных архитектур и напишем с нуля Liquid Neural Network (Жидкую Нейронную Сеть) . Мы заставим время течь непрерывно, используя численные методы дифференциальных уравнений прямо внутри PyTorch-графа, и посмотрим, как она вытаскивает скрытый макро-тренд из абсолютного рыночного хаоса. Теория без воды: Что делает сеть «жидкой»? Концепция Liquid Time-Constant Networks была представлена исследователями из Лаборатории искусственного интеллекта MIT (CSAIL). Их изначальная цель — управление дронами и автопилотами в непредсказуемой среде. Но финансовые рынки — это та же турбулентность, только выраженная в долларах , рублях и других валютах. В классической RNN скрытое состояние $h_t$ обновляется по дискретным шагам: $$h_t = \tanh(W_{in} x_t + W_h h_{t-1} + b)$$ В Liquid Network мы отказываемся от дискретности. Состояние нейрона $h(t)$ — это непрерывная переменная, описываемая обыкновенным дифференциальным уравнением (ОДУ):
https://habr.com/ru/articles/1020630/
#machine_learning #pytorch #liquid_neural_networks #lnn #алготрейдинг #временные_ряды #time_series #ode
-
Как мы перестали писать промпты и превратили ИИ в аналоговый синтезатор через PyTorch Hooks
Спойлер: Никаких банальных ИИ-оберток, где текст конвертируется в звук через API. Только хардкорная хирургия нейросетей, кросс-модальные мосты и перехват мыслей LLM в реальном времени. За последний год Hugging Face превратился в конвейер одинаковых проектов: берем Llama/Gemma, прикручиваем к ней интерфейс на Gradio, называем это стартапом. Мы для нашего виртуального музыкального артиста Livadies решили пойти другим путем. Мы задались вопросом: как звучит чистая мысль нейросети, если не переводить ее в текст? И как звучит математическая геометрия доисторического камня или кожи рептилии? Чтобы это выяснить, нам пришлось вскрывать архитектуры SOTA-моделей и сшивать их напрямую на уровне тензоров. Вот два наших главных инженерных эксперимента.
https://habr.com/ru/articles/1020544/
#pytorch #Hugging_Face #LLM #генерация_музыки #dsp #monkey_patching #кроссмодальность #Livadies #generative_art
-
AI "Killed" by the Linux OOM-Killer? 🛑 Stop the silent assassination.
The 2-min protocol to fix AI crashes:
✅ Strict Mode: vm.overcommit_memory = 2
✅ Full Alloc: vm.overcommit_ratio = 100
✅ Docker Shield: --oom-kill-disableStop Cloud "Memory Ballooning." Get 100% Dedicated RAM on #ServerMO Bare Metal. 🏢⚡
Read the full protocol:
🔗 https://www.servermo.com/howto/stop-linux-oom-killer-ai-crash/#AI #Linux #PyTorch #DevOps #BareMetal #SysAdmin #MachineLearning #OOMKiller #SelfHosted
-
Ever since I bought my #AI mini #workstation from HP, my goal was to run hardware accelerated #ArtificialIntelligence workloads in a #Linux environment. Read more to learn how things turned out on #Ubuntu and @fedora !
https://peter.czanik.hu/posts/new-toy-first-steps-with-ai-on-linux/
-
There‘s now a #PyTorch version of #Cascade 👌, the #spike inference pipeline for #Calcium #imaging, as @ptrrupprecht just explained on his blog:
🌍 https://gcamp6f.com/2026/02/17/cascadetorch-a-pytorch-version-of-cascade-for-spike-inference/
🧑💻 https://github.com/PTRRupprecht/CascadeTorch
📄 https://www.nature.com/articles/s41593-021-00895-5#CascadeTorch #DeepLearning #CompNeuro #Neuroscience #2pImaging #2p #opensource
-
Challenge accepted 💪
Will talk about my Christmas holiday project NanoSchnack @ Cloud Native Heidelberg meetup, Feb 26.
GPT-2 the Hard Way. Building a LLM from scratch.
#transformers #attention #tokens #embeddings #training #pytorch #h100 #inference
-
With the cluster and storage down for maintenance this week, I thought about doing some #pytorch development locally an my laptop. No dedicated GPU, but a recent #intel Core Ultra 2 CPU. So first I went for the CPU-only packages.
Only yesterday I realized that the Windows task manager shows something called #npu in its charts. Fair enough, let's see whether pytorch can use it ...
I have to say, the #xpu pytorch integration has gone a long way. In my case, I could use it as a drop-in replacement for #cuda / #rocm pytorch, yet with the obvious performance differences between HPC GPUs and a laptop iGPU.
https://docs.pytorch.org/docs/stable/notes/get_start_xpu.html
Always nice to have alternatives. Especially for basic testing I don't need big (expensive) GPUs.
-
🎩🚀 Oh, joy! Another #Python #clone of #PyTorch that promises to change the world in a mere 450 lines—because fewer lines mean fewer bugs, right? 😂 Just what we needed: another tool to overcomplicate our already "minimalist" developer lives while stroking GitHub's ego. 🐍👨💻
https://github.com/obround/mytorch #DeveloperLife #Overcomplication #GitHubEgo #HackerNews #ngated -
🍿 Another day, another developer reinventing the wheel—this time by cramming #PyTorch into #TypeScript, because nothing spells "learning" like translating complex libraries into a language nobody asked for. 🤦♂️ I can't wait for the next groundbreaking project: TensorFlow in COBOL. 🎉
https://github.com/13point5/torch.ts #reinventingthewheel #developerhumor #codingstruggles #techirony #HackerNews #ngated -
Как мы построили систему видеоаналитики на open source и довели её до продакшена
Всем привет, я Иван, продакт-менеджер. В этой статье разберу практический опыт построения системы видеоаналитики на базе open source-инструментов: от выбора библиотек и архитектуры до проблем с производительностью и масштабированием под десятки видеопотоков. Материал будет полезен инженерам, тимлидам и продакт-менеджерам и всем тем, кто рассматривает open source как основу для production-ready CV-систем.
https://habr.com/ru/articles/981268/
#видеоаналитика #computer_vision #YOLO #PyTorch #MLOps #cv #opensource
-
Introducing Executorch: the revolutionary breakthrough that lets your #toaster run #PyTorch 🤖🔥, because who wouldn’t want #AI on their bread? 🍞 Meanwhile, developers everywhere are thrilled about "embedding" AI into devices that definitely needed it, like that smart fridge that judges your leftovers. 🍕🚫
https://github.com/pytorch/executorch #Executorch #SmartDevices #FoodTech #HackerNews #ngated -
Executorch: On-device AI across mobile, embedded and edge for PyTorch
https://github.com/pytorch/executorch
#HackerNews #Executorch #OnDeviceAI #PyTorch #Mobile #Edge #Computing #EmbeddedAI
-
Когда сидишь в PHP, а мысли — о Python: как я случайно написал свой pprint
Иногда маленькие вещи случаются не потому, что ты их планировал, а потому что... ну а кто ещё это сделает? Я пару месяцев подряд писал небольшие ML-прототипы на PHP (да, знаю, иногда судьба заносит в странные места), и каждый раз сталкивался с одним и тем же раздражением: массивы печатаются так, будто пытаются скрыть правду. Я смотрю на этот разъехавшийся print_r() , и думаю: а что, если я просто хочу увидеть аккуратную табличку? А если я хочу форматирование как у Python? А если я хочу имитировать пайторчевский tensor([...]) ? Спойлер: я таки написал маленький хелпер. И чем больше я его использовал, тем больше понимал - возможно, он не только про удобство, но и про какое-то внутреннее право на ясность. Этот хелпер - не "фреймворк", не "революция", не "супер-мегапринтер", просто очень маленькая утилитка, которая делает одну вещь и делает её хорошо.
https://habr.com/ru/articles/973396/
#php #prettyprint #pytorch #formatter #form_data #matrix #tensor
-
News from #STMicro as the company updates its #tinyML model zoo - now some 140-models strong, plus with fresh support for #PyTorch after previously pinning its hopes on #tflite.
(The GitHub release isn't ready yet, for some reason, but STMicro says it's coming "soon.")
#Technology #Microcontroller #Programming #ArtificialIntelligence #News #Hackster
-
Собираем ANPR-систему на Python: от YOLOv8 и кастомного OCR до INT8-квантизации
Привет, Хабр! Распознавание автомобильных номеров (ANPR) — задача не новая. Существует множество коммерческих решений и open-source библиотек. Но что, если стандартные инструменты не не подходят? А что, если нам нужна система, которая будет молниеносно работать на обычном CPU, без дорогих видеокарт? Недавно я столкнулся именно с такой задачей. Вместо того чтобы просто "склеить" готовые решения, я решил пройти весь путь ML-инженера от начала до конца: от анализа данных до обучения кастомных SOTA-моделей и их финальной оптимизации. В этой статье я поделюсь всем процессом, кодом, результатами и проблемами, с которыми пришлось столкнуться.