home.social

#kaggle — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #kaggle, aggregated by home.social.

  1. Франкенштейн на 30 ГБ RAM: Как мы пересадили мозг Gemma в скелет DeepSeek и сломали Transformers

    Операционная «Ghetto MLOps»: пересадка 31B-мозга Gemma в MoE-экзоскелет DeepSeek. Без наркоза и дообучения.

    habr.com/ru/articles/1028910/

    #llm #deepseek #gemma #transformers #huggingface #pytorch #monkey_patching #moe #kaggle #ghetto_mlops

  2. Франкенштейн на 30 ГБ RAM: Как мы пересадили мозг Gemma в скелет DeepSeek и сломали Transformers Операционная «Ghetto MLOps»: пер...

    #llm #deepseek #gemma #transformers #huggingface #pytorch #monkey #patching #moe #kaggle #ghetto

    Origin | Interest | Match
  3. Запускаем DeepSeek-V4 (1.6T) на «калькуляторе»: SVD-трансмутация, Identity Theft и гаражный MLOps

    Что делать, если у вас есть 1.6-триллионная модель и видеокарта из прошлого десятилетия? Пока корпорации покупают H100 фурами, мы используем SVD-трансмутацию и архитектурный Identity Theft, чтобы запустить DeepSeek-V4 на бесплатном инстансе Kaggle. Инструкция по сборке Мутанта внутри.

    habr.com/ru/articles/1028560/

    #DeepSeekV4Pro #MoE #SVD #Низкоранговое_разложение #Оптимизация_нейросетей #MLOps #Kaggle #NVIDIA_T4 #Сжатие_моделей #Ghetto_AI

  4. Запускаем DeepSeek-V4 (1.6T) на «калькуляторе»: SVD-трансмутация, Identity Theft и гаражный MLOps Что делать, если у вас есть 1.6-...

    #DeepSeek-V4-Pro #MoE #SVD #Низкоранговое #разложение #Оптимизация #нейросетей #MLOps #Kaggle #NVIDIA #T4

    Origin | Interest | Match
  5. Kaggle Benchmarks. «Kaggle уже не тот...»

    В ML/DS сообществе есть шаблонная фраза “Kaggle уже не тот”. Ностальгия по временам ушедшим понятна, но в общем-то очевидно, что драматически меняется вся индустрия и ландшафт соревнований вместе с ним. На смену заголовку, встречавшему кагглеров раньше, “Your Home for Data Science” пришел новый: “The World's AI Proving Ground”. Бенчмарки на Kaggle В 2026 Kaggle окончательно перешел под крыло AI фронтьера от Google DeepMind . Сменился и фокус. Один из больших апдейтов - появление раздела " Benchmarks " и инструментария Kaggle Benchmarks SDK . Вкратце, это фреймворк + инфраструктура, которые позволяют создавать наборы тестов на любой вкус, объединять их в комплексные бенчмарки и быстро прогонять на них большие модели в равных условиях. Можно придумать и реализвать почти любой тест, метрику и механику его прогона. Тесты можно объеденить в группу и уже эта сущность и будет называться бенчмарком. На выходе будут логи, json, метрики, сравнения, лидерборд. И данные, и код бенчмарков можно оставить в приватном датасете, не доступном публично, а можно раскрыть.

    habr.com/ru/articles/1025362/

    #kaggle #benchmarks #boardgames #соревнования #ai

  6. Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B

    TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.

    habr.com/ru/articles/1018682/

    #Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python

  7. Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B

    TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.

    habr.com/ru/articles/1018682/

    #Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python

  8. Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B

    TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.

    habr.com/ru/articles/1018682/

    #Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python

  9. Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B

    TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.

    habr.com/ru/articles/1018682/

    #Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python

  10. Are you into NLP and ML? I release datasets and notebooks at buthonestly.io/resources/ free to use and explore in your own projects!

    Check them out. Available also on Kaggle.

    #nlp #engineering #machinelearning #mldataset #kaggle #freeresources

  11. 尝试使用PaddleOCR-VL 分别在WSL、Windows和Kaggle上部署PaddleOCR-VL 强烈建议 使用vLLM进行部署,这样不会遇到本文中提到的各种显存问题,部署方法可以参考...

    #AI #AI #OCR #PaddleOCR-VL #Kaggle

    Origin | Interest | Match
  12. I just uploaded the final data backup from my Popular Twitter bots project: kaggle.com/datasets/fourtonfis

    It looks like it lost access to Twitter's API on April 27. It was fun while it lasted!

    twitterbots.glitch.me

    #dataviz #dataset #kaggle #twitter #TwitterBots #TwitterPI

  13. Nothing like the #Kaggle #fashion #MNIST variant to make me feel like a real Elle Woods over here doing t-SNE on purses and saliency maps on ankle boots 😅

    github.com/janeadams/fashion_m

    #MachineLearning #WomeninSTEM #AI #ML #tsne #pca #WiDS #Python