home.social

#gemma_4 — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #gemma_4, aggregated by home.social.

  1. Новая модель с 12 млн токенов контекста, и обман Grok на $175 тыс

    13-й выпуск IT-новостей от OpenIDE! Неделя получилась плотной: Grok потерял $175 тыс. без единой строки эксплойт-кода, европейские регуляторы выписали крупный GDPR-штраф «дочке» Яндекса, а Anthropic подписала сделку с куда более неожиданным партнёром. А ещё обновления маркетплейса OpenIDE, новая архитектура SubQ и 423 закрытых бага в Mozilla благодаря Claude Mythos.

    habr.com/ru/companies/haulmont

    #prompt_injection #Grok #Anthropic #Colossus #Claude_Code #Gemma_4 #Firefox #Mozilla #Claude_Mythos #OpenIDE

  2. Новая модель с 12 млн токенов контекста, и обман Grok на $175 тыс

    13-й выпуск IT-новостей от OpenIDE! Неделя получилась плотной: Grok потерял $175 тыс. без единой строки эксплойт-кода, европейские регуляторы выписали крупный GDPR-штраф «дочке» Яндекса, а Anthropic подписала сделку с куда более неожиданным партнёром. А ещё обновления маркетплейса OpenIDE, новая архитектура SubQ и 423 закрытых бага в Mozilla благодаря Claude Mythos.

    habr.com/ru/companies/haulmont

    #prompt_injection #Grok #Anthropic #Colossus #Claude_Code #Gemma_4 #Firefox #Mozilla #Claude_Mythos #OpenIDE

  3. Новая модель с 12 млн токенов контекста, и обман Grok на $175 тыс

    13-й выпуск IT-новостей от OpenIDE! Неделя получилась плотной: Grok потерял $175 тыс. без единой строки эксплойт-кода, европейские регуляторы выписали крупный GDPR-штраф «дочке» Яндекса, а Anthropic подписала сделку с куда более неожиданным партнёром. А ещё обновления маркетплейса OpenIDE, новая архитектура SubQ и 423 закрытых бага в Mozilla благодаря Claude Mythos.

    habr.com/ru/companies/haulmont

    #prompt_injection #Grok #Anthropic #Colossus #Claude_Code #Gemma_4 #Firefox #Mozilla #Claude_Mythos #OpenIDE

  4. Новая модель с 12 млн токенов контекста, и обман Grok на $175 тыс

    13-й выпуск IT-новостей от OpenIDE! Неделя получилась плотной: Grok потерял $175 тыс. без единой строки эксплойт-кода, европейские регуляторы выписали крупный GDPR-штраф «дочке» Яндекса, а Anthropic подписала сделку с куда более неожиданным партнёром. А ещё обновления маркетплейса OpenIDE, новая архитектура SubQ и 423 закрытых бага в Mozilla благодаря Claude Mythos.

    habr.com/ru/companies/haulmont

    #prompt_injection #Grok #Anthropic #Colossus #Claude_Code #Gemma_4 #Firefox #Mozilla #Claude_Mythos #OpenIDE

  5. Топ локальных нейросетей ︎◍ 2026: подборка ИИ для запуска из дома

    Сознаюсь: когда я впервые попытался запустить большую языковую модель на своём ноутбуке, всё закончилось вертушкой кулера, жутким лагом и системным сообщением “Недостаточно памяти”. Казалось, что домашний ИИ – удел владельцев космических станций с жидким азотом. Но прошло совсем немного времени, и ситуация изменилась до неузнаваемости. Теперь достаточно обычной RTX 3060 и получаса свободного вечера, чтобы завести себе персонального ассистента, который работает на даче без интернета и умеет шутить (или хотя бы пытается). Я расскажу обо всём по порядку – без воды и фанатизма. Что вообще запускать, на чём запускать, какие подводные камни ждут и почему “самая новая модель” дома – далеко не всегда лучший выбор. Поехали! Готовьте отвёртку и VRAM – мы начинаем!

    habr.com/ru/companies/bothub/a

    #gemma_4 #qwen36 #qwen35 #gptoss30b #mistral_7b #phi4 #deepseek_v32 #whisper #nemotron_cascade_2

  6. Топ локальных нейросетей ︎◍ 2026: подборка ИИ для запуска из дома

    Сознаюсь: когда я впервые попытался запустить большую языковую модель на своём ноутбуке, всё закончилось вертушкой кулера, жутким лагом и системным сообщением “Недостаточно памяти”. Казалось, что домашний ИИ – удел владельцев космических станций с жидким азотом. Но прошло совсем немного времени, и ситуация изменилась до неузнаваемости. Теперь достаточно обычной RTX 3060 и получаса свободного вечера, чтобы завести себе персонального ассистента, который работает на даче без интернета и умеет шутить (или хотя бы пытается). Я расскажу обо всём по порядку – без воды и фанатизма. Что вообще запускать, на чём запускать, какие подводные камни ждут и почему “самая новая модель” дома – далеко не всегда лучший выбор. Поехали! Готовьте отвёртку и VRAM – мы начинаем!

    habr.com/ru/companies/bothub/a

    #gemma_4 #qwen36 #qwen35 #gptoss30b #mistral_7b #phi4 #deepseek_v32 #whisper #nemotron_cascade_2

  7. Топ локальных нейросетей ︎◍ 2026: подборка ИИ для запуска из дома

    Сознаюсь: когда я впервые попытался запустить большую языковую модель на своём ноутбуке, всё закончилось вертушкой кулера, жутким лагом и системным сообщением “Недостаточно памяти”. Казалось, что домашний ИИ – удел владельцев космических станций с жидким азотом. Но прошло совсем немного времени, и ситуация изменилась до неузнаваемости. Теперь достаточно обычной RTX 3060 и получаса свободного вечера, чтобы завести себе персонального ассистента, который работает на даче без интернета и умеет шутить (или хотя бы пытается). Я расскажу обо всём по порядку – без воды и фанатизма. Что вообще запускать, на чём запускать, какие подводные камни ждут и почему “самая новая модель” дома – далеко не всегда лучший выбор. Поехали! Готовьте отвёртку и VRAM – мы начинаем!

    habr.com/ru/companies/bothub/a

    #gemma_4 #qwen36 #qwen35 #gptoss30b #mistral_7b #phi4 #deepseek_v32 #whisper #nemotron_cascade_2

  8. Топ локальных нейросетей ︎◍ 2026: подборка ИИ для запуска из дома

    Сознаюсь: когда я впервые попытался запустить большую языковую модель на своём ноутбуке, всё закончилось вертушкой кулера, жутким лагом и системным сообщением “Недостаточно памяти”. Казалось, что домашний ИИ – удел владельцев космических станций с жидким азотом. Но прошло совсем немного времени, и ситуация изменилась до неузнаваемости. Теперь достаточно обычной RTX 3060 и получаса свободного вечера, чтобы завести себе персонального ассистента, который работает на даче без интернета и умеет шутить (или хотя бы пытается). Я расскажу обо всём по порядку – без воды и фанатизма. Что вообще запускать, на чём запускать, какие подводные камни ждут и почему “самая новая модель” дома – далеко не всегда лучший выбор. Поехали! Готовьте отвёртку и VRAM – мы начинаем!

    habr.com/ru/companies/bothub/a

    #gemma_4 #qwen36 #qwen35 #gptoss30b #mistral_7b #phi4 #deepseek_v32 #whisper #nemotron_cascade_2

  9. Как мы перестали мерить качество ответов RAG-поиска «на глаз» и начали нормально сравнивать

    Если вы делаете RAG-поиск по документации или базе знаний, то рано или поздно упираетесь в проблему: хорошо найти — это еще не хорошо ответить. База знаний, RAG, найденные чанки, LLM строит ответ. Но пользователь не знает ни про DCG, ни про Recall@10, ни про чанки вообще. Он видит только то, что написано в итоговом ответе. А проблемы начинаются именно здесь: модель может что-то проигнорировать, ответить на другом языке, добавить что-то от себя или выдать уверенный текст с иероглифами посередине. В прошлой статье мы разбирали, как улучшали сам retrieval: чанкование, метаданные, гибридный поиск, реранкинг. Но после того как с поиском более-менее разобрались, встал другой вопрос — как вообще понять, хороший ли ответ получает пользователь? Привет, меня зовут Дима, я делаю ИИ-функции в

    habr.com/ru/companies/gram_ax/

    #RAG #AI #LLM #Qwen35 #Gemma_4 #gemma_3 #бенчмарк

  10. Как мы перестали мерить качество ответов RAG-поиска «на глаз» и начали нормально сравнивать

    Если вы делаете RAG-поиск по документации или базе знаний, то рано или поздно упираетесь в проблему: хорошо найти — это еще не хорошо ответить. База знаний, RAG, найденные чанки, LLM строит ответ. Но пользователь не знает ни про DCG, ни про Recall@10, ни про чанки вообще. Он видит только то, что написано в итоговом ответе. А проблемы начинаются именно здесь: модель может что-то проигнорировать, ответить на другом языке, добавить что-то от себя или выдать уверенный текст с иероглифами посередине. В прошлой статье мы разбирали, как улучшали сам retrieval: чанкование, метаданные, гибридный поиск, реранкинг. Но после того как с поиском более-менее разобрались, встал другой вопрос — как вообще понять, хороший ли ответ получает пользователь? Привет, меня зовут Дима, я делаю ИИ-функции в

    habr.com/ru/companies/gram_ax/

    #RAG #AI #LLM #Qwen35 #Gemma_4 #gemma_3 #бенчмарк

  11. Как мы перестали мерить качество ответов RAG-поиска «на глаз» и начали нормально сравнивать

    Если вы делаете RAG-поиск по документации или базе знаний, то рано или поздно упираетесь в проблему: хорошо найти — это еще не хорошо ответить. База знаний, RAG, найденные чанки, LLM строит ответ. Но пользователь не знает ни про DCG, ни про Recall@10, ни про чанки вообще. Он видит только то, что написано в итоговом ответе. А проблемы начинаются именно здесь: модель может что-то проигнорировать, ответить на другом языке, добавить что-то от себя или выдать уверенный текст с иероглифами посередине. В прошлой статье мы разбирали, как улучшали сам retrieval: чанкование, метаданные, гибридный поиск, реранкинг. Но после того как с поиском более-менее разобрались, встал другой вопрос — как вообще понять, хороший ли ответ получает пользователь? Привет, меня зовут Дима, я делаю ИИ-функции в

    habr.com/ru/companies/gram_ax/

    #RAG #AI #LLM #Qwen35 #Gemma_4 #gemma_3 #бенчмарк

  12. Как мы перестали мерить качество ответов RAG-поиска «на глаз» и начали нормально сравнивать

    Если вы делаете RAG-поиск по документации или базе знаний, то рано или поздно упираетесь в проблему: хорошо найти — это еще не хорошо ответить. База знаний, RAG, найденные чанки, LLM строит ответ. Но пользователь не знает ни про DCG, ни про Recall@10, ни про чанки вообще. Он видит только то, что написано в итоговом ответе. А проблемы начинаются именно здесь: модель может что-то проигнорировать, ответить на другом языке, добавить что-то от себя или выдать уверенный текст с иероглифами посередине. В прошлой статье мы разбирали, как улучшали сам retrieval: чанкование, метаданные, гибридный поиск, реранкинг. Но после того как с поиском более-менее разобрались, встал другой вопрос — как вообще понять, хороший ли ответ получает пользователь? Привет, меня зовут Дима, я делаю ИИ-функции в

    habr.com/ru/companies/gram_ax/

    #RAG #AI #LLM #Qwen35 #Gemma_4 #gemma_3 #бенчмарк

  13. [Перевод] Запускаю Gemma 4 локально в LM Studio: 51 токен/с и Claude Code без интернета

    Ещё вчера для запуска 26-миллиардной нейросети нужен был дата-центр. Сегодня достаточно ноутбука и одной консольной команды. Встречайте: Google Gemma 4 26B-A4B. Модель, которая ломает старые правила. Архитектура mixture-of-experts (128 экспертов, 8 активных на токен) позволяет ей работать на скромных 48 ГБ объединённой памяти, выдавая при этом качество, сопоставимое с гигантами вроде Qwen 3.5 на 397B параметров. А LM Studio 0.4.0 только что сделала локальный запуск таких моделей по-настоящему удобным . Фоновый демон llmster , консольная утилита lms , непрерывный батчинг и – внимание! – эндпойнт, совместимый с Anthropic . Это значит, что вы можете направить Claude Code на свою локальную Gemma 4. Хотите узнать, как заставить эту связку летать? Как правильно рассчитать память под контекст в 256K токенов и почему спекулятивное декодирование — плохая идея для MoE? А главное — сколько это всё жрёт энергии и греет ли ваш Mac? Поехали!

    habr.com/ru/companies/bothub/a

    #gemma_4 #google #lm_studio #claude_code

  14. [Перевод] Запускаю Gemma 4 локально в LM Studio: 51 токен/с и Claude Code без интернета

    Ещё вчера для запуска 26-миллиардной нейросети нужен был дата-центр. Сегодня достаточно ноутбука и одной консольной команды. Встречайте: Google Gemma 4 26B-A4B. Модель, которая ломает старые правила. Архитектура mixture-of-experts (128 экспертов, 8 активных на токен) позволяет ей работать на скромных 48 ГБ объединённой памяти, выдавая при этом качество, сопоставимое с гигантами вроде Qwen 3.5 на 397B параметров. А LM Studio 0.4.0 только что сделала локальный запуск таких моделей по-настоящему удобным . Фоновый демон llmster , консольная утилита lms , непрерывный батчинг и – внимание! – эндпойнт, совместимый с Anthropic . Это значит, что вы можете направить Claude Code на свою локальную Gemma 4. Хотите узнать, как заставить эту связку летать? Как правильно рассчитать память под контекст в 256K токенов и почему спекулятивное декодирование — плохая идея для MoE? А главное — сколько это всё жрёт энергии и греет ли ваш Mac? Поехали!

    habr.com/ru/companies/bothub/a

    #gemma_4 #google #lm_studio #claude_code

  15. [Перевод] Запускаю Gemma 4 локально в LM Studio: 51 токен/с и Claude Code без интернета

    Ещё вчера для запуска 26-миллиардной нейросети нужен был дата-центр. Сегодня достаточно ноутбука и одной консольной команды. Встречайте: Google Gemma 4 26B-A4B. Модель, которая ломает старые правила. Архитектура mixture-of-experts (128 экспертов, 8 активных на токен) позволяет ей работать на скромных 48 ГБ объединённой памяти, выдавая при этом качество, сопоставимое с гигантами вроде Qwen 3.5 на 397B параметров. А LM Studio 0.4.0 только что сделала локальный запуск таких моделей по-настоящему удобным . Фоновый демон llmster , консольная утилита lms , непрерывный батчинг и – внимание! – эндпойнт, совместимый с Anthropic . Это значит, что вы можете направить Claude Code на свою локальную Gemma 4. Хотите узнать, как заставить эту связку летать? Как правильно рассчитать память под контекст в 256K токенов и почему спекулятивное декодирование — плохая идея для MoE? А главное — сколько это всё жрёт энергии и греет ли ваш Mac? Поехали!

    habr.com/ru/companies/bothub/a

    #gemma_4 #google #lm_studio #claude_code

  16. [Перевод] Запускаю Gemma 4 локально в LM Studio: 51 токен/с и Claude Code без интернета

    Ещё вчера для запуска 26-миллиардной нейросети нужен был дата-центр. Сегодня достаточно ноутбука и одной консольной команды. Встречайте: Google Gemma 4 26B-A4B. Модель, которая ломает старые правила. Архитектура mixture-of-experts (128 экспертов, 8 активных на токен) позволяет ей работать на скромных 48 ГБ объединённой памяти, выдавая при этом качество, сопоставимое с гигантами вроде Qwen 3.5 на 397B параметров. А LM Studio 0.4.0 только что сделала локальный запуск таких моделей по-настоящему удобным . Фоновый демон llmster , консольная утилита lms , непрерывный батчинг и – внимание! – эндпойнт, совместимый с Anthropic . Это значит, что вы можете направить Claude Code на свою локальную Gemma 4. Хотите узнать, как заставить эту связку летать? Как правильно рассчитать память под контекст в 256K токенов и почему спекулятивное декодирование — плохая идея для MoE? А главное — сколько это всё жрёт энергии и греет ли ваш Mac? Поехали!

    habr.com/ru/companies/bothub/a

    #gemma_4 #google #lm_studio #claude_code

  17. Тонкая настройка Gemma 4 на Cloud Run Jobs: использование серверных GPU для классификации пород животных

    В этом поколении открытых моделей улучшены возможности рассуждения и эффективность архитектуры. Ниже будет инструкция по дообучению модели на собственных данных. | Если вам интересна тема AI-агентов и внедрения нейросетей, заглядывайте в мой Telegram-канал ДругОпенсурса . Там я публикую свежие новости и разборы инструментов в числе первых. |

    habr.com/ru/articles/1022346/

    #gemma_4 #lora #cloud_run #google_cloud #мультимодальные_модели #машинное+обучение

  18. Тонкая настройка Gemma 4 на Cloud Run Jobs: использование серверных GPU для классификации пород животных

    В этом поколении открытых моделей улучшены возможности рассуждения и эффективность архитектуры. Ниже будет инструкция по дообучению модели на собственных данных. | Если вам интересна тема AI-агентов и внедрения нейросетей, заглядывайте в мой Telegram-канал ДругОпенсурса . Там я публикую свежие новости и разборы инструментов в числе первых. |

    habr.com/ru/articles/1022346/

    #gemma_4 #lora #cloud_run #google_cloud #мультимодальные_модели #машинное+обучение

  19. Тонкая настройка Gemma 4 на Cloud Run Jobs: использование серверных GPU для классификации пород животных

    В этом поколении открытых моделей улучшены возможности рассуждения и эффективность архитектуры. Ниже будет инструкция по дообучению модели на собственных данных. | Если вам интересна тема AI-агентов и внедрения нейросетей, заглядывайте в мой Telegram-канал ДругОпенсурса . Там я публикую свежие новости и разборы инструментов в числе первых. |

    habr.com/ru/articles/1022346/

    #gemma_4 #lora #cloud_run #google_cloud #мультимодальные_модели #машинное+обучение

  20. Тонкая настройка Gemma 4 на Cloud Run Jobs: использование серверных GPU для классификации пород животных

    В этом поколении открытых моделей улучшены возможности рассуждения и эффективность архитектуры. Ниже будет инструкция по дообучению модели на собственных данных. | Если вам интересна тема AI-агентов и внедрения нейросетей, заглядывайте в мой Telegram-канал ДругОпенсурса . Там я публикую свежие новости и разборы инструментов в числе первых. |

    habr.com/ru/articles/1022346/

    #gemma_4 #lora #cloud_run #google_cloud #мультимодальные_модели #машинное+обучение

  21. Локальный AI в Obsidian без подписок: рабочая связка с Ollama, Gemma 4 и Infio Copilot

    Я хотел собрать локального AI-ассистента для Obsidian, который умеет работать по моим заметкам без интернета и подписок. В итоге протестировал несколько подходов, остановился на связке с Obsidian + Ollama + Gemma 4 и посмотрел, насколько это вообще пригодно для повседневной работы.

    habr.com/ru/articles/1022080/

    #obsidian #ollama #gemma_4 #llm #rag #embeddings #markdown #knowledge_base #ai

  22. Локальный AI в Obsidian без подписок: рабочая связка с Ollama, Gemma 4 и Infio Copilot

    Я хотел собрать локального AI-ассистента для Obsidian, который умеет работать по моим заметкам без интернета и подписок. В итоге протестировал несколько подходов, остановился на связке с Obsidian + Ollama + Gemma 4 и посмотрел, насколько это вообще пригодно для повседневной работы.

    habr.com/ru/articles/1022080/

    #obsidian #ollama #gemma_4 #llm #rag #embeddings #markdown #knowledge_base #ai

  23. Локальный AI в Obsidian без подписок: рабочая связка с Ollama, Gemma 4 и Infio Copilot

    Я хотел собрать локального AI-ассистента для Obsidian, который умеет работать по моим заметкам без интернета и подписок. В итоге протестировал несколько подходов, остановился на связке с Obsidian + Ollama + Gemma 4 и посмотрел, насколько это вообще пригодно для повседневной работы.

    habr.com/ru/articles/1022080/

    #obsidian #ollama #gemma_4 #llm #rag #embeddings #markdown #knowledge_base #ai

  24. Локальный AI в Obsidian без подписок: рабочая связка с Ollama, Gemma 4 и Infio Copilot

    Я хотел собрать локального AI-ассистента для Obsidian, который умеет работать по моим заметкам без интернета и подписок. В итоге протестировал несколько подходов, остановился на связке с Obsidian + Ollama + Gemma 4 и посмотрел, насколько это вообще пригодно для повседневной работы.

    habr.com/ru/articles/1022080/

    #obsidian #ollama #gemma_4 #llm #rag #embeddings #markdown #knowledge_base #ai

  25. Утечка Claude Code, Cursor 3 и конец халявы от Anthropic

    Восьмой выпуск еженедельных IT-новостей от OpenIDE. Самая громкая неделя за всё время выпусков: Anthropic слили полные исходники своего флагманского агента, Cursor выпустил третью версию с полным переосмыслением интерфейса, а ещё Anthropic закрыли лазейку, которой пользовались все любители OpenClaw.

    habr.com/ru/companies/haulmont

    #Claude_Code #утечка_исходников #Cursor_3 #Gemma_4 #Qwen_36_Plus #GLM5V_Turbo #OpenClaw #AIагенты

  26. Утечка Claude Code, Cursor 3 и конец халявы от Anthropic

    Восьмой выпуск еженедельных IT-новостей от OpenIDE. Самая громкая неделя за всё время выпусков: Anthropic слили полные исходники своего флагманского агента, Cursor выпустил третью версию с полным переосмыслением интерфейса, а ещё Anthropic закрыли лазейку, которой пользовались все любители OpenClaw.

    habr.com/ru/companies/haulmont

    #Claude_Code #утечка_исходников #Cursor_3 #Gemma_4 #Qwen_36_Plus #GLM5V_Turbo #OpenClaw #AIагенты

  27. Утечка Claude Code, Cursor 3 и конец халявы от Anthropic

    Восьмой выпуск еженедельных IT-новостей от OpenIDE. Самая громкая неделя за всё время выпусков: Anthropic слили полные исходники своего флагманского агента, Cursor выпустил третью версию с полным переосмыслением интерфейса, а ещё Anthropic закрыли лазейку, которой пользовались все любители OpenClaw.

    habr.com/ru/companies/haulmont

    #Claude_Code #утечка_исходников #Cursor_3 #Gemma_4 #Qwen_36_Plus #GLM5V_Turbo #OpenClaw #AIагенты

  28. Утечка Claude Code, Cursor 3 и конец халявы от Anthropic

    Восьмой выпуск еженедельных IT-новостей от OpenIDE. Самая громкая неделя за всё время выпусков: Anthropic слили полные исходники своего флагманского агента, Cursor выпустил третью версию с полным переосмыслением интерфейса, а ещё Anthropic закрыли лазейку, которой пользовались все любители OpenClaw.

    habr.com/ru/companies/haulmont

    #Claude_Code #утечка_исходников #Cursor_3 #Gemma_4 #Qwen_36_Plus #GLM5V_Turbo #OpenClaw #AIагенты

  29. Gemma 4 от Google, утечка Claude Code, Cursor 3.0, нейросеть от Netflix и исследование эмоций Claude

    Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя насыщенная: Google выпустила Gemma 4, Anthropic дважды засветилась с утечками c Mythos, Capybara и исходниками Claude Code. Cursor теперь делают упор на ИИ-агентов, а Netflix неожиданно врывается в ИИ-гонку. Всё самое важное — в одном месте. Поехали! Читать дайджест →

    habr.com/ru/companies/timeweb/

    #дайджест #новости #ии #сатоши_накамото #биткоин #gemma_4 #google #anthropic #IT #нейросети

  30. Gemma 4 от Google, утечка Claude Code, Cursor 3.0, нейросеть от Netflix и исследование эмоций Claude

    Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя насыщенная: Google выпустила Gemma 4, Anthropic дважды засветилась с утечками c Mythos, Capybara и исходниками Claude Code. Cursor теперь делают упор на ИИ-агентов, а Netflix неожиданно врывается в ИИ-гонку. Всё самое важное — в одном месте. Поехали! Читать дайджест →

    habr.com/ru/companies/timeweb/

    #дайджест #новости #ии #сатоши_накамото #биткоин #gemma_4 #google #anthropic #IT #нейросети

  31. Gemma 4 от Google, утечка Claude Code, Cursor 3.0, нейросеть от Netflix и исследование эмоций Claude

    Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя насыщенная: Google выпустила Gemma 4, Anthropic дважды засветилась с утечками c Mythos, Capybara и исходниками Claude Code. Cursor теперь делают упор на ИИ-агентов, а Netflix неожиданно врывается в ИИ-гонку. Всё самое важное — в одном месте. Поехали! Читать дайджест →

    habr.com/ru/companies/timeweb/

    #дайджест #новости #ии #сатоши_накамото #биткоин #gemma_4 #google #anthropic #IT #нейросети

  32. Gemma 4 от Google, утечка Claude Code, Cursor 3.0, нейросеть от Netflix и исследование эмоций Claude

    Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя насыщенная: Google выпустила Gemma 4, Anthropic дважды засветилась с утечками c Mythos, Capybara и исходниками Claude Code. Cursor теперь делают упор на ИИ-агентов, а Netflix неожиданно врывается в ИИ-гонку. Всё самое важное — в одном месте. Поехали! Читать дайджест →

    habr.com/ru/companies/timeweb/

    #дайджест #новости #ии #сатоши_накамото #биткоин #gemma_4 #google #anthropic #IT #нейросети

  33. Google、ローカルハードウェア上で実行できる高性能なマルチモーダル推論モデルGemma 4をオープンソースとしてリリース
    gihyo.jp/article/2026/04/gemma

    #gihyo #技術評論社 #gihyo_jp #Gemma_4 #AI #軽量モデル

  34. Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B

    TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.

    habr.com/ru/articles/1018682/

    #Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python

  35. Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B

    TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.

    habr.com/ru/articles/1018682/

    #Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python

  36. Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B

    TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.

    habr.com/ru/articles/1018682/

    #Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python

  37. Как засунуть 62ГБ в 15ГБ и не сойти с ума: Партизанский MLOps на примере Gemma 4 31B

    TL;DR: В этой статье мы возьмем новейшую Gemma 4 31B, которая в оригинале весит 62 ГБ, и заставим её работать и выгружаться на бесплатном Kaggle с лимитом диска в 57 ГБ. Спойлер: нам придется удалять исходники прямо во время работы Python-скрипта.

    habr.com/ru/articles/1018682/

    #Gemma_4 #LLM #MLOps #Kaggle #Hugging_Face #bitsandbytes #Квантование #NF4 #Transformers #Python