home.social

#groq — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #groq, aggregated by home.social.

  1. Resumen de Incidentes a partir d…

    Los logs de servidor son registros que capturan la actividad de un servidor, proporcionando información valiosa sobre su funcionamiento. Sin embargo, estos registros pueden volverse ruidosos y difíciles de interpretar, lo que complica la identificación de incidentes.

    norvik.tech/news/resumen-incid

    #Technology #LogsDeServidor #Java #Groq #ResumenesDeIncidentes #NorvikTech #DesarrolloSoftware #TechInnovation

  2. SwiftSlate ist so eine App, die sofort hängen bleibt.

    Ein systemweiter AI-Textassistent für Android: Du tippst z. B. ?fix oder ?formal direkt im Eingabefeld – und dein Text wird sofort ersetzt. Kein Copy-Paste. Kein App-Wechsel. Unterstützt Gemini, Groq und OpenAI-kompatible Endpunkte.

    Für alle, die AI auf Android wirklich im Alltag nutzen wollen, ist das richtig stark.

    #Android #AI #SwiftSlate #OpenSource #Gemini #Groq #Productivity #FOSS #RawInstinctAI #OpenAI

  3. Все переводчики речи в реальном времени — херня. Я написал свой. Тоже херня, но бесплатная

    Перепробовал всё что есть на рынке, потратил на подписки больше чем на кофе, и в итоге сел писать с нуля. Вот что вышло AI Open Source Voice AI Real-time перевод Deepgram Groq Piper TTS STT TTS LLM Google Meet Zoom Личный опыт Elixir Rust macOS Apple Silicon Speech-to-Text Text-to-Speech Сижу на рабочем созвоне. Обсуждаем архитектуру нового сервиса. Технически я всё понимаю - документацию на английском читаю без словаря, код ревьюю, в Slack переписываюсь нормально. А вот когда надо открыть рот и сказать что-то сложнее "I agree" - начинается цирк. Пауза. Подбираю слова. Коллега уже ответил за меня. Знакомо? Мне - до зубного скрежета. Я CTO, последние годы плотно работаю с AI-интеграциями. Могу собрать систему автоматического обзвона клиентов с клонированием голосов, поднять флот ботов для скана Телеги, собрать архитектуру которая выдержит тысячи пользователей за копейки. А сам на созвоне звучу как иностранец с разговорником. Ирония уровня бог. И вот в голове простая картинка: я говорю по-русски, собеседник слышит английский. Он отвечает по-английски, я слышу русский. В реальном времени. Без пауз на 10 секунд. Без субтитров - именно голосом. С любым приложением: Meet, Zoom, Slack, Discord. Пошёл искать. И тут началось.

    habr.com/ru/articles/1019458/

    #realtime_communications #translations #speechtotext #texttospeech #deepgram #groq #elixir #rust #open_source #voice_ai

  4. NVIDIA’s new Vera Rubin platform brings together specialized chips (Vera CPUs, Rubin GPUs, Groq LPUs, and BlueField-4 DPUs) into coordinated, rack-scale systems designed for real-time AI.

    The big shift: AI isn’t just about training models anymore — it’s about orchestrating entire systems to power intelligent, autonomous agents in real time.
    buysellram.com/blog/the-agenti
    #NVIDIAGTC #AgenticAI #VeraRubin #DataCenter #GPU #InferenceFactory #AIInfrastructure #Groq #NVIDIA #NVLink #AIHardware #technology

  5. NVIDIA’s new Vera Rubin platform brings together specialized chips (Vera CPUs, Rubin GPUs, Groq LPUs, and BlueField-4 DPUs) into coordinated, rack-scale systems designed for real-time AI.

    The big shift: AI isn’t just about training models anymore — it’s about orchestrating entire systems to power intelligent, autonomous agents in real time.
    buysellram.com/blog/the-agenti
    #NVIDIAGTC #AgenticAI #VeraRubin #DataCenter #GPU #InferenceFactory #AIInfrastructure #Groq #NVIDIA #NVLink #AIHardware #technology

  6. NVIDIA’s new Vera Rubin platform brings together specialized chips (Vera CPUs, Rubin GPUs, Groq LPUs, and BlueField-4 DPUs) into coordinated, rack-scale systems designed for real-time AI.

    The big shift: AI isn’t just about training models anymore — it’s about orchestrating entire systems to power intelligent, autonomous agents in real time.
    buysellram.com/blog/the-agenti
    #NVIDIAGTC #AgenticAI #VeraRubin #DataCenter #GPU #InferenceFactory #AIInfrastructure #Groq #NVIDIA #NVLink #AIHardware #technology

  7. NVIDIA’s new Vera Rubin platform brings together specialized chips (Vera CPUs, Rubin GPUs, Groq LPUs, and BlueField-4 DPUs) into coordinated, rack-scale systems designed for real-time AI.

    The big shift: AI isn’t just about training models anymore — it’s about orchestrating entire systems to power intelligent, autonomous agents in real time.
    buysellram.com/blog/the-agenti
    #NVIDIAGTC #AgenticAI #VeraRubin #DataCenter #GPU #InferenceFactory #AIInfrastructure #Groq #NVIDIA #NVLink #AIHardware #technology

  8. NVIDIA’s new Vera Rubin platform brings together specialized chips (Vera CPUs, Rubin GPUs, Groq LPUs, and BlueField-4 DPUs) into coordinated, rack-scale systems designed for real-time AI.

    The big shift: AI isn’t just about training models anymore — it’s about orchestrating entire systems to power intelligent, autonomous agents in real time.
    buysellram.com/blog/the-agenti
    #NVIDIAGTC #AgenticAI #VeraRubin #DataCenter #GPU #InferenceFactory #AIInfrastructure #Groq #NVIDIA #NVLink #AIHardware #technology

  9. SRAM. Static RAM. The stuff used for CPU caches, including AMD's 3D chips.

    There have been mumbles of CPU prices spiking like DRAM....this may be part of why.

    "Companies like Cerebras, Groq, and d-Matrix are designing AI inference chips that use massive amounts of on-chip SRAM instead of relying on external DRAM (HBM), which significantly reduces latency and power consumption."

    nVidia bought Groq. Amazon and Cerebras just signed a deal. Cerebras’ WSE-3 chip includes 900,000 cores and 44 gigabytes of on-chip SRAM.

    Wait for it...............

    #ai #dram #memory #sram #datacenters #gpu #cerebras #groq #amazon #nvidia

  10. Nvidia’s $20B AI chip may outpace ChatGPT’s capabilities NVIDIA is preparing to unveil a new AI inference chip at its annual NVIDIA GTC, designed to generate responses faster than current syste...

    #Tech #FuriosaAI #Groq #Meta #Nvidia #OpenAI

    Origin | Interest | Match
  11. Nvidia’s $20B AI chip may outpace ChatGPT’s capabilities NVIDIA is preparing to unveil a new AI inference chip at its annual NVIDIA GTC, designed to generate responses faster than current syste...

    #Tech #FuriosaAI #Groq #Meta #Nvidia #OpenAI

    Origin | Interest | Match
  12. Nvidia’s $20B AI chip may outpace ChatGPT’s capabilities NVIDIA is preparing to unveil a new AI inference chip at its annual NVIDIA GTC, designed to generate responses faster than current syste...

    #Tech #FuriosaAI #Groq #Meta #Nvidia #OpenAI

    Origin | Interest | Match
  13. Nvidia’s $20B AI chip may outpace ChatGPT’s capabilities NVIDIA is preparing to unveil a new AI inference chip at its annual NVIDIA GTC, designed to generate responses faster than current syste...

    #Tech #FuriosaAI #Groq #Meta #Nvidia #OpenAI

    Origin | Interest | Match
  14. Nvidia’s $20B AI chip may outpace ChatGPT’s capabilities NVIDIA is preparing to unveil a new AI inference chip at its annual NVIDIA GTC, designed to generate responses faster than current syste...

    #Tech #FuriosaAI #Groq #Meta #Nvidia #OpenAI

    Origin | Interest | Match
  15. Nvidia’s $20B AI chip may outpace ChatGPT’s capabilities NVIDIA is preparing to unveil a new AI inference chip at its annual NVIDIA GTC, designed to generate responses faster than current syste...

    #Tech #FuriosaAI #Groq #Meta #Nvidia #OpenAI

    Origin | Interest | Match
  16. Nvidia’s $20B AI chip may outpace ChatGPT’s capabilities NVIDIA is preparing to unveil a new AI inference chip at its annual NVIDIA GTC, designed to generate responses faster than current syste...

    #Tech #FuriosaAI #Groq #Meta #Nvidia #OpenAI

    Origin | Interest | Match
  17. Hey #Nebius & #Groq, as a software developer, I would love to see Minimax-M2.5 running in Finland. The potential inference speed would be a game-changer. Thanks! #AI #LLM #Developer #Finland #EU
  18. The sheer number of documents, being shredded, at every contractor that did business with #groq, in this last week, would explode your head.

    #latestagecapitalism #humanism

  19. It is 2026.

    Every digital thought must have providence, without data leakage.

    Trust is the new market. verify is the new infrastructure.

    In real-time. #groq

    We can human, if we try.

    #humanism

  20. techspot.com/news/110723-nvidi “The Groq deal fits a pattern Silicon Valley observers call a hackquisition – a transaction that isn't legally an acquisition but operates similarly in practice” #Hackquisition #corruption #NVIDIA #Groq #secrecy #AIBubble

  21. #Nvidia secured a non-exclusive licensing agreement with #Groq, an #AIchip startup, for $20 billion. The deal aims to bring Groq’s CEO, #JonathanRoss, on board, along with their #inferencetechnology and #intellectualproperty. This move is seen as a strategic move to counter #Google’s success with #TPUs and maintain Nvidia’s dominance in the #AIchipmarket. spyglass.org/nvidia-groq-deal/ #tech #media #news

  22. #Nvidia secured a non-exclusive licensing agreement with #Groq, an #AIchip startup, for $20 billion. The deal aims to bring Groq’s CEO, #JonathanRoss, on board, along with their #inferencetechnology and #intellectualproperty. This move is seen as a strategic move to counter #Google’s success with #TPUs and maintain Nvidia’s dominance in the #AIchipmarket. spyglass.org/nvidia-groq-deal/ #tech #media #news

  23. #Nvidia secured a non-exclusive licensing agreement with #Groq, an #AIchip startup, for $20 billion. The deal aims to bring Groq’s CEO, #JonathanRoss, on board, along with their #inferencetechnology and #intellectualproperty. This move is seen as a strategic move to counter #Google’s success with #TPUs and maintain Nvidia’s dominance in the #AIchipmarket. spyglass.org/nvidia-groq-deal/ #tech #media #news

  24. #Nvidia secured a non-exclusive licensing agreement with #Groq, an #AIchip startup, for $20 billion. The deal aims to bring Groq’s CEO, #JonathanRoss, on board, along with their #inferencetechnology and #intellectualproperty. This move is seen as a strategic move to counter #Google’s success with #TPUs and maintain Nvidia’s dominance in the #AIchipmarket. spyglass.org/nvidia-groq-deal/ #tech #media #news

  25. #Nvidia secured a non-exclusive licensing agreement with #Groq, an #AIchip startup, for $20 billion. The deal aims to bring Groq’s CEO, #JonathanRoss, on board, along with their #inferencetechnology and #intellectualproperty. This move is seen as a strategic move to counter #Google’s success with #TPUs and maintain Nvidia’s dominance in the #AIchipmarket. spyglass.org/nvidia-groq-deal/ #tech #media #news

  26. Nvidia nie bierze jeńców. Wydaje 20 mld dolarów na „mózgi” Groq w największej transakcji w swojej historii

    Mieli być „pogromcą Nvidii”, oferując szybsze i tańsze chipy do AI. Zamiast tego, ich szefowie i technologia właśnie trafili pod skrzydła Jensena Huanga.

    Nvidia cementuje swoją pozycję monopolisty, wydając rekordowe 20 miliardów dolarów w kontrowersyjnym modelu „acquihire”.

    Groq był gwiazdą startupów AI. Ich procesory LPU (Language Processing Units) obiecywały to, czego GPU Nvidii nie potrafiły: błyskawiczne generowanie odpowiedzi (inference) przy ułamku kosztów energii. Firma budowała nawet własne centra danych w Europie i otwarcie oskarżała Nvidię o praktyki monopolistyczne. Cóż, jak mówi stare porzekadło: jeśli nie możesz ich pokonać, kup ich.

    Najdroższe „CV” w historii

    Według doniesień Tom’s Hardware, transakcja jest majstersztykiem prawnym, mającym na celu ominięcie urzędów antymonopolowych. Nvidia nie kupuje firmy Groq (co zablokowałaby Federalna Komisja Handlu). Zamiast tego:

    • Płaci 20 miliardów dolarów za niewyłączną licencję na własność intelektualną Groq.
    • Zatrudnia kluczowych pracowników, w tym założyciela i CEO Jonathana Rossa (twórcę układów TPU Google’a) oraz prezydenta Sunny’ego Madrę.

    To model działania znany jako „acquihire” (przejęcie dla talentów), który w ostatnich latach stosowały Microsoft (z Inflection AI) i Amazon (z Adept).

    Co zyskuje Nvidia?

    Jensen Huang, CEO Nvidii, powiedział wprost: „Planujemy zintegrować procesory Groq o niskich opóźnieniach z architekturą fabryk AI Nvidii”. Oznacza to, że firma łata swoją jedyną słabość – wydajność w tzw. inference (wnioskowaniu). Nvidia ma najlepsze chipy do uczenia AI, ale Groq miał lepsze do jej obsługi. Teraz Nvidia ma obie te rzeczy.

    Groq jako „wydmuszka”?

    Formalnie Groq pozostaje niezależną firmą. Nowym CEO zostanie dotychczasowy dyrektor finansowy Simon Edwards, a usługa GroqCloud ma działać bez zmian. Pytanie jednak, czym jest firma technologiczna bez swoich założycieli, kluczowych inżynierów i z technologią, którą właśnie oddała największemu konkurentowi?

    Dla rynku to jasny sygnał: w 2026 roku Nvidia zamierza być jedynym liczącym się graczem. A 20 miliardów dolarów to dla nich niska cena za święty spokój.

    Koniec eldorado w chmurze. Od 1 stycznia NVIDIA wprowadza sztywne limity w GeForce Now

    #AIInference #Groq #JensenHuang #JonathanRoss #LPU #nvidia #przejęcie #rynekChipów #sztucznaInteligencja
  27. Nvidia just blew $20 billion on #Groq, but somehow reading about it costs even more. 🚫💸 Apparently, the internet's new #AI protocol is "Access Denied" — a groundbreaking feature in digital storytelling. 🙄📉
    cnbc.com/2025/12/24/nvidia-buy #Nvidia #AccessDenied #DigitalStorytelling #TechNews #HackerNews #ngated

  28. От Telegram-бота к AI-агенту: как собрать своего «исполнителя задач» на Python в 2025-м

    В 2023–2024 почти каждый второй pet-проект с LLM выглядел как чатик: ты спрашиваешь — модель отвечает, иногда с RAG, иногда без. В 2025-м тренд сместился: на рынке всё чаще говорят про AI-агентов — системы, которые не просто болтают, а сами инициируют действия, ходят в API, планируют шаги и живут в продакшене как часть инфраструктуры. В прошлых проектах я уже собирал Telegram-ботов: от простого «ресепшена» для малого бизнеса на aiogram 3.x до RAG-консультанта по железу «Кремний» на бесплатном стеке Groq + sentence-transformers. Логичный следующий шаг — научить бота не только отвечать в диалоге, но и самостоятельно выполнять задачи в фоне: следить за ценами на железо, мониторить статусы заказов или пинговать при аномалиях. В этой статье разберём на практике минимальный AI-агент вокруг Telegram-бота: архитектуру, стек и рабочий код на Python. Получится небольшой, но честный «исполнитель задач», которого можно дорастить до чего-то полезного в проде. Собираем AI-агента для бота

    habr.com/ru/articles/972802/

    #AIагенты #Telegramбот #Python #aiogram #LLM #автоматизация #мониторинг_цен #машинное_обучение #Groq #OpenAI_API

  29. Как я собрал Telegram-бота-консультанта по железу на бесплатном стеке (RAG + Groq + python telegram bot)

    Представьте консультанта в DNS/Ситилинке, который не навязывает «вот этот блок питания потому что остался на складе», а спокойно объясняет, чем один БП лучше другого под ваш билд, помнит, о чём вы спрашивали раньше и ещё просит вежливый фидбек. В статье рассказываю, как собрал такого консультанта в виде Telegram‑бота «Кремний» — RAG‑бота по железу на бесплатных инструментах (Telegram Bot API, Groq с Llama 3.1 8B, sentence‑transformers) и что за «чуть‑чуть боли» произошло с NumPy и Pterodactyl при деплое. Telegram‑бот‑консультант по железу

    habr.com/ru/articles/969740/

    #telegrambot #pythontelegrambot #RAG #LLM #Groq #Llama_3 #машинное_обучение #нейросети #NumPy #PyTorch

  30. I have updated my question type to confirm compatibility with Moodle 5.1

    You can get an instant access to experiment with it as a student here

    examulator.com/g/

    This Moodle question type accepts free text and feedback is given by a remote Large system such as , , .ai etc. Each question can have its own feedback and grading prompts.

    moodle.org/plugins/qtype_aitext

  31. 🚀 #Groq launches remote #MCP support in beta on #GroqCloud - connecting #AI models to external tools with zero code changes for #OpenAI users

    #MCP provides universal interface to thousands of tools, transforming isolated language models into powerful, connected systems with #GitHub, browsers, databases & more

    🔄 Drop-in compatibility means existing #OpenAI #Responses API and #MCP integrations work instantly - just change endpoint to #GroqCloud for faster execution and lower costs

    🧵 👇

  32. [Перевод] Архитектура LPU и будущее AI без задержек

    Команда AI for Devs подготовила перевод статьи о том, как Groq пытается устранить главное «бутылочное горлышко» современного ИИ — задержку. Их специализированный процессор LPU обещает скорость в реальном времени и открывает путь к новым приложениям: от финансовых систем до Coding AI-ботов. Но за пределами маркетинга остаются вопросы: что с большими контекстами, какова конкуренция с Cerebras и GPU, и выдержит ли бизнес-модель такие вызовы?

    habr.com/ru/articles/945894/

    #Groq #LPU #инференс #задержка #ai #gpu

  33. I was testing my question type recently using and one of their recent models. I was finding the response rather slow.

    I then switched to inference by (note the q) using OpenAI's gpt-oss-120b and the response was much, much faster and the quality was good.

    These latest experiments with Groq have cost me 2 US cents so far.

    console.groq.com/

  34. 🚨 Still deploying your LLMs on GPUs? You’re wasting time and money.
    Groq’s LPU runs at ⚡500 tokens/sec⚡ with 1ms latency. That’s not hype—it’s production-ready speed.
    Discover 6 real-world apps that prove Groq is rewriting the rules of AI deployment.👇

    👉 medium.com/@rogt.x1997/train-l
    #LLMDeployment #Groq #AIAcceleration
    medium.com/@rogt.x1997/train-l