home.social

#hỏidap — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #hỏidap, aggregated by home.social.

  1. Cụ ông 80 tuổi suýt mất mạng vì sốc nhiễm khuẩn và suy đa tạng do nhiễm trùng đường mật nghiêm trọng, nhưng may mắn được cứu sống sau 14 ngày điều trị tích cực tại Bệnh viện Hồng Ngọc #SốcNhiễmKhẩn #SuyĐaTạng #NhiễmTrùngĐườngMật #CứuSống #YTế #BệnhViệnĐ`ヽK #Bệnh Viện Hồng Ngọc #SứcKhỏe #GiaĐình #YHọc #HỏiĐáp #ThôngTinSứcKhỏe #TinTứcYHọc #TinYSứcKhỏe #NhiễmTrùng #ĐườngMật #BVĐK #BệnhViện # KhỏeMạnh #ChữaTrị #HỗTrợ #TâmHồn #ChămSócSứcKhỏe #DinhDưỡng #PhòngNgừa #ChungChỉ

    vtcnews.vn/14-ngay

  2. Cần xác nhận giới hạn sử dụng Ollama Cloud cho khối lượng token lớn:
    - Hỗ trợ 5-10 triệu token/ngày trên gói trả phí?
    - Có giới hạn cứng hàng ngày/hàng tháng?
    - Cách tính API requests và phân bổ theo độ dài phản hồi.
    - Giới hạn tốc độ, độ đồng thời của mô hình lớn (DeepSeek 671B, Kimi-K2 1T).
    #OllamaCloud #TokenUsage #AILimits #HỏiĐáp #AI #DeepLearning #MáyHọc #CôngNghệMới

    reddit.com/r/ollama/comments/1

  3. Tác giả đang hỏi liệu giao thức Llama.cpp hoặc LM Studio có chạy ổn định trong LXC (Proxmox) trên desktop AMD Framework 395 không? Dù đã biết Llama.cpp hoạt động trong LXC, với CUDA, và trên card AMD 395, nhưng chưa có thông tin cụ thể về kết hợp này. Anh/em có kinh nghiệm về cấu hình này cần hỗ trợ @quý vị chia sẻ! #CôngNghệ #LlamaCPP #LXC #Proxmox #AMD #TiênLượngMôHình #HỏiĐáp #TechVNP #AI #CUDA #Container #FrameworkDesktop #Linux #GPU #DevOps #TechQuestion #Community #IT #MastodonVN

    https://

  4. Có thể chạy mô hình 7B lượng tử hóa trên VPS chỉ dùng CPU? Người dùng hỏi khả năng dùng Ollama với mô hình GGUF (Q4_K_M) trên VPS có RAM tốt (Vitarix), CPU AMD Epyc đạt 2-3 token/giây cho chat. #AI #ML #LLM #HỏiĐáp #MastodonTech #HACK #VietnamTech

    reddit.com/r/LocalLLaMA/commen