home.social

#localllama — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #localllama, aggregated by home.social.

  1. **Trạng thái AI năm 2026: LLM, lập trình, quy luật mở rộng, Trung Quốc, agent, GPU, AGI. Lex Fridman Podcast #490 phân tích xu hướng công nghệ AI và thách thức tương lai.**
    #AI #LLM #AGI #TechTrend #TríTuệNhânTạo #AI2026 #LocalLLaMA

    *(Dự báo AI 2026: Phát triển LLM mã nguồn mở, tác động của quy mô dữ liệu, vai trò Trung Quốc, tiến bộ GPU và bước gần hơn đến AGI.)*
    #ThuốcNhuộmAI #TươngLaiCôngNghệ #LexFridman #AIInsights

    reddit.com/r/LocalLLaMA/commen

  2. Để ngăn các MCP (công cụ/tài nguyên hữu ích) bị thất lạc sau các cuộc thảo luận, một chỉ mục cộng đồng đã được tạo. Nơi đây sẽ lưu giữ các MCP đáng tin cậy, ghi lại mẹo cài đặt, hạn chế và ghi công người đóng góp. Đây là một nỗ lực phi lợi nhuận, nhằm tổng hợp tài nguyên giá trị và dễ tìm kiếm.

    #MCPs #CommunityIndex #AIResources #OpenSource #LocalLLaMA #ChỉMụcCộngĐồng #TàiNguyênAI #CôngCụAI #PhiLợiNhuận

    reddit.com/r/LocalLLaMA/commen

  3. Việc chạy gpt-oss-120b trên LM Studio với 16GB VRAM và 80GB RAM đạt 6.5 tokens/giây. Nâng cấp 2 GPU 5060Ti & RAM 128GB có cải thiện hiệu suất? #LocalLLaMA #AIperf #TốiưuHARD #HardwareUpgrade

    reddit.com/r/LocalLLaMA/commen

  4. Cộng đồng AI đang thảo luận về cách đánh giá và đo lường hiệu suất (benchmarks và evals) cho các mô hình ngôn ngữ lớn (LLM). Nhiều người gặp khó khăn khi tổ chức dữ liệu và quy trình đánh giá. Mọi người quan tâm đến việc tạo bộ kiểm tra tùy chỉnh và kinh nghiệm thực tế để tránh thông tin cường điệu.
    #LLM #AI #Benchmarks #Evaluations #LocalLLaMA #MôHìnhNgônNgữ #ĐánhGiáAI

    reddit.com/r/LocalLLaMA/commen

  5. Moondream cho phép phân tích video trực tiếp, nhận diện đối tượng và hành động trong thời gian thực! Demo không cần đăng nhập và mã nguồn mở có sẵn trên GitHub. 🚀

    #AI #VideoAnalysis #Moondream #LocalLLaMA #PhânTíchVideo #TríTuệNhânTạo #CôngNghệ

    reddit.com/r/LocalLLaMA/commen

  6. Có thể sử dụng Continue.dev CLI mà không cần tài khoản? Người dùng muốn sử dụng công cụ coding locally và không muốn chia sẻ dữ liệu với các công ty lớn. #ContinueDev #CLILocal #NoAccount #LocalLLaMA #CôngCụLậpTrình #TựHost

    reddit.com/r/LocalLLaMA/commen

  7. Một công ty chia sẻ về hệ thống AI nội bộ để giảm chi phí API. Họ dùng GPU 3090 (hiệu quả chi phí nhất), 4090, 5090 và RTX 6000 pro, xử lý 70-120 triệu token/ngày. Lưu ý về bo mạch chủ ASUS, điện 240v và thách thức làm mát. Cộng đồng LocalLLaMA rất giá trị.
    #AI #LocalLLaMA #GPU #LLM #MachineLearning #TechSetup
    #TríTuệNhânTạo #HệThốngAI #MáyHọc #PhầnCứngAI #CôngNghệ

    reddit.com/r/LocalLLaMA/commen

  8. Ứng dụng trò chuyện AI hoạt động ngoại tuyến, không cần gửi dữ liệu lên đám mây. Người dùng có thể chọn nhân vật và trải nghiệm tức thì, không cần máy chủ. #AI #TròChuyện #ỨngDụng #TríTuệNhânTạo #ArtificialIntelligence #ChatApp #OfflineApp #LocalLLaMA

    reddit.com/r/LocalLLaMA/commen

  9. Một người dùng Mac Mini M4 (16GB) đang tìm kiếm các công cụ và mô hình AI để chạy cục bộ, hỗ trợ lập trình. Họ đã thử Continue.dev + Ollama + qwen2.5-coder:7B để tự động hóa code mẫu, script bash, Python cơ bản. Cần lời khuyên về cách hiệu quả hơn, mô hình tốt cho các tác vụ này (tốc độ >15 token/giây) và tích hợp tốt với VS Code.

    #MacMini #M4 #AI #LocalLLaMA #CodingAssistant #Ollama #ContinueDev #TrợLýLậpTrình #MôHìnhAI #MáyChủCụcBộ #PhầnCứngApple

    reddit.com/r/LocalLLaMA/commen

  10. chatllm.cpp hỗ trợ Janus-Pro: framework tự động hồi tiến đa mô đã thống nhất nhận & sinh đa mô thể nhất trong một mô hình duy nhất. Janus-Pro 1B đã có trên Hugging Face. #JanusPro #chatllmcpp #multimodal #đa_mô #LocalLLaMA

    reddit.com/r/LocalLLaMA/commen

  11. Which VSCode extension you'd prefer to try local LLMs or through Openrouter etc. ?

    #continue #cline #roo #localllama #vscode

  12. Which VSCode extension you'd prefer to try local LLMs or through Openrouter etc. ?

    #continue #cline #roo #localllama #vscode

  13. Which VSCode extension you'd prefer to try local LLMs or through Openrouter etc. ?

    #continue #cline #roo #localllama #vscode

  14. Which VSCode extension you'd prefer to try local LLMs or through Openrouter etc. ?

    #continue #cline #roo #localllama #vscode

  15. Which VSCode extension you'd prefer to try local LLMs or through Openrouter etc. ?

    #continue #cline #roo #localllama #vscode