home.social

#hệthốnglinux — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #hệthốnglinux, aggregated by home.social.

  1. **Bài viết:**
    Chạy mô hình Qwen3-4B trên PC cũ 6 năm étage với AMD Ryzen 5 2400G? Có và hiệu suất bất ngờ! 🚀
    & tàiття: Một server nhỏ với 16GB RAM, GPU tích hợp Vega 11 đã xử lý 25.9 token/s câu hỏi và 9.76 token/s trả lời. Tài liệu chi tiết công trình (Docker, llama.cpp, Setup AMD) ở đây: #AI #Technology #AMD #Qwen3 #Linux #TechTips #LậpTrìnhAI #TàiNăng #HệThốngLinux
    Ắt评論, cách tối ưuvill-se-game caja lỗi trên ứng dụng!

    reddit.com/r/LocalLLaMA/commen

  2. **Bài viết:**
    Chạy mô hình Qwen3-4B trên PC cũ 6 năm étage với AMD Ryzen 5 2400G? Có và hiệu suất bất ngờ! 🚀
    & tàiття: Một server nhỏ với 16GB RAM, GPU tích hợp Vega 11 đã xử lý 25.9 token/s câu hỏi và 9.76 token/s trả lời. Tài liệu chi tiết công trình (Docker, llama.cpp, Setup AMD) ở đây: #AI #Technology #AMD #Qwen3 #Linux #TechTips #LậpTrìnhAI #TàiNăng #HệThốngLinux
    Ắt评論, cách tối ưuvill-se-game caja lỗi trên ứng dụng!

    reddit.com/r/LocalLLaMA/commen

  3. **Bài viết:**
    Chạy mô hình Qwen3-4B trên PC cũ 6 năm étage với AMD Ryzen 5 2400G? Có và hiệu suất bất ngờ! 🚀
    & tàiття: Một server nhỏ với 16GB RAM, GPU tích hợp Vega 11 đã xử lý 25.9 token/s câu hỏi và 9.76 token/s trả lời. Tài liệu chi tiết công trình (Docker, llama.cpp, Setup AMD) ở đây: #AI #Technology #AMD #Qwen3 #Linux #TechTips #LậpTrìnhAI #TàiNăng #HệThốngLinux
    Ắt评論, cách tối ưuvill-se-game caja lỗi trên ứng dụng!

    reddit.com/r/LocalLLaMA/commen

  4. **Bài viết:**
    Chạy mô hình Qwen3-4B trên PC cũ 6 năm étage với AMD Ryzen 5 2400G? Có và hiệu suất bất ngờ! 🚀
    & tàiття: Một server nhỏ với 16GB RAM, GPU tích hợp Vega 11 đã xử lý 25.9 token/s câu hỏi và 9.76 token/s trả lời. Tài liệu chi tiết công trình (Docker, llama.cpp, Setup AMD) ở đây: #AI #Technology #AMD #Qwen3 #Linux #TechTips #LậpTrìnhAI #TàiNăng #HệThốngLinux
    Ắt评論, cách tối ưuvill-se-game caja lỗi trên ứng dụng!

    reddit.com/r/LocalLLaMA/commen

  5. **Bài viết:**
    Chạy mô hình Qwen3-4B trên PC cũ 6 năm étage với AMD Ryzen 5 2400G? Có và hiệu suất bất ngờ! 🚀
    & tàiття: Một server nhỏ với 16GB RAM, GPU tích hợp Vega 11 đã xử lý 25.9 token/s câu hỏi và 9.76 token/s trả lời. Tài liệu chi tiết công trình (Docker, llama.cpp, Setup AMD) ở đây: #AI #Technology #AMD #Qwen3 #Linux #TechTips #LậpTrìnhAI #TàiNăng #HệThốngLinux
    Ắt评論, cách tối ưuvill-se-game caja lỗi trên ứng dụng!

    reddit.com/r/LocalLLaMA/commen