#mohinhai — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #mohinhai, aggregated by home.social.
-
Mô hình AI mới **Trinity-Large-Preview** (400B tham số, 13B hoạt động) đang miễn phí truy cập API qua OpenRouter hoặc tải về theo giấy phép Apache 2.0 trên HuggingFace. #AI #MachineLearning #Technology #MôHìnhAI #HọcMáy
https://www.reddit.com/r/LocalLLaMA/comments/1qqakid/anyone_see_the_new_acree_models/
-
Tôi đã phát triển bộ đánh giá mã nguồn "SanityHarness" và thử nghiệm trên 49 mô hình/agent AI (bao gồm Kimi K2.5). Kết quả chi tiết được công bố trên bảng xếp hạng "SanityBoard" với 6 ngôn ngữ lập trình. Đáng chú ý: nhiều dịch vụ AI tính phí quá đắt như Codebuff ($7.5 cho 9 task), trong khi các nền tảng như Kimi CLI rẻ hơn đáng kể. #AI #CodingBenchmark #VietnameseAI #LậpTrình #MôHìnhAI #KimiK25 #ĐánhGiáAI
https://www.reddit.com/r/LocalLLaMA/comments/1qp4ftj/i_made_a_coding_eval_and_ran_it_again
-
#AI #VoiceAgents #LLM #TríTuệNhânTạo #ĐiềuKhiểnHànhVi #MôHìnhAI
Khi phát triển trợ lý giọng nói, điều gì quan trọng hơn: cải thiện mô hình hay thiết kế ràng buộc hành vi tốt hơn? Một mô hình mạnh không đồng nghĩa với hành vi hợp lý nếu thiếu giới hạn rõ ràng. Kiểm soát phạm vi, ranh giới quyết định và luồng tương tác có thể mang lại hiệu quả cao hơn nâng cấp mô hình. Nhiều người đang tập trung vào thiết kế luồng và giới hạn để đảm bảo độ tin cậy. #XửLýNgônNgữ #AIConstraintshttps://www.reddit
-
🆕 Unsloth ra hướng dẫn chi tiết cách chạy mô hình diffusion Qwen‑Image (2512 & Edit‑2511) trên máy cá nhân. Hướng dẫn bao gồm: • Sử dụng GGUF, FP8 trong ComfyUI, stable‑diffusion.cpp, Diffusers • Tạo workflow & prompt • Điều chỉnh siêu tham số (sampling, guidance). Nhanh chóng đưa AI tạo ảnh chất lượng lên PC!
#AI #MachineLearning #Diffusion #QwenImage #Unsloth #CôngNghệ #AIVietnam #MôHìnhAI #TạoẢnh
https://www.reddit.com/r/LocalLLaMA/comments/1q7e5jk/unsloth_published_a_guide_on_how_to_run
-
Khi làm dự án cá nhân cần dùng mô hình lớn **ở local**, đặc biệt mô hình xử lý **ảnh hoặc video**, bài toán trở nên khó: server thường thì yếu, còn GPU thì quá đắt để dùng lâu dài. Các cách giải quyết? Dùng GPU tạm thời khi cần? Nén mô hình (quantization)? Đẩy tác vụ nặng về thiết bị người dùng? Hay kết hợp? Share kinh nghiệm thực tế nhé! #AI #MachineLearning #MôHìnhAI #TốiƯuChiPhí #SideProject #GPU #Inference
https://www.reddit.com/r/SideProject/comments/1pyokqs/how_do_you_usually_deal_with_th
-
Tìm đối tác hợp tác phát triển AI models trên Fanvue. Người này có 4 AI model, model mới nhất 1 tuần tuổi, đã thu về $467 doanh thu. Tìm người có kinh nghiệm, vốn hoặc kỹ năng marketing để hợp tác lâu dài, chia lợi nhuận 50/50 sau chi phí.
#FanvueAI #AIModels #SideHustle #Startup #BusinessPartner #MMA #Marketing #Entrepreneur #MôHìnhAI #KinhDoanh #HợpTác
https://www.reddit.com/r/SideProject/comments/1pyd4gw/looking_for_a_partner_for_fanvue_ai_models/
-
exllamav3 đã cập nhật, bổ sung hỗ trợ cho các mô hình AI mới như GLM 4.7, GLM 4.6V, Ministral và OLMO 3. Đây là tin tức tuyệt vời cho cộng đồng AI địa phương!
#exllamav3 #AI #LLM #GLM #Ministral #OLMO3 #LocalAI #MôHìnhAI #TríTuệNhânTạo #HỗTrợAIhttps://www.reddit.com/r/LocalLLaMA/comments/1ptom2s/exllamav3_adds_support_for_glm_47_and_46v/
-
AI chatbot có thể giảm 40% chi phí API và độ trễ bằng cách chuyển các truy vấn giới hạn sang mô hình tự lưu trữ nhỏ gọn. Thư viện [Artifex](https://github.com/tanaos/artifex) giúp triển khai dễ dàng mà không cần GPU. #AI #Chatbot #SelfHosting #TiếtKiệmChiPhí #ĐộTrễ #MôHìnhAI
-
Ollama hỗ trợ thêm mô hình olmo 3.1 từ AI2. Bao gồm: Olmo 3.1 Instruct 32B & Think 32B. Sử dụng lệnh: ollama run olmo-3.1:32b-instruct | ollama run olmo-3.1:32b-think. #Ollama #AI2 #MôHìnhAI #MachineLearning
https://www.reddit.com/r/LocalLLaMA/comments/1pnx0qa/ollama_now_supports_olmo_31_models_from_ai2/
-
Nghiên cứu mở nguồn **TimeCapsuleLLM** đào tạo AI chỉ trên dữ liệu London 1800-1875 (90GB) gồm 135.000 tài liệu. Đã phát hiện thiên kiến thời gian, giới tính, địa lý và tạo báo cáo. Mô hình thử nghiệm 300 triệu tham số gặp sự cố tokenizer làm tăng Token gấp đôi. Tiếp theo sẽ đào tạo mô hình 1,2 tỷ tham số. 🔬📊 #AI #LLM #GiáoDụcMở #ThờiGian #London19th
*Hashtags:* #LLM #AIResearch #OpenSource #Biases #TimeTravelAI #ViễnThôngMở #DữLiệuLịchSử #MôHìnhAI
-
Tìm kiếm mô hình AI phù hợp cho nhu cầu của bạn chỉ trong vài giây! Công cụ mới giúp tìm mô hình AI tốt nhất cho ứng dụng, tự động hóa hoặc khám phá AI. #AI #MôHìnhAI #TìmKiếm #TríTuệNhânTạo #ArtificialIntelligence #AIModel #SearchTool
https://www.reddit.com/r/SideProject/comments/1ouz9xi/find_the_perfect_ai_model_for_your_needs/
-
Một người dùng phát hiện các mô hình AI cục bộ gặp khó khăn với tác vụ đơn giản: tìm xếp hạng BBFC của phim. Khi được yêu cầu cung cấp mã để tra cứu xếp hạng (ví dụ: phim 'Conclave'), không mô hình nào đưa ra kết quả hoạt động. Điều này đặt ra câu hỏi về khả năng xử lý dữ liệu thực tế của các LLM cục bộ.
#AI #LLMs #LocalLLM #BBFC #MôHìnhAI #CôngNghệ #GiớiHạnAI #TríTuệNhânTạohttps://www.reddit.com/r/LocalLLaMA/comments/1o4unzu/simple_task_that_local_models_seem_to_fail_on/
-
Một người dùng Mac Mini M4 (16GB) đang tìm kiếm các công cụ và mô hình AI để chạy cục bộ, hỗ trợ lập trình. Họ đã thử Continue.dev + Ollama + qwen2.5-coder:7B để tự động hóa code mẫu, script bash, Python cơ bản. Cần lời khuyên về cách hiệu quả hơn, mô hình tốt cho các tác vụ này (tốc độ >15 token/giây) và tích hợp tốt với VS Code.
#MacMini #M4 #AI #LocalLLaMA #CodingAssistant #Ollama #ContinueDev #TrợLýLậpTrình #MôHìnhAI #MáyChủCụcBộ #PhầnCứngApple
-
Sự phát triển nhanh chóng của các mô hình AI hiện đại đòi hỏi bộ tiêu chuẩn đánh giá sâu rộng năng lực phức tạp, nhằm thúc đẩy hoàn thiện các mô hình ngôn ngữ lớn (LLM) tiên tiến. Các chuyên gia nhấn mạnh, AI càng thông minh, việc đánh giá càng phải toàn diện hơn để đảm bảo an toàn và hiệu quả.
#AI #TríTuệNhânTạo #AIModels #MôHìnhAI #AIEvaluation #ĐánhGiáAI #CôngNghe #Tech