#lậptrinhai — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #lậptrinhai, aggregated by home.social.
-
Làm xong hackathon IBM sau 48h thức trắng, mình vừa tạo ra LazyA – ngôn ngữ lập trình biên dịch (Flex/Bison + LLVM 18) tích hợp AI ngay trong cú pháp. Dùng Ollama local để so sánh ngữ nghĩa (~=), tự sinh code từ docstring có @verify, và không gửi data lên đám mây. 70% code tự viết, 60% bug do AI gây ra. Dự án còn thô nhưng mở để góp ý! #LazyA #AIProgramming #Compiler #Ollama #LLM #LậpTrìnhAI #BiênDịch #Hackathon
#CaffeineHaze #LocalFirst #CSStudent #LLVM #FlexBison -
Orange Pi 6 Plus (12-core ARMv9, 32GB RAM, 45 TOPS AI) bị treo với Ubuntu 24.04 và driver. Thành công chạy QWEN3-30B-A3B (52.82 tokens/s) bằng ik_llama.cpp + cài đặt GCC 12, dùng 4-core CPU. KHÔNG khuyến khích mua do hiệu năng kém. #OrangePi6 #AIHardware #ARM9 #HướngDẫnLinux #LậpTrìnhAI #ThiếtBịAI #TechNews #HackerVn
https://www.reddit.com/r/LocalLLaMA/comments/1qq9n5f/qwen3_on_the_sbc_orange_pi_6_plus/
-
Một dự án cuối tuần với trợ lý AI: sleepli.app – ứng dụng tạo truyện kể trước giờ ngủ, cá nhân hóa và đọc bằng giọng nói được clone từ chính mình. Từ ý tưởng đến MVP chỉ trong vài ngày, dùng AI để thiết kế, lập trình, sao chép giọng và viết nội dung. Hiệu quả, đơn giản và được bé 2.5 tuổi yêu thích! Chia sẻ để truyền cảm hứng cho các side project. #AI #SideProject #MVP #ParentingTech #AIGeneration #LậpTrìnhAI #DựÁnCuốiTuần
https://www.reddit.com/r/SideProject/comments/1qkujpr/ai_assisted_weeken
-
Mẹo nhỏ khi dùng AI để lập trình: Tránh "lệch pha" giữa frontend và backend do AI có xu hướng tạo ra kết quả hợp lý nhưng sai bản chất (completion bias). Giải pháp: Dùng ChatGPT để chia nhỏ nhiệm vụ, chuyển cho Claude Code xử lý, rồi đưa kết quả lại cho ChatGPT rà soát, nhấn mạnh các khái niệm như "ground truth", "provenance". Không dùng cùng một model vì context chung sẽ làm sai lệch. Dùng đa nền tảng để kiểm chứng chéo. #AIProgramming #CodeWithAI #LậpTrìnhAI #TríTuệNhânTạo
https://www.reddit.
-
Phát triển SaaS tốc độ cao với Claude Code: Từ thiết kế đến backend chỉ trong vài ngày. Sau nhiều thử nghiệm với Replit, Gemini, và Apify, chìa khóa thành công là chuyển sang Claude Code + quy trình rõ ràng: PRD chi tiết, chia nhỏ nhiệm vụ, cấu trúc dữ liệu rõ ràng. Backend từng mất tuần mới tiến triển, nay hoàn thành trong 1 giờ. Triển khai saasbizz.com trên Vercel ngày 21/1. #ClaudeCode #SaaS #VibeCoding #AIProgramming #PhátTriểnWeb #XâyDựngSaaS #AI #LậpTrìnhAI
-
NousCoder-14B-GGUF đã ra mắt! Fine-tune từ Qwen3-14B với huấn luyện RL trên 24k bài toán mã hóa, đạt độ chính xác Pass@1 là 67.87% trên LiveCodeBench v6 (tăng 7.08% so với bản gốc). Mô hình được huấn luyện bằng 48 B200 trong 4 ngày. #NousCoder #Qwen3 #LLM #CodeGeneration #AI #NousCoder #Qwen3 #MôHìnhNgônNgữ #LậpTrìnhAI
https://www.reddit.com/r/LocalLLaMA/comments/1q6a32c/nouscoder14bgguf_is_here/
-
Phát hiện "bloat code" từ AI? Mình áp dụng phương pháp "Distill" 4 bước: (1) Ghi log chi tiết mọi nhánh code, (2) Dùng phản hồi đa mô hình (DOM + ảnh chụp màn hình), (3) Lặp 10 lần để tìm "Golden Path", (4) Cắt bỏ mọi phần không dùng sau khi có kết quả thành công. Biến code 100 dòng thành 40 dòng sạch như lập trình viên senior. Bạn có thấy AI sinh quá nhiều fallback vô ích? #AICoding #DistillMethod #LậpTrìnhAI #CodeGọn #AIWorkflow #PhátTriểnPhầnMềm
-
📚 Hướng dẫn toàn diện thiết lập AI cục bộ: Ollama, Qwen, Continue.dev, yêu cầu phần cứng, lỗi thường gặp và benchmark. Dựa trên r/LocalLLaMA, HN và cộng đồng. #AI #LocalAI #LậpTrìnhAI #CôngNghệ #AIcụcbộ #Ollama #Qwen #ContinueDev
https://www.reddit.com/r/programming/comments/1q1c37w/compiled_a_guide_to_local_ai_coding_from/
-
Bạn có gặp khó khăn khi dùng Prompt với Cursor/Claude để coding "theo cảm hứng"? Nhiều lập trình viên chia sẻ áp lực không biết **hỏi gì tiếp** khi xây dựng app/MVP dù đã có ý tưởng: phân bước, độ chi tiết, hay dừng AI lúc nào? Một số người đang tính tạo tool hỗ trợ **tự động tạo Prompt step-by-step** từ ý tưởng app. Bạn có trải nghiệm tương tự? Đóng góp thêm chiến thuật vibe coding nhé!
#AIProgramming #DevTool #CodingTips #LậpTrìnhAI #CôngCụSángTạo -
"Thử xây dựng app với Cursor/Claude nhưng vướng vấn đề xác định prompt gì tiếp theo, phân chia bước, độ chi tiết lệnh hay dừng AI kịp thời. Kết quả: code rối, phải reset lại. Đang xem xét dựng tool hỗ trợ prompt. Bạn gặp phải? #AIcoding #Cursor #Claude #LậptrìnhAI #Pháttriểnsảnphẩm"
https://www.reddit.com/r/SaaS/comments/1prhfoh/anyone_else_struggle_with_what_to_prompt_when/
-
Tạo tiện ích Chrome AI để soạn CV cá nhân và tự động điền đơn ứng tuyển, giải quyết các nền tảng ATS phổ biến (Workday, Greenhouse…). Cần phản hồi về thách thức kỹ thuật, bảo mật & tính năng cần thiết. #AI #CVtựđộng #Tựđộngh化解 #Mastodon #Côngnghệ #TuyểnDụngViệtv2025 #ChromeExtension #LậpTrìnhAI
-
**Giới thiệu thư viện Python ai_infra hỗ trợ Ollama, OpenAI, Anthropic!**
Thư viện giúp bạn viết agent LLM với cùng 1 code cho mọi provider. Tự động nhận diện cấu hình từ env vars hoặc cấu hình rõ ràng. Tính năng nổi bật:
- Chat/streaming với bất kỳ provider
- Agent gọi tool (sử dụng LangGraph)
- Hỗ trợ RAG với backend SQLite, Postgres, Pinecone
- MCP client/server
GitHub: [link] | `pip install ai-infra`
#AI #Python #LLM #Ollama #ThuVienPython #IA #LậpTrìnhAI #MáyHọchttps://www.r
-
Ra mắt Lynkr – một proxy AI lập trình mã nguồn mở theo phong cách Claude, được xây dựng đặc biệt cho các điểm cuối mô hình Databricks. Công cụ này hứa hẹn tối ưu hóa việc phát triển và triển khai AI trên Databricks.
#Lynkr #OpenSource #AI #Coding #Databricks #MãNguồnMở #LậpTrìnhAI
https://www.reddit.com/r/SaaS/comments/1peo9jx/introducing_lynkr_an_opensource_claudestyle_ai/
-
Code Web Chat hỗ trợ Gemini 3 Pro trong AI Studio và Ollama. Plugin mã nguồn mở giúp lập trình AI với chatbot. #AI #Gemini3Pro #Ollama #CodeWebChat #LậpTrìnhAI #TrợLyMãNguồnMở #ArtificialIntelligence #Coding
https://www.reddit.com/r/LocalLLaMA/comments/1p0psp1/code_web_chat_now_supports_gemini_3_pro_in_ai/
-
Lập trình AI chỉ hiệu quả khi stack của bạn có thể dự đoán được. Cần môi trường cấu hình rõ ràng và thống nhất để AI hoạt động tốt. #AILậpTrình #LậpTrìnhAI #SaaS #PhátTriểnPhầnMềm #AI #MachineLearning #Coding #SoftwareDevelopment #DevStudio
https://www.reddit.com/r/SaaS/comments/1ovvmo3/ai_coding_only_works_when_your_stack_is/
-
Vừa xuất bản một bài viết mới bàn về hướng đi của 'vibe coding', 'voice coding' và lập trình có sự hỗ trợ của AI. Chủ đề này mở ra nhiều tiềm năng trong tương lai của ngành lập trình.
#VoiceCoding #AICoding #FutureOfProgramming #LậpTrìnhGiọngNói #LậpTrìnhAI #CôngNghệ -
**Bài viết:**
Chạy mô hình Qwen3-4B trên PC cũ 6 năm étage với AMD Ryzen 5 2400G? Có và hiệu suất bất ngờ! 🚀
& tàiття: Một server nhỏ với 16GB RAM, GPU tích hợp Vega 11 đã xử lý 25.9 token/s câu hỏi và 9.76 token/s trả lời. Tài liệu chi tiết công trình (Docker, llama.cpp, Setup AMD) ở đây: #AI #Technology #AMD #Qwen3 #Linux #TechTips #LậpTrìnhAI #TàiNăng #HệThốngLinux
Ắt评論, cách tối ưuvill-se-game caja lỗi trên ứng dụng!https://www.reddit.com/r/LocalLLaMA/comments/1o734qe/running_qwen34
-
**Bài viết:**
Chạy mô hình Qwen3-4B trên PC cũ 6 năm étage với AMD Ryzen 5 2400G? Có và hiệu suất bất ngờ! 🚀
& tàiття: Một server nhỏ với 16GB RAM, GPU tích hợp Vega 11 đã xử lý 25.9 token/s câu hỏi và 9.76 token/s trả lời. Tài liệu chi tiết công trình (Docker, llama.cpp, Setup AMD) ở đây: #AI #Technology #AMD #Qwen3 #Linux #TechTips #LậpTrìnhAI #TàiNăng #HệThốngLinux
Ắt评論, cách tối ưuvill-se-game caja lỗi trên ứng dụng!https://www.reddit.com/r/LocalLLaMA/comments/1o734qe/running_qwen34
-
**Bài viết:**
Chạy mô hình Qwen3-4B trên PC cũ 6 năm étage với AMD Ryzen 5 2400G? Có và hiệu suất bất ngờ! 🚀
& tàiття: Một server nhỏ với 16GB RAM, GPU tích hợp Vega 11 đã xử lý 25.9 token/s câu hỏi và 9.76 token/s trả lời. Tài liệu chi tiết công trình (Docker, llama.cpp, Setup AMD) ở đây: #AI #Technology #AMD #Qwen3 #Linux #TechTips #LậpTrìnhAI #TàiNăng #HệThốngLinux
Ắt评論, cách tối ưuvill-se-game caja lỗi trên ứng dụng!https://www.reddit.com/r/LocalLLaMA/comments/1o734qe/running_qwen34
-
**Bài viết:**
Chạy mô hình Qwen3-4B trên PC cũ 6 năm étage với AMD Ryzen 5 2400G? Có và hiệu suất bất ngờ! 🚀
& tàiття: Một server nhỏ với 16GB RAM, GPU tích hợp Vega 11 đã xử lý 25.9 token/s câu hỏi và 9.76 token/s trả lời. Tài liệu chi tiết công trình (Docker, llama.cpp, Setup AMD) ở đây: #AI #Technology #AMD #Qwen3 #Linux #TechTips #LậpTrìnhAI #TàiNăng #HệThốngLinux
Ắt评論, cách tối ưuvill-se-game caja lỗi trên ứng dụng!https://www.reddit.com/r/LocalLLaMA/comments/1o734qe/running_qwen34
-
**Bài viết:**
Chạy mô hình Qwen3-4B trên PC cũ 6 năm étage với AMD Ryzen 5 2400G? Có và hiệu suất bất ngờ! 🚀
& tàiття: Một server nhỏ với 16GB RAM, GPU tích hợp Vega 11 đã xử lý 25.9 token/s câu hỏi và 9.76 token/s trả lời. Tài liệu chi tiết công trình (Docker, llama.cpp, Setup AMD) ở đây: #AI #Technology #AMD #Qwen3 #Linux #TechTips #LậpTrìnhAI #TàiNăng #HệThốngLinux
Ắt评論, cách tối ưuvill-se-game caja lỗi trên ứng dụng!https://www.reddit.com/r/LocalLLaMA/comments/1o734qe/running_qwen34
-
Một người dùng đã chia sẻ kinh nghiệm "vibe coding" một tác nhân nghiên cứu AI bằng Cline và GLM 4.5 trên Mac m3u. Quá trình lặp đi lặp lại gồm 6 bước: lên kế hoạch, thực hiện, kiểm tra, xác định điểm yếu và cải thiện. Dù chậm và tốn kém, hệ thống này hoạt động hiệu quả cho mục đích cá nhân, thậm chí tốt hơn chức năng tìm kiếm của OpenwebUI.
#AICode #AgentAI #MacM3U #GLM45 #LậpTrìnhAI #AICoding #ResearchAgent #MacTech #LLM #AIhttps://www.reddit.com/r/LocalLLaMA/comments/1nzr6bt/vibe_coding_a_r