home.social

#lậptrinhai — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #lậptrinhai, aggregated by home.social.

  1. Làm xong hackathon IBM sau 48h thức trắng, mình vừa tạo ra LazyA – ngôn ngữ lập trình biên dịch (Flex/Bison + LLVM 18) tích hợp AI ngay trong cú pháp. Dùng Ollama local để so sánh ngữ nghĩa (~=), tự sinh code từ docstring có @verify, và không gửi data lên đám mây. 70% code tự viết, 60% bug do AI gây ra. Dự án còn thô nhưng mở để góp ý! #LazyA #AIProgramming #Compiler #Ollama #LLM #LậpTrìnhAI #BiênDịch #Hackathon
    #CaffeineHaze #LocalFirst #CSStudent #LLVM #FlexBison

    reddit.com/r/Lo

  2. Orange Pi 6 Plus (12-core ARMv9, 32GB RAM, 45 TOPS AI) bị treo với Ubuntu 24.04 và driver. Thành công chạy QWEN3-30B-A3B (52.82 tokens/s) bằng ik_llama.cpp + cài đặt GCC 12, dùng 4-core CPU. KHÔNG khuyến khích mua do hiệu năng kém. #OrangePi6 #AIHardware #ARM9 #HướngDẫnLinux #LậpTrìnhAI #ThiếtBịAI #TechNews #HackerVn

    reddit.com/r/LocalLLaMA/commen

  3. Một dự án cuối tuần với trợ lý AI: sleepli.app – ứng dụng tạo truyện kể trước giờ ngủ, cá nhân hóa và đọc bằng giọng nói được clone từ chính mình. Từ ý tưởng đến MVP chỉ trong vài ngày, dùng AI để thiết kế, lập trình, sao chép giọng và viết nội dung. Hiệu quả, đơn giản và được bé 2.5 tuổi yêu thích! Chia sẻ để truyền cảm hứng cho các side project. #AI #SideProject #MVP #ParentingTech #AIGeneration #LậpTrìnhAI #DựÁnCuốiTuần

    reddit.com/r/SideProject/comme

  4. Mẹo nhỏ khi dùng AI để lập trình: Tránh "lệch pha" giữa frontend và backend do AI có xu hướng tạo ra kết quả hợp lý nhưng sai bản chất (completion bias). Giải pháp: Dùng ChatGPT để chia nhỏ nhiệm vụ, chuyển cho Claude Code xử lý, rồi đưa kết quả lại cho ChatGPT rà soát, nhấn mạnh các khái niệm như "ground truth", "provenance". Không dùng cùng một model vì context chung sẽ làm sai lệch. Dùng đa nền tảng để kiểm chứng chéo. #AIProgramming #CodeWithAI #LậpTrìnhAI #TríTuệNhânTạo

    https://www.reddit.

  5. Phát triển SaaS tốc độ cao với Claude Code: Từ thiết kế đến backend chỉ trong vài ngày. Sau nhiều thử nghiệm với Replit, Gemini, và Apify, chìa khóa thành công là chuyển sang Claude Code + quy trình rõ ràng: PRD chi tiết, chia nhỏ nhiệm vụ, cấu trúc dữ liệu rõ ràng. Backend từng mất tuần mới tiến triển, nay hoàn thành trong 1 giờ. Triển khai saasbizz.com trên Vercel ngày 21/1. #ClaudeCode #SaaS #VibeCoding #AIProgramming #PhátTriểnWeb #XâyDựngSaaS #AI #LậpTrìnhAI

    reddit.com/r/SaaS/c

  6. NousCoder-14B-GGUF đã ra mắt! Fine-tune từ Qwen3-14B với huấn luyện RL trên 24k bài toán mã hóa, đạt độ chính xác Pass@1 là 67.87% trên LiveCodeBench v6 (tăng 7.08% so với bản gốc). Mô hình được huấn luyện bằng 48 B200 trong 4 ngày. #NousCoder #Qwen3 #LLM #CodeGeneration #AI #NousCoder #Qwen3 #MôHìnhNgônNgữ #LậpTrìnhAI

    reddit.com/r/LocalLLaMA/commen

  7. Phát hiện "bloat code" từ AI? Mình áp dụng phương pháp "Distill" 4 bước: (1) Ghi log chi tiết mọi nhánh code, (2) Dùng phản hồi đa mô hình (DOM + ảnh chụp màn hình), (3) Lặp 10 lần để tìm "Golden Path", (4) Cắt bỏ mọi phần không dùng sau khi có kết quả thành công. Biến code 100 dòng thành 40 dòng sạch như lập trình viên senior. Bạn có thấy AI sinh quá nhiều fallback vô ích? #AICoding #DistillMethod #LậpTrìnhAI #CodeGọn #AIWorkflow #PhátTriểnPhầnMềm

    reddit.com/r/programming/comme

  8. 📚 Hướng dẫn toàn diện thiết lập AI cục bộ: Ollama, Qwen, Continue.dev, yêu cầu phần cứng, lỗi thường gặp và benchmark. Dựa trên r/LocalLLaMA, HN và cộng đồng. #AI #LocalAI #LậpTrìnhAI #CôngNghệ #AIcụcbộ #Ollama #Qwen #ContinueDev

    reddit.com/r/programming/comme

  9. Bạn có gặp khó khăn khi dùng Prompt với Cursor/Claude để coding "theo cảm hứng"? Nhiều lập trình viên chia sẻ áp lực không biết **hỏi gì tiếp** khi xây dựng app/MVP dù đã có ý tưởng: phân bước, độ chi tiết, hay dừng AI lúc nào? Một số người đang tính tạo tool hỗ trợ **tự động tạo Prompt step-by-step** từ ý tưởng app. Bạn có trải nghiệm tương tự? Đóng góp thêm chiến thuật vibe coding nhé!
    #AIProgramming #DevTool #CodingTips #LậpTrìnhAI #CôngCụSángTạo

    reddit.com/r/SideProject/commen

  10. "Thử xây dựng app với Cursor/Claude nhưng vướng vấn đề xác định prompt gì tiếp theo, phân chia bước, độ chi tiết lệnh hay dừng AI kịp thời. Kết quả: code rối, phải reset lại. Đang xem xét dựng tool hỗ trợ prompt. Bạn gặp phải? #AIcoding #Cursor #Claude #LậptrìnhAI #Pháttriểnsảnphẩm"

    reddit.com/r/SaaS/comments/1pr

  11. Tạo tiện ích Chrome AI để soạn CV cá nhân và tự động điền đơn ứng tuyển, giải quyết các nền tảng ATS phổ biến (Workday, Greenhouse…). Cần phản hồi về thách thức kỹ thuật, bảo mật & tính năng cần thiết. #AI #CVtựđộng #Tựđộngh化解 #Mastodon #Côngnghệ #TuyểnDụngViệtv2025 #ChromeExtension #LậpTrìnhAI

    reddit.com/r/SideProject/comme

  12. **Giới thiệu thư viện Python ai_infra hỗ trợ Ollama, OpenAI, Anthropic!**
    Thư viện giúp bạn viết agent LLM với cùng 1 code cho mọi provider. Tự động nhận diện cấu hình từ env vars hoặc cấu hình rõ ràng. Tính năng nổi bật:
    - Chat/streaming với bất kỳ provider
    - Agent gọi tool (sử dụng LangGraph)
    - Hỗ trợ RAG với backend SQLite, Postgres, Pinecone
    - MCP client/server
    GitHub: [link] | `pip install ai-infra`
    #AI #Python #LLM #Ollama #ThuVienPython #IA #LậpTrìnhAI #MáyHọc

    https://www.r

  13. Ra mắt Lynkr – một proxy AI lập trình mã nguồn mở theo phong cách Claude, được xây dựng đặc biệt cho các điểm cuối mô hình Databricks. Công cụ này hứa hẹn tối ưu hóa việc phát triển và triển khai AI trên Databricks.

    #Lynkr #OpenSource #AI #Coding #Databricks #MãNguồnMở #LậpTrìnhAI

    reddit.com/r/SaaS/comments/1pe

  14. Vừa xuất bản một bài viết mới bàn về hướng đi của 'vibe coding', 'voice coding' và lập trình có sự hỗ trợ của AI. Chủ đề này mở ra nhiều tiềm năng trong tương lai của ngành lập trình.
    #VoiceCoding #AICoding #FutureOfProgramming #LậpTrìnhGiọngNói #LậpTrìnhAI #CôngNghệ

    reddit.com/r/programming/comme

  15. **Bài viết:**
    Chạy mô hình Qwen3-4B trên PC cũ 6 năm étage với AMD Ryzen 5 2400G? Có và hiệu suất bất ngờ! 🚀
    & tàiття: Một server nhỏ với 16GB RAM, GPU tích hợp Vega 11 đã xử lý 25.9 token/s câu hỏi và 9.76 token/s trả lời. Tài liệu chi tiết công trình (Docker, llama.cpp, Setup AMD) ở đây: #AI #Technology #AMD #Qwen3 #Linux #TechTips #LậpTrìnhAI #TàiNăng #HệThốngLinux
    Ắt评論, cách tối ưuvill-se-game caja lỗi trên ứng dụng!

    reddit.com/r/LocalLLaMA/commen

  16. **Bài viết:**
    Chạy mô hình Qwen3-4B trên PC cũ 6 năm étage với AMD Ryzen 5 2400G? Có và hiệu suất bất ngờ! 🚀
    & tàiття: Một server nhỏ với 16GB RAM, GPU tích hợp Vega 11 đã xử lý 25.9 token/s câu hỏi và 9.76 token/s trả lời. Tài liệu chi tiết công trình (Docker, llama.cpp, Setup AMD) ở đây: #AI #Technology #AMD #Qwen3 #Linux #TechTips #LậpTrìnhAI #TàiNăng #HệThốngLinux
    Ắt评論, cách tối ưuvill-se-game caja lỗi trên ứng dụng!

    reddit.com/r/LocalLLaMA/commen

  17. **Bài viết:**
    Chạy mô hình Qwen3-4B trên PC cũ 6 năm étage với AMD Ryzen 5 2400G? Có và hiệu suất bất ngờ! 🚀
    & tàiття: Một server nhỏ với 16GB RAM, GPU tích hợp Vega 11 đã xử lý 25.9 token/s câu hỏi và 9.76 token/s trả lời. Tài liệu chi tiết công trình (Docker, llama.cpp, Setup AMD) ở đây: #AI #Technology #AMD #Qwen3 #Linux #TechTips #LậpTrìnhAI #TàiNăng #HệThốngLinux
    Ắt评論, cách tối ưuvill-se-game caja lỗi trên ứng dụng!

    reddit.com/r/LocalLLaMA/commen

  18. **Bài viết:**
    Chạy mô hình Qwen3-4B trên PC cũ 6 năm étage với AMD Ryzen 5 2400G? Có và hiệu suất bất ngờ! 🚀
    & tàiття: Một server nhỏ với 16GB RAM, GPU tích hợp Vega 11 đã xử lý 25.9 token/s câu hỏi và 9.76 token/s trả lời. Tài liệu chi tiết công trình (Docker, llama.cpp, Setup AMD) ở đây: #AI #Technology #AMD #Qwen3 #Linux #TechTips #LậpTrìnhAI #TàiNăng #HệThốngLinux
    Ắt评論, cách tối ưuvill-se-game caja lỗi trên ứng dụng!

    reddit.com/r/LocalLLaMA/commen

  19. **Bài viết:**
    Chạy mô hình Qwen3-4B trên PC cũ 6 năm étage với AMD Ryzen 5 2400G? Có và hiệu suất bất ngờ! 🚀
    & tàiття: Một server nhỏ với 16GB RAM, GPU tích hợp Vega 11 đã xử lý 25.9 token/s câu hỏi và 9.76 token/s trả lời. Tài liệu chi tiết công trình (Docker, llama.cpp, Setup AMD) ở đây: #AI #Technology #AMD #Qwen3 #Linux #TechTips #LậpTrìnhAI #TàiNăng #HệThốngLinux
    Ắt评論, cách tối ưuvill-se-game caja lỗi trên ứng dụng!

    reddit.com/r/LocalLLaMA/commen

  20. Một người dùng đã chia sẻ kinh nghiệm "vibe coding" một tác nhân nghiên cứu AI bằng Cline và GLM 4.5 trên Mac m3u. Quá trình lặp đi lặp lại gồm 6 bước: lên kế hoạch, thực hiện, kiểm tra, xác định điểm yếu và cải thiện. Dù chậm và tốn kém, hệ thống này hoạt động hiệu quả cho mục đích cá nhân, thậm chí tốt hơn chức năng tìm kiếm của OpenwebUI.
    #AICode #AgentAI #MacM3U #GLM45 #LậpTrìnhAI #AICoding #ResearchAgent #MacTech #LLM #AI

    reddit.com/r/LocalLLaMA/commen