#unlimitedusage — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #unlimitedusage, aggregated by home.social.
-
إذا كنت تريد تشغيل Ollama + OpenClaw محليًا بلا حدود، فهناك بعض المتطلبات التقنية الأساسية لضمان أداء مقبول، خصوصًا لأن النماذج الحديثة للذكاء الاصطناعي تتطلب موارد كبيرة. إليك تفصيلها:
1️⃣ نظام التشغيل
- Windows 10/11 (64-bit) أو
- macOS 13+ (M1/M2 أفضل) أو
- Linux 64-bit (Ubuntu أو توزيعات حديثة)
2️⃣ المعالج (CPU)
- 8 نوى على الأقل (Intel i7/i9 أو AMD Ryzen 7/9)
- المعالجات الحديثة تدعم AVX2/AVX512، ما يحسن أداء النماذج بشكل كبير.
3️⃣ بطاقة الرسوميات (GPU) — مهمة جدًا للنماذج الكبيرة
- NVIDIA GPU مع CUDA (RTX 2060 أو أفضل) لتسريع الحسابات
- VRAM: 6–12GB كحد أدنى، ويفضل 16GB+ للنماذج الأكبر
- إذا لم يتوفر GPU، يمكن تشغيل النماذج على CPU فقط، لكن سيكون أبطأ بكثير.
4️⃣ الذاكرة العشوائية (RAM)
- 16GB كحد أدنى
- يُفضل 32GB+ إذا كنت تريد تشغيل نماذج كبيرة (>7B parameters) دون تباطؤ
5️⃣ مساحة التخزين
- SSD سريع (NVMe أفضل)
- مساحة: 50–100GB على الأقل للنماذج والبيانات المؤقتة
- بعض النماذج الكبيرة (13B+) تتطلب 100–200GB
6️⃣ اتصال بالإنترنت
- مطلوب فقط للتحميل الأولي للنماذج
- بعد ذلك يمكن التشغيل بدون إنترنت بالكامل
7️⃣ ملاحظات إضافية
- أجهزة Apple Silicon (M1/M2) جيدة جدًا لتشغيل النماذج الصغيرة والمتوسطة بكفاءة عالية
- لتجربة سلسة، استخدم موديلات محلية خفيفة مثل Llama 2 7B أو Mistral 7B
- النماذج الكبيرة جدًا (>13B parameters) تحتاج GPU قوي جدًا وذاكرة ≥24GB
#ذكاء_اصطناعي #AI #تعلم_آلي #MachineLearning #نماذج_محلية #LocalAI #Ollama #OpenClaw #مجاني #FreeAI #بدون_حدود #UnlimitedUsage #تقنية #Tech #حاسوب #Computer #gnutux #linux #foss
-
يمكنك استخدام Ollama مع OpenClaw بشكل مجاني وبدون حدود API إذا شغّلتهما محليًا على جهازك. هذا هو المعنى الحقيقي لـ “free unlimited” في هذا السياق 👇(OpenClaw Center)
🆓 هل الخدمة مجانية وبدون حدود فعلاً؟
- نعم — Ollama نفسه مجاني ويمكنه تشغيل نماذج ذكاء اصطناعي محلية على جهازك بدون API مدفوعة أو حدود استخدام، لأن كل شيء يعمل مباشرة على حاسوبك. (OpenClaw Center)
- عند ربطه مع OpenClaw، يمكنك استخدام الذكاء الاصطناعي داخل OpenClaw أيضًا بدون دفع أي رسوم طالما أنك تستخدم نماذج محلية ولا تعتمد على خدمات سحابية مدفوعة. (OpenClaw)
📌 لكن ملاحظة مهمة:
- إذا حاولت استخدام نماذج سحابية من Ollama أو مزود آخر (أي عبر الإنترنت)، فقد تواجه حدود أو رسوم؛ لذلك تأكد من تثبيت النماذج محليًا وليس عبر الإنترنت. (Reddit)
💡 كيف تحصل على هذا الإعداد؟
ثبّت Ollama من الموقع الرسمي وضعه قيد التشغيل على جهازك. (OpenClaw Center)
اسحب نموذج محلي (مثل Llama أو Mistral) باستخدام أمر مثل:
ollama pull llama3.3ثبّت OpenClaw على جهازك أو خادمك. (openclaw)
فعّل Ollama داخل OpenClaw عبر إعداد الـ API المحلي الخاص به. (OpenClaw)
📌 النتيجة
📍 OpenClaw + Ollama على جهازك ✔️ مجاني 100% (بدون رسوم API) ✔️ لا حدود استخدام ✔️ كل البيانات على جهازك — خصوصية كاملة ✔️ تعمل بدون الإنترنت بعد الإعداد (open-clawai.com)
تثبيت هذا النظام على جهازك (Windows أو Mac أو Linux). هل تريد ذلك؟
#ذكاء_اصطناعي #AI #تعلم_آلي #MachineLearning #نماذج_محلية #LocalAI #Ollama #OpenClaw #مجاني #FreeAI #بدون_حدود #UnlimitedUsage #تقنية #Tech #حاسوب #Computer #gnutux #linux #foss