Ollama
يتيح لك Ollama تشغيل نماذج LLM محلياً على جهازك — مجاني تماماً وخاص. لا حاجة لمفتاح API.
الإعداد
- ثبّت Ollama من ollama.com.
- حمّل نموذجاً: ollama pull llama3.2
- في إعدادات OpenTypeless، اختر Ollama. يتصل بـ localhost تلقائياً.
الخصوصية
يعمل Ollama بالكامل على جهازك. لا يغادر نصك حاسوبك أبداً — الخيار الأكثر خصوصية المتاح.