Ollama

يتيح لك Ollama تشغيل نماذج LLM محلياً على جهازك — مجاني تماماً وخاص. لا حاجة لمفتاح API.

الإعداد

  1. ثبّت Ollama من ollama.com.
  2. حمّل نموذجاً: ollama pull llama3.2
  3. في إعدادات OpenTypeless، اختر Ollama. يتصل بـ localhost تلقائياً.

الخصوصية

💡
يعمل Ollama بالكامل على جهازك. لا يغادر نصك حاسوبك أبداً — الخيار الأكثر خصوصية المتاح.