Ollama

Ollama आपको अपनी मशीन पर स्थानीय रूप से LLM चलाने देता है — पूरी तरह मुफ्त और निजी। कोई API कुंजी ज़रूरी नहीं।

सेटअप

  1. ollama.com से Ollama इंस्टॉल करें।
  2. एक मॉडल पुल करें: ollama pull llama3.2
  3. OpenTypeless सेटिंग्स में, Ollama चुनें। यह स्वचालित रूप से localhost से कनेक्ट होता है।

गोपनीयता

💡
Ollama पूरी तरह आपकी मशीन पर चलता है। आपका टेक्स्ट कभी आपके कंप्यूटर से बाहर नहीं जाता — उपलब्ध सबसे निजी विकल्प।