Ollama
Ollama आपको अपनी मशीन पर स्थानीय रूप से LLM चलाने देता है — पूरी तरह मुफ्त और निजी। कोई API कुंजी ज़रूरी नहीं।
सेटअप
- ollama.com से Ollama इंस्टॉल करें।
- एक मॉडल पुल करें: ollama pull llama3.2
- OpenTypeless सेटिंग्स में, Ollama चुनें। यह स्वचालित रूप से localhost से कनेक्ट होता है।
गोपनीयता
Ollama पूरी तरह आपकी मशीन पर चलता है। आपका टेक्स्ट कभी आपके कंप्यूटर से बाहर नहीं जाता — उपलब्ध सबसे निजी विकल्प।