Ollama

Ollama te permite ejecutar LLMs localmente en tu máquina — completamente gratis y privado. No se necesita clave API.

Configuración

  1. Instala Ollama desde ollama.com.
  2. Descarga un modelo: ollama pull llama3.2
  3. En la configuración de OpenTypeless, selecciona Ollama. Se conecta a localhost automáticamente.

Privacidad

💡
Ollama se ejecuta completamente en tu máquina. Tu texto nunca sale de tu computadora — la opción más privada disponible.