Ollama

O Ollama permite executar LLMs localmente na sua máquina — completamente grátis e privado. Sem necessidade de chave API.

Configuração

  1. Instale o Ollama em ollama.com.
  2. Baixe um modelo: ollama pull llama3.2
  3. Nas configurações do OpenTypeless, selecione Ollama. Ele se conecta ao localhost automaticamente.

Privacidade

💡
O Ollama roda inteiramente na sua máquina. Seu texto nunca sai do seu computador — a opção mais privada disponível.