Ollama

Ollama를 사용하면 로컬 기기에서 LLM을 실행할 수 있습니다 — 완전 무료이며 프라이버시가 보장됩니다. API 키가 필요 없습니다.

설정

  1. ollama.com에서 Ollama를 설치하세요.
  2. 모델을 다운로드하세요: ollama pull llama3.2
  3. OpenTypeless 설정에서 Ollama를 선택하세요. 자동으로 localhost에 연결됩니다.

프라이버시

💡
Ollama는 완전히 로컬에서 실행됩니다. 텍스트가 컴퓨터 밖으로 나가지 않습니다 — 가장 프라이버시가 보장되는 옵션입니다.