Ollama
Ollama를 사용하면 로컬 기기에서 LLM을 실행할 수 있습니다 — 완전 무료이며 프라이버시가 보장됩니다. API 키가 필요 없습니다.
설정
- ollama.com에서 Ollama를 설치하세요.
- 모델을 다운로드하세요: ollama pull llama3.2
- OpenTypeless 설정에서 Ollama를 선택하세요. 자동으로 localhost에 연결됩니다.
프라이버시
Ollama는 완전히 로컬에서 실행됩니다. 텍스트가 컴퓨터 밖으로 나가지 않습니다 — 가장 프라이버시가 보장되는 옵션입니다.