LlamaChat
llama.cpp WASM でブラウザ内 LLM 推論。
サーバー不要・完全ローカル・プライバシー完全保護。
まずモデルをロードしてください。
GGUF モデル
Hugging Face の GGUF モデル (Q4~Q6 推奨) をそのままロード
ストリーミング
トークンが生成されるたびにリアルタイム表示
ファイル添付
テキスト・PDF・コードを添付してコンテキストとして注入
永続化
チャット履歴・設定を IndexedDB にローカル保存
Enter で送信 · Shift+Enter で改行 · ドラッグ&ドロップでファイル添付