新しいチャット

LlamaChat

llama.cpp WASM でブラウザ内 LLM 推論。
サーバー不要・完全ローカル・プライバシー完全保護。
まずモデルをロードしてください。

GGUF モデル
Hugging Face の GGUF モデル (Q4~Q6 推奨) をそのままロード
ストリーミング
トークンが生成されるたびにリアルタイム表示
ファイル添付
テキスト・PDF・コードを添付してコンテキストとして注入
永続化
チャット履歴・設定を IndexedDB にローカル保存
Enter で送信 · Shift+Enter で改行 · ドラッグ&ドロップでファイル添付
モデル設定
メインモデル (GGUF)
MMProj — マルチモーダル (任意)

設定すると画像・音声・動画ファイルの添付が可能になります。未設定時はテキスト・PDF・コードのみ許可。

生成パラメータ
0.7
0.9
40
1.1
システムプロンプト
ダウンロード中... 0%