local-ai /
TinyLlama-1.1B
not loaded
ブラウザ内LLM
実験デモ
TinyLlama-1.1B-Chat
をブラウザ内で直接動かします。
モデルは初回のみダウンロードされ、以降は端末にキャッシュされます。
サーバー不要 · APIキー不要 · オフライン動作
MODEL SIZE
~600 MB
RUNTIME
Transformers.js
BACKEND
WebAssembly
CACHE
OPFS / IndexedDB
モデルを読み込む →
initializing...
0%
waiting...
AI
こんにちは。TinyLlamaです。ブラウザ内で動作しています。何でも聞いてください。
all inference runs locally · no data sent to server