Local AI Chat
--
Model
--
Runtime
--
Backend
WebAssembly
Privacy
100% local
SmolLM2-360M (260MB, 軽量)
Qwen2.5-0.5B (400MB, 推奨)
Qwen2.5-1.5B (1GB, 高品質)
Qwen2.5-3B (2GB, 最高品質)
Llama-3.2-3B (2GB)
カスタムGGUF URL...
── WebGPU (要WebGPU対応) ──
Qwen2.5-0.5B WebGPU (300MB)
Qwen2.5-1.5B WebGPU (900MB, 高品質)
Download & Start
Preparing...
0%
▶