Unsloth StudioはWebブラウザでローカルLLMを使うための仕組みです。
インストールは、LinuxやMacではターミナルに次のように打ち込むだけです:
curl -fsSL https://unsloth.ai/install.sh | sh
すると、Macなら次のようなメッセージが現れます:
🦥 Unsloth Studio Installer
────────────────────────────────────────────────────
platform macos
deps all system dependencies found
venv creating Python 3.13 virtual environment
/Users/okumura/.unsloth/studio/unsloth_studio
venv using environment
/Users/okumura/.unsloth/studio/unsloth_studio
installing PyTorch (https://download.pytorch.org/whl/cpu)...
installing unsloth (this may take a few minutes)...
installing mlx-vlm (VLM training support)...
setup running unsloth studio update...
🦥 Unsloth Studio Setup
────────────────────────────────────────────────────
frontend up to date
deps [====================] 9/9 finalizing
deps installed
transformers 5.3.0 pre-installed
transformers 5.5.0 pre-installed
installing prebuilt llama.cpp...
existing install detected -- validating update
llama.cpp prebuilt installed and validated
installed release: ggml-org/llama.cpp@b9082
────────────────────────────────────────────────────
Unsloth Studio Installed
────────────────────────────────────────────────────
launch unsloth studio -p 8888
(add -H 0.0.0.0 to allow network / cloud access)
Created Unsloth Studio shortcut
Unsloth Studio installed!
────────────────────────────────────────────────────
Start Unsloth Studio now? [Y/n]
ここで Y と打てばサーバが起動します。
launch starting Unsloth Studio...
Starting Unsloth Studio on http://127.0.0.1:8888
[OK] Frontend loaded from /Users/okumura/.unsloth/studio/unsloth_studio/lib/python3.13/site-packages/studio/frontend/dist
INFO: Started server process [8310]
INFO: Waiting for application startup.
Hardware detected: MLX — Apple Silicon (arm)
============================================================
DEFAULT ADMIN ACCOUNT CREATED
username: unsloth
password saved to: /Users/okumura/.unsloth/studio/auth/.bootstrap_password
Open the Studio UI to sign in and change it.
============================================================
INFO: Application startup complete.
INFO: Uvicorn running on http://127.0.0.1:8888 (Press CTRL+C to quit)
{"timestamp": "2026-05-08T23:37:25.960441Z", "level": "info", "event": "Pre-caching helper GGUF: unsloth/gemma-4-E2B-it-GGUF/gemma-4-E2B-it-UD-Q4_K_XL.gguf"}
{"timestamp": "2026-05-08T23:37:26.173407Z", "level": "info", "event": "Helper GGUF cached: 1 file(s)"}
🦥 Unsloth Studio is running
────────────────────────────────────────────────────
On this machine -- open this in your browser:
http://127.0.0.1:8888
(same as http://localhost:8888)
API & health:
http://127.0.0.1:8888/api
http://127.0.0.1:8888/api/health
────────────────────────────────────────────────────
Tip: if you are on this computer, open http://localhost:8888/ in your browser.
ブラウザで http://127.0.0.1:8888/ をひらけばUnsloth Studioの画面が現れます。最初はパスワードの設定を促されます。
Select model... からお好きなモデルを選んで実行してみましょう。モデルが起動したら、ターミナルに例えば
{"timestamp": "2026-05-08T23:40:36.464743Z", "level": "info", "event": "llama-server ready on port 50662 for model 'unsloth/gemma-4-31b-it-gguf'"}
のようなメッセージが出ますので、別アプリからこのポートにアクセスすることもできます。例えばEmacsのgptelであれば
(setq gptel-backend
(gptel-make-openai "unsloth"
:protocol "http"
:host "localhost:50662"
:models '((unsloth))
:stream t))
のように設定すれば使えます。ただし、ポート番号は毎回変わります。
終了は、先ほどのターミナルで Ctrl-C を打つだけです。
次に起動するには、ターミナルに次のように打ち込みます:
unsloth studio -p 8888
あるいは、他のマシンからもアクセスしたい場合は、次のように打ち込みます:
unsloth studio -H 0.0.0.0 -p 8888
いずれの場合も、コマンドの最後に & を付ければ、バックグラウンドでの起動になります。途中からバックグラウンドに切り替えたい場合は Ctrl-Z を打ってから bg と打ちます。
更新はターミナルに次のように打ち込みます:
unsloth studio update