LM Studio

ローカルLLMを動かすツールとして、今まで Ollama を使っていたが、OpenAI の gpt-oss を動かすためには LM Studio のほうが良さそうだということで、乗り換えてみた。

インストールは LM Studio のサイトから簡単にできる。インストールすると、“Choose your level” と聞かれるので、Developer を選んだ。

ダウンロードするモデルを聞かれるので、メモリ128GのMacがあれば gpt-oss-120b、メモリが24G程度なら gpt-oss-20b を選べばよかろう。あとは好みに応じて Context Length や Reasoning Effort を設定する。Ollama に比べて設定の自由度が大きい。私は Context Length を gpt-oss-120b の最大値 131072 に設定してみているが、さすがに長い出力では遅くなる。Reasoning Effort は medium で十分であろう。

Mac Studio M4 Max 128GB で動かして mactop で見ると、Memory Usage 105GB/128GB ほど、GPU Usage 100% で、使用電力は30Wほど増え、筐体がほんのり暖かくなる。

デフォルトではアプリでの動作だけだが、メニューバーからサーバを起動すれば http://127.0.0.1:1234 でAPIが使える。

Emacs の gptel から使うには、例えば次のようにする:

(use-package gptel
  :ensure t
  :config
  ;; ...(他の設定)...
  (setq gptel-model 'openai/gpt-oss-120b)
  (setq gptel-backend
	(gptel-make-openai "lmstudio"
	  :protocol "http"
	  :host "localhost:1234"
	  :models '((openai/gpt-oss-120b
		     :capabilities (media url)
		     :mime-types ("image/jpeg" "image/png")))
	  :stream t))
  (setq gptel--system-message nil))

あとは LM Studio サイトにあるドキュメント類を読んで使う。OpenAI Cookbook の How to run gpt-oss locally with LM Studio も参考になる。

LM Studio を一度起動すると、~/.lmstudio 以下にいろいろファイルができる。特に ~/.lmstudio/bin の中には lms というCLI(コマンド)が入るので、パスに入れておく。また、デフォルトでは ~/.lmstudio/models 以下にモデル(巨大なファイル)が入るが、これは設定で変えられるので、容量に余裕のあるドライブに設定するとよい。

Python から使うときは pip install lmstudio でパッケージを入れておく。