gpt-ossを使用する
今回は、openaiのgpt-ossを使用する方法です。
https://openai.com/ja-JP/index/introducing-gpt-oss/
120b
, 20b
があります。好きな方を使いましょう。ここでは20b
を使用します。
$ ollama run gpt-oss:20b
or
$ lms get openai/gpt-oss-20b
今回は、lms(LM Studio)で使用します。
# https://lmstudio.ai/
$ pip install lmstudio
# https://huggingface.co/openai/gpt-oss-20b
$ lms get openai/gpt-oss-20b
今後、家庭のpcは、gpu(nvidia, amd)を積んでlms
でgpt-oss
を動かすのが一般的になりそう。
サービスとして公開する
例えば、apiとして公開することもでき、それを自身のサービス上から利用するなどの使い方があります。なお、lms
にもこのような機能はあります。
# https://cookbook.openai.com/articles/gpt-oss/run-transformers
$ transformers serve
$ transformers chat localhost:8000 --model-name-or-path openai/gpt-oss-20b
---
$ curl -X POST http://localhost:8000/v1/responses -H "Content-Type: application/json" -d '{"messages": [{"role": "system", "content": "hello"}], "temperature": 0.9, "max_tokens": 1000, "stream": true, "model": "openai/gpt-oss-20b"}'
$ cloudflared tunnel login
$ cloudflared tunnel create gpt-oss-tunnel
tunnel: 1234
credentials-file: ~/.cloudflared/1234.json
ingress:
- hostname: example.com
service: http://localhost:8000
- service: http_status:404
$ cloudflared tunnel run gpt-oss-tunnel
ただ、apiのreqにはキーとか設定しておいたほうがいいかも。
高速、大規模に使うには
vllm
を使います。linuxが最適です。gpu(nvidia-cuda)がないときついので、win + wslで動かします。nvidiaのH100
やDGX Spark
が必要になると思います。
cudaはcomfyuiで使っているcu129
に合わせました。
$ wsl --install archlinux
$ wsl -d archlinux
$ nvidia-smi
$ mkdir ~/.config/openai/gpt-oss
$ cd ~/.config/openai/gpt-oss
$ python -m venv venv
$ source venv/bin/activate
$ pip install --upgrade pip
$ pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu129
$ pip install vllm transformers
$ python -m vllm.entrypoints.openai.api_server \
--model openai/gpt-oss-20b \
--port 8000 \
$ curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "openai/gpt-oss-20b",
"messages": [{"role": "user", "content": "こんにちは!"}]
}'
お金の使い道
最近、iphoneやmacを買うより、DGX Spark
を買ったほうが良いのではないかと考えることがあります。
pc(RTX)やmacは、60万円ほどかかりますし、それはDGX Spark
の値段と同じです。どうせ同じ値段を使うなら、何を買うのが良いのでしょう。
パソコンのスペックというのは、毎年それほど変わりません。RTXにしても同じです。
とするなら、既に持っているものではなく、持っていないスパコンを購入し、そこにAIをホストしたり、あるいはその性能をpcから利用する事を考えたほうが良いのではないか。最近はそんなことをよく考えます。
今後はpcを買う時代ではなく、スパコンを買う時代に突入するかもしれません。