syui.ai

gpt-ossを使用する

.md

今回は、openaiのgpt-ossを使用する方法です。

https://openai.com/ja-JP/index/introducing-gpt-oss/

120b, 20bがあります。好きな方を使いましょう。ここでは20bを使用します。

$ ollama run gpt-oss:20b
or
$ lms get openai/gpt-oss-20b

今回は、lms(LM Studio)で使用します。

# https://lmstudio.ai/
$ pip install lmstudio

# https://huggingface.co/openai/gpt-oss-20b
$ lms get openai/gpt-oss-20b

今後、家庭のpcは、gpu(nvidia, amd)を積んでlmsgpt-ossを動かすのが一般的になりそう。

サービスとして公開する

例えば、apiとして公開することもでき、それを自身のサービス上から利用するなどの使い方があります。なお、lmsにもこのような機能はあります。

# https://cookbook.openai.com/articles/gpt-oss/run-transformers
$ transformers serve
$ transformers chat localhost:8000 --model-name-or-path openai/gpt-oss-20b
---
$ curl -X POST http://localhost:8000/v1/responses -H "Content-Type: application/json" -d '{"messages": [{"role": "system", "content": "hello"}], "temperature": 0.9, "max_tokens": 1000, "stream": true, "model": "openai/gpt-oss-20b"}'
$ cloudflared tunnel login
$ cloudflared tunnel create gpt-oss-tunnel
tunnel: 1234
credentials-file: ~/.cloudflared/1234.json

ingress:
  - hostname: example.com
    service: http://localhost:8000
  - service: http_status:404
$ cloudflared tunnel run gpt-oss-tunnel

ただ、apiのreqにはキーとか設定しておいたほうがいいかも。

高速、大規模に使うには

vllmを使います。linuxが最適です。gpu(nvidia-cuda)がないときついので、win + wslで動かします。nvidiaのH100DGX Sparkが必要になると思います。

cudaはcomfyuiで使っているcu129に合わせました。

$ wsl --install archlinux
$ wsl -d archlinux
$ nvidia-smi
$ mkdir ~/.config/openai/gpt-oss
$ cd ~/.config/openai/gpt-oss
$ python -m venv venv
$ source venv/bin/activate

$ pip install --upgrade pip
$ pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu129
$ pip install vllm transformers

$ python -m vllm.entrypoints.openai.api_server \
    --model openai/gpt-oss-20b \
    --port 8000 \
$ curl http://localhost:8000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-oss-20b",
    "messages": [{"role": "user", "content": "こんにちは!"}]
  }'

お金の使い道

最近、iphoneやmacを買うより、DGX Sparkを買ったほうが良いのではないかと考えることがあります。

pc(RTX)やmacは、60万円ほどかかりますし、それはDGX Sparkの値段と同じです。どうせ同じ値段を使うなら、何を買うのが良いのでしょう。

パソコンのスペックというのは、毎年それほど変わりません。RTXにしても同じです。

とするなら、既に持っているものではなく、持っていないスパコンを購入し、そこにAIをホストしたり、あるいはその性能をpcから利用する事を考えたほうが良いのではないか。最近はそんなことをよく考えます。

今後はpcを買う時代ではなく、スパコンを買う時代に突入するかもしれません。