Ollamaを使ってGPT-OSS-20bをVRAM 8GBのマシンで動かした件

特に工夫はしていないのですが、RTX3050 8GB版とollamaを使って話題のGPT-OSS 20bを実行してみたという話。

VRAMとRAMの負担から見るに、かなり余裕はありそうです。推論中もかなり余裕がある。

思考中の時間も長くないため、短文やり取りなら問題なく使えそうでした。


phi4-mini-reasoning:3.8bとの比較

検証環境で上記のphi-4モデルを使うと、<think>が長文になってしまいますがgpt-oss:20bは余計な内容は出力していない結果になりました。

この環境だと、もともと推論速度が速くないため、どちらも最終的な実行速度は変わりませんが、どちらが良いのでしょうかねえ?


メモ:

RTX3050の使用率が15%とかなので、もしかしたらCPUで推論しているのかも?とは思ってしまった。一応、CPUとGPUの比率は半分くらいらしい。

16 GB 53%/47% CPU/GPU

カテゴリー: その他 パーマリンク