MSI CLAW 7 A1M のゲーム中のFPS安定化に向けて役に立つかもしれない電源設定

Redditをのぞいていると、CPUの消費電力を落とすことでGPUの周波数が上がってFPSが上がるとかって書き込みを見つけたので個人的に安全そうな手順を考えてみました。

CPU側のTDP枠を落とすことでGPU側の周波数があげられるということでしょうか?
この場合、ゲームによってはCPU性能が必要な場合もあると思うのでタイトル次第ですが、基本的にはGPU性能に依存するゲームが多いように思うので確かに効果がありそうです。
なお、CPU依存のゲームは逆に性能が低下する可能性があるので注意すること。

故障してほしくないのでUEFIの非表示設定変更やサードパーティのアプリケーションは無しでWindowsの標準機能で頑張ります。

OSならリカバリーすればなんとかなるはず?w

ちなみに他社の ポータブルゲーミングPC でも同様の事象はあるかもしれません。


TurboBoost (ターボブースト) 無効化

まずは手順から。
「プロセッサパフォーマンスの向上モード」を表示するための設定をレジストリから行います。※レジストリをいじるのでリカバリーディスクは必ず事前に作成しておいてください!!!

以下のPowershellコマンドを管理者権限で実行することで表示することができます。

Set-ItemProperty -Path "HKLM:\SYSTEM\CurrentControlSet\Control\Power\PowerSettings\54533251-82be-4824-96c1-47b60b740d00\be337238-0d82-4146-a960-4f3749d470c7" -Name "Attributes" -Value 2 -Type DWord

でコントロールパネルを開いて
コントロール パネル\ハードウェアとサウンド\電源オプションを開きます。

その後、電源プランの作成をクリックしてターボブーストが無効になっていることがわかるプラン名をつけて次へ作成をクリックします。

作成されたプランの右側にある「プラン設定の編集」をクリックして詳細な電源設定の変更をクリックします。

その後、プロセッサパフォーマンスの向上モードを開いてバッテリー駆動電源に接続をともに無効に変更します。

参考:https://learn.microsoft.com/ja-jp/windows-hardware/customize/power-settings/options-for-perf-state-engine-perfboostmode


結果

普段は3Ghzあたりをウロウロしていますが、ゲームをしているときは3.8Ghzくらいまで行きます。
TurboBoostを無効化することで2Ghzくらいにまで落ちます。

FPSが安定しました。(特に画面が激しく動いているシーン)

これが

こうなりました。ちなみに、ターボブーストオフでも2Ghzを超えることはあります。


ゲーム中(Apex Legends)のGPU周波数の変化について

TurboBoost無効化状態だとGPU-Z調べで

2250Mhz

まで上がります。

設定前だと

500Mhz – 1700Mhz

※瞬間的に2000Mhzくらいまで行くこともあります。

なので少なくとも500Mhzは高いクロックで動作できるようです。
これは期待できそう


APEX Legends実行時のFPSについては
2560 x 1440 のウインドウ表示で

  • 45fps → 52fps

と若干上がっています。


感想

TurboBoostオフにするだけで十分かも
Webブラウジングとか動画とか軽いゲームなら、Core Ultra 7 155Hは2Ghzまでクロックを落としても快適なのでバッテリーもちとファンの騒音を考えるとポータブルゲーミングPCとしてはオフのままでいい気がしました。

カテゴリー: パソコン・サーバー関連 | タグ: , , , | MSI CLAW 7 A1M のゲーム中のFPS安定化に向けて役に立つかもしれない電源設定 はコメントを受け付けていません

Github Copilot Proでいろいろ遊んでみた件

ついに憧れのGithub Copilotを契約したワイ氏。早速Copilot Agentとかで色々遊んでみようとしたところ課金周りで色々戸惑いましたw

はじめに

ある程度細かく説明するだけで勝手にプログラム一式作るってすごいねえ〜 (ワイ氏いらないのではw)
それに色々ついて月10ドル! お昼ご飯を我慢すれば入れますな。ということで契約してみたのでした。

あとGPT-5系はプレビューだけど想像以上に賢く感じるのでちょこちょこ使ってみるのもありかも。
GPT-5-miniは定額プランに含まれているので適当に使っても安心?( ・∇・)

戸惑ったところ

貧乏性のワイ氏にとって一番困ったのは Billing and Licensing の Overview のドルの金額が増えていっていること!!

Budgets and alerts で 0ドルの予算に設定して Stop Usage を Yes にしているので課金されないと思いたいんだけど、ちょっとビビるよねえ(^_^;)
この画面の見方全くわからん勢なので誰か助けてくれえ〜

Githubの課金周りはあんまり詳しくないんだけど、Copilot Agentを使っているとGithub Actionも使っているらしく、その利用分の表示なのかな?

ちなみに、GithubのFree Planだとプライベートリポジトリで2000分までは無料枠らしいので discountsで引かれているのかな?
↓この画面に利用時間が書いてあった。

csvにして利用履歴をダウンロードしたり、 Usage を見ているとBilled amountのところは0ドルになってて、今のところはいろいろ相殺されてるのか?

Current metered usage から Current included usage 引いても1ドルくらい残るしどうなってるんや?^^;

というわけで様子見で色々お試し中です。
GitHubそのものの使い方ってあんまり意識したことなかったからここに来てよくわからんことに。。。

カテゴリー: その他 | Github Copilot Proでいろいろ遊んでみた件 はコメントを受け付けていません

MSI Claw 7 A1M の充電について

USB-Cだったので油断していましたが、30W級充電器だと、充電判定にならないようです。。。

というわけで45w級以上が必要な模様。15wとかも反応しないのでUSB-PD必須なのかもしれません。

カテゴリー: その他 | MSI Claw 7 A1M の充電について はコメントを受け付けていません

Ollamaを使ってGPT-OSS-20bをVRAM 8GBのマシンで動かした件

特に工夫はしていないのですが、RTX3050 8GB版とollamaを使って話題のGPT-OSS 20bを実行してみたという話。

VRAMとRAMの負担から見るに、かなり余裕はありそうです。推論中もかなり余裕がある。

思考中の時間も長くないため、短文やり取りなら問題なく使えそうでした。


phi4-mini-reasoning:3.8bとの比較

検証環境で上記のphi-4モデルを使うと、<think>が長文になってしまいますがgpt-oss:20bは余計な内容は出力していない結果になりました。

この環境だと、もともと推論速度が速くないため、どちらも最終的な実行速度は変わりませんが、どちらが良いのでしょうかねえ?


メモ:

RTX3050の使用率が15%とかなので、もしかしたらCPUで推論しているのかも?とは思ってしまった。一応、CPUとGPUの比率は半分くらいらしい。

16 GB 53%/47% CPU/GPU

カテゴリー: その他 | Ollamaを使ってGPT-OSS-20bをVRAM 8GBのマシンで動かした件 はコメントを受け付けていません

MSI Claw 7 A1M でStable diffusion などやってみた。

新品でCore Ultra 7 155H搭載で9万円という破格の本機。ケースとフィルムも+2,000円で買えてしまうので買ってみた。

ベンチマーク

Crystal Mark Retroでベンチマークを取ってみると、シングルスコアに至ってはメイン機の Ryzen 9 3900 を上回っているようでCore Ultraの強力さがよくわかる。マルチコアは流石に3900が勝つものの、大きな差はないという状態に。

GPUは流石にRTX3080に及ばないものの、持ち運べるパソコンとしては高性能な部類では?


きっかけ

調べているとCore Ultra内蔵の Intel ARC は IPEX に対応しているらしく、Pytorchを使った処理ができる模様。
https://pytorch-extension.intel.com/installation?platform=gpu&version=v2.7.10%2Bxpu&os=windows&package=pip

ということでAI関連のタスクをやってみようという記事です。
なお、Meteor LakeのIntel ARCは XMX っていうのを省かれているってみたんだけど、この辺が性能にどう響くのかはよくわからんかった。
NPUがあるからそっちでカバーしてってことなのかなあ?

スペック:
intel Core Ultra 7 155H
RAM 16GB (VRAMとは共用)
SSD 1TB

導入

Stability Matrixをインストールして、そこで検証してみた。
インストールして直後の画面では SD.NEXT しか表示されないので、それをインストール。
nvidia系GPUでしか試したことなかったんだけどintel系だとこうなるんだねえ。

SD.NEXTってアプリ、IPEX以外にも色々使えるらしく、OpenVINOやDirectMLなんかも使えるっぽい。
あと、量子化もできるように見えた。ドキュメント見てるとWindowsでintel系の場合は、Visual StudioのC++コンパイラーがいる?っぽい。
Stability Matrixインストール時に入っているようなのでパスを通せばいいんかな?

SDXL系FP16のモデルを入れて実験。
パラメーターは以下の通り

解像度 1024x1024
Steps 10
SDM++
他はデフォルト

結果

50秒ほどで画像が出てきた。
RTX3050やRTX3080に比べると明らかに遅いが、nvidia系以外でも動くっていうのが感動した。

NPUも使ってみようと色々試してみたんだけど、IPEXだとGPUが使われていて、OpenVINOを使ってNPUを指定してみただけど、どうもうまく動きませんでした。

いろいろやって13秒ほどまで短縮できましたが、画像保存周りでいったん止まってしまうので結局トータルだと30秒ほどかも。もうちょっと検証してから追記します。

あとRAMが16GBしかないので lowvram オプションの方がいいかも?仮想メモリがあるから medvram でもできるんだけど、カツカツまで使い切っちゃいます。ただ、試した限りではmedvramの方がかなり早い印象です。

カテゴリー: パソコン・サーバー関連 | MSI Claw 7 A1M でStable diffusion などやってみた。 はコメントを受け付けていません

シムピープルとThe Sims2のコレクションをSteamで買うか悩んでる件

The Sims 2は持っているのでSteamで実行できるようになる点以外はどちらでも大丈夫な感じなのですが
シムピとセットでついてくるThe Sims 4のパックが気になる。

シムピは昔、気になっていたので欲しいとして、The Sims 4のパックいるかなあ。。。

カテゴリー: その他 | シムピープルとThe Sims2のコレクションをSteamで買うか悩んでる件 はコメントを受け付けていません

Visual Studio Code の tunnel でつまずいたところ備忘録

NUC上に構築していたのですが結構つまずいたのでここに書いておきます。

サービスとしてインストール

code tunnel service install


動作確認

code tunnel service status

or

systemctl --user status code-tunnel.service

でできます。

この状態だとサーバーの起動と同時に起動してこないので以下のコマンド実行

sudo loginctl enable-linger username

ここに辿り着くのに時間かかった。。。デフォルトだとユーザーにログインしないと起動してこないようです。

カテゴリー: その他 | Visual Studio Code の tunnel でつまずいたところ備忘録 はコメントを受け付けていません

Ollamaとqwen2.5-coderを使う際のVRAMの節約について

以前書いた以下の記事

ここからもっと性能を上げたく、いろいろググっているとどうやらRTX3080 10GBで32Bを動かしている方がいらっしゃる様子。
前の検証結果ではVRAMは常にカツカツで余裕はなさそうな状態でした。

そんなん動くんか!と思いつつも動くのであればそれに越したことはないので試してみることに。。。
→次回で書こうと思っている内容ですが、結論としては確かに下がるけどCPU側のRAMも使ってくれて処理していました。
VRAMに収まる分しか動かないと思っていたので大発見!

最近はAIエージェント?とかいうものが流行っているのもあっていろいろチャレンジしているのですがAPI費用が馬鹿にできないのでローカルLLM流行ってくれええええ!

やること

Ollamaをサーバーとして動かす場合、githubを調べているとどうやら環境変数に書き込むことで設定をいろいろ変更できるらしい。
https://github.com/ollama/ollama/blob/main/docs/faq.md#how-do-i-configure-ollama-server
※ちなみにこのFAQに外部に情報を送らない旨が書かれているっぽい(英語スキル自信なしw)

今回はVRAM使用量に影響を及ぼしそうなものを入れていきます。

OLLAMA_KV_CACHE_TYPE
OLLAMA_FLASH_ATTENTION

の二つが効果があるらしく

上のKV_CACHEというのはよくわかりませんでしたがパラメータは量子化に関する値を入れればよいとのこと。これがVRAMの削減にめっちゃ効くらしい。

FLASH_ATTENTIONはStable Diffusionなどでも見ますがあまりよくわかっていませんw
これもVRAM使用量を減らしてくれるものです。FAQページにもありましたが 1 にするだけで有効化されるようです。

というわけでネット上のサンプルをいろいろ見て以下のような設定にしました。

OLLAMA_KV_CACHE_TYPE = "q8_0"
OLLAMA_FLASH_ATTENTION = 1

q4_0とかにすると軽くなるようですが回答精度が落ちるとかなんとかでq8がちょうどよいようです。

設定がONの時
前回同様 Continue と利用しています。

今回の設定がOFFの時

確かに1GBほど減っています!

成果としては7Bと1.5B両方の読み込み時で1GBほど減るようでした。
32BとClineも試しているのですがそれは次回!

カテゴリー: パソコン・サーバー関連 | タグ: , , | Ollamaとqwen2.5-coderを使う際のVRAMの節約について はコメントを受け付けていません

カローラ ツーリングでUSBハブを使うとCarPlayが使えなくなった件

グローブボックス横のUSB-Cが一番便利なのだがそこにUSBハブを使うとCarplayが使えなくなってしまった。

ハブを取り外すと問題なくなるのでおそらくこれが問題なのだが何かいい製品はないのか調べたいです。。。

もしかしてだけど片方は通信可能でもう片方で電源のみみたいなケーブルがあれば行けたりする?

カテゴリー: その他 | カローラ ツーリングでUSBハブを使うとCarPlayが使えなくなった件 はコメントを受け付けていません

Ollamaとqwen2.5-coderとContinueを使って貧乏Copilotを作る

M5Stack LLM界隈でちらちら見ていた qwen って名前のLLM。なんでも日本語でもやり取りができるとか?
英語の語学力が残念な私にとって日本語でやり取りできるLLMめちゃ大事です。
たまたま、Ollamaのモデル一覧を見ているとqwen2.5-coderたるものがあることを発見しました。

VSCodeにCopilot系のものを入れたいと思っていたところにこれが出てきたので試しに構築してみることに。コード用のモデルってどれがいいかわかんないけど0.5bとかあるしお手軽かなって思って入れてみました。
ちなみにOllamaに入っている別のモデルを指定すればそれも使えます。

このモデルは3Bを除いてApache 2.0だそうです。
https://ollama.com/library/qwen2.5-coder

3B以外で手元の環境で動きそうなのが7Bか1.5B。RTX3080搭載環境なのでとりあえず7Bにしました。

とりあえずモデルダウンロード&テスト

ollama run qwen2.5-coder:7b

終わったらvscodeにContinueをインストールして画面右下のContinueボタンをクリックします。

Configure Autocomplete Optionsとあるのでそこをクリックします。
表示されたテキストファイルを以下のように編集して保存します。

{
  "models": [
    {
      "title": "qwen2.5-coder",
      "provider": "ollama",
      "model": "qwen2.5-coder:7b"
    }
  ],
  "tabAutocompleteModel": {
    "title": "qwen2.5-coder",
    "provider": "ollama",
    "model": "qwen2.5-coder:7b"
  },

*このファイルの編集については以下も参照したほうが確実かもしれません。
https://docs.continue.dev/customize/model-providers/ollama

これでVSCodeからチャットを入力すると。。。
これだけで応答が返ってきます!


デメリットとしては7BだとVRAMがかつかつな点。。。
このパソコン組んだ時はこんなにVRAM使うことになるとか想定してなかたですw


いろいろ試していて。。。

オートコンプリートのモデルは0.5bでも十分かもしれません。
7bと0.5b両方を読み込むとGPUのVRAMが9.7GBに達するためちょっとしんどいですね。。。(´;ω;`)

カテゴリー: パソコン・サーバー関連 | タグ: , , , , | Ollamaとqwen2.5-coderとContinueを使って貧乏Copilotを作る はコメントを受け付けていません