Github Copilot Proでいろいろ遊んでみた件

ついに憧れのGithub Copilotを契約したワイ氏。早速Copilot Agentとかで色々遊んでみようとしたところ課金周りで色々戸惑いましたw

はじめに

ある程度細かく説明するだけで勝手にプログラム一式作るってすごいねえ〜 (ワイ氏いらないのではw)
それに色々ついて月10ドル! お昼ご飯を我慢すれば入れますな。ということで契約してみたのでした。

あとGPT-5系はプレビューだけど想像以上に賢く感じるのでちょこちょこ使ってみるのもありかも。
GPT-5-miniは定額プランに含まれているので適当に使っても安心?( ・∇・)

戸惑ったところ

貧乏性のワイ氏にとって一番困ったのは Billing and Licensing の Overview のドルの金額が増えていっていること!!

Budgets and alerts で 0ドルの予算に設定して Stop Usage を Yes にしているので課金されないと思いたいんだけど、ちょっとビビるよねえ(^_^;)
この画面の見方全くわからん勢なので誰か助けてくれえ〜

Githubの課金周りはあんまり詳しくないんだけど、Copilot Agentを使っているとGithub Actionも使っているらしく、その利用分の表示なのかな?

ちなみに、GithubのFree Planだとプライベートリポジトリで2000分までは無料枠らしいので discountsで引かれているのかな?
↓この画面に利用時間が書いてあった。

csvにして利用履歴をダウンロードしたり、 Usage を見ているとBilled amountのところは0ドルになってて、今のところはいろいろ相殺されてるのか?

Current metered usage から Current included usage 引いても1ドルくらい残るしどうなってるんや?^^;

というわけで様子見で色々お試し中です。
GitHubそのものの使い方ってあんまり意識したことなかったからここに来てよくわからんことに。。。

カテゴリー: その他 | Github Copilot Proでいろいろ遊んでみた件 はコメントを受け付けていません

MSI Claw 7 A1M の充電について

USB-Cだったので油断していましたが、30W級充電器だと、充電判定にならないようです。。。

というわけで45w級以上が必要な模様。15wとかも反応しないのでUSB-PD必須なのかもしれません。

カテゴリー: その他 | MSI Claw 7 A1M の充電について はコメントを受け付けていません

Ollamaを使ってGPT-OSS-20bをVRAM 8GBのマシンで動かした件

特に工夫はしていないのですが、RTX3050 8GB版とollamaを使って話題のGPT-OSS 20bを実行してみたという話。

VRAMとRAMの負担から見るに、かなり余裕はありそうです。推論中もかなり余裕がある。

思考中の時間も長くないため、短文やり取りなら問題なく使えそうでした。


phi4-mini-reasoning:3.8bとの比較

検証環境で上記のphi-4モデルを使うと、<think>が長文になってしまいますがgpt-oss:20bは余計な内容は出力していない結果になりました。

この環境だと、もともと推論速度が速くないため、どちらも最終的な実行速度は変わりませんが、どちらが良いのでしょうかねえ?


メモ:

RTX3050の使用率が15%とかなので、もしかしたらCPUで推論しているのかも?とは思ってしまった。一応、CPUとGPUの比率は半分くらいらしい。

16 GB 53%/47% CPU/GPU

カテゴリー: その他 | Ollamaを使ってGPT-OSS-20bをVRAM 8GBのマシンで動かした件 はコメントを受け付けていません

MSI Claw 7 A1M でStable diffusion などやってみた。

新品でCore Ultra 7 155H搭載で9万円という破格の本機。ケースとフィルムも+2,000円で買えてしまうので買ってみた。

ベンチマーク

Crystal Mark Retroでベンチマークを取ってみると、シングルスコアに至ってはメイン機の Ryzen 9 3900 を上回っているようでCore Ultraの強力さがよくわかる。マルチコアは流石に3900が勝つものの、大きな差はないという状態に。

GPUは流石にRTX3080に及ばないものの、持ち運べるパソコンとしては高性能な部類では?


きっかけ

調べているとCore Ultra内蔵の Intel ARC は IPEX に対応しているらしく、Pytorchを使った処理ができる模様。
https://pytorch-extension.intel.com/installation?platform=gpu&version=v2.7.10%2Bxpu&os=windows&package=pip

ということでAI関連のタスクをやってみようという記事です。
なお、Meteor LakeのIntel ARCは XMX っていうのを省かれているってみたんだけど、この辺が性能にどう響くのかはよくわからんかった。
NPUがあるからそっちでカバーしてってことなのかなあ?

スペック:
intel Core Ultra 7 155H
RAM 16GB (VRAMとは共用)
SSD 1TB

導入

Stability Matrixをインストールして、そこで検証してみた。
インストールして直後の画面では SD.NEXT しか表示されないので、それをインストール。
nvidia系GPUでしか試したことなかったんだけどintel系だとこうなるんだねえ。

SD.NEXTってアプリ、IPEX以外にも色々使えるらしく、OpenVINOやDirectMLなんかも使えるっぽい。
あと、量子化もできるように見えた。ドキュメント見てるとWindowsでintel系の場合は、Visual StudioのC++コンパイラーがいる?っぽい。
Stability Matrixインストール時に入っているようなのでパスを通せばいいんかな?

SDXL系FP16のモデルを入れて実験。
パラメーターは以下の通り

解像度 1024x1024
Steps 10
SDM++
他はデフォルト

結果

50秒ほどで画像が出てきた。
RTX3050やRTX3080に比べると明らかに遅いが、nvidia系以外でも動くっていうのが感動した。

NPUも使ってみようと色々試してみたんだけど、IPEXだとGPUが使われていて、OpenVINOを使ってNPUを指定してみただけど、どうもうまく動きませんでした。

いろいろやって13秒ほどまで短縮できましたが、画像保存周りでいったん止まってしまうので結局トータルだと30秒ほどかも。もうちょっと検証してから追記します。

あとRAMが16GBしかないので lowvram オプションの方がいいかも?仮想メモリがあるから medvram でもできるんだけど、カツカツまで使い切っちゃいます。ただ、試した限りではmedvramの方がかなり早い印象です。

カテゴリー: パソコン・サーバー関連 | MSI Claw 7 A1M でStable diffusion などやってみた。 はコメントを受け付けていません

シムピープルとThe Sims2のコレクションをSteamで買うか悩んでる件

The Sims 2は持っているのでSteamで実行できるようになる点以外はどちらでも大丈夫な感じなのですが
シムピとセットでついてくるThe Sims 4のパックが気になる。

シムピは昔、気になっていたので欲しいとして、The Sims 4のパックいるかなあ。。。

カテゴリー: その他 | シムピープルとThe Sims2のコレクションをSteamで買うか悩んでる件 はコメントを受け付けていません

Visual Studio Code の tunnel でつまずいたところ備忘録

NUC上に構築していたのですが結構つまずいたのでここに書いておきます。

サービスとしてインストール

code tunnel service install


動作確認

code tunnel service status

or

systemctl --user status code-tunnel.service

でできます。

この状態だとサーバーの起動と同時に起動してこないので以下のコマンド実行

sudo loginctl enable-linger username

ここに辿り着くのに時間かかった。。。デフォルトだとユーザーにログインしないと起動してこないようです。

カテゴリー: その他 | Visual Studio Code の tunnel でつまずいたところ備忘録 はコメントを受け付けていません

Ollamaとqwen2.5-coderを使う際のVRAMの節約について

以前書いた以下の記事

ここからもっと性能を上げたく、いろいろググっているとどうやらRTX3080 10GBで32Bを動かしている方がいらっしゃる様子。
前の検証結果ではVRAMは常にカツカツで余裕はなさそうな状態でした。

そんなん動くんか!と思いつつも動くのであればそれに越したことはないので試してみることに。。。
→次回で書こうと思っている内容ですが、結論としては確かに下がるけどCPU側のRAMも使ってくれて処理していました。
VRAMに収まる分しか動かないと思っていたので大発見!

最近はAIエージェント?とかいうものが流行っているのもあっていろいろチャレンジしているのですがAPI費用が馬鹿にできないのでローカルLLM流行ってくれええええ!

やること

Ollamaをサーバーとして動かす場合、githubを調べているとどうやら環境変数に書き込むことで設定をいろいろ変更できるらしい。
https://github.com/ollama/ollama/blob/main/docs/faq.md#how-do-i-configure-ollama-server
※ちなみにこのFAQに外部に情報を送らない旨が書かれているっぽい(英語スキル自信なしw)

今回はVRAM使用量に影響を及ぼしそうなものを入れていきます。

OLLAMA_KV_CACHE_TYPE
OLLAMA_FLASH_ATTENTION

の二つが効果があるらしく

上のKV_CACHEというのはよくわかりませんでしたがパラメータは量子化に関する値を入れればよいとのこと。これがVRAMの削減にめっちゃ効くらしい。

FLASH_ATTENTIONはStable Diffusionなどでも見ますがあまりよくわかっていませんw
これもVRAM使用量を減らしてくれるものです。FAQページにもありましたが 1 にするだけで有効化されるようです。

というわけでネット上のサンプルをいろいろ見て以下のような設定にしました。

OLLAMA_KV_CACHE_TYPE = "q8_0"
OLLAMA_FLASH_ATTENTION = 1

q4_0とかにすると軽くなるようですが回答精度が落ちるとかなんとかでq8がちょうどよいようです。

設定がONの時
前回同様 Continue と利用しています。

今回の設定がOFFの時

確かに1GBほど減っています!

成果としては7Bと1.5B両方の読み込み時で1GBほど減るようでした。
32BとClineも試しているのですがそれは次回!

カテゴリー: パソコン・サーバー関連 | タグ: , , | Ollamaとqwen2.5-coderを使う際のVRAMの節約について はコメントを受け付けていません

カローラ ツーリングでUSBハブを使うとCarPlayが使えなくなった件

グローブボックス横のUSB-Cが一番便利なのだがそこにUSBハブを使うとCarplayが使えなくなってしまった。

ハブを取り外すと問題なくなるのでおそらくこれが問題なのだが何かいい製品はないのか調べたいです。。。

もしかしてだけど片方は通信可能でもう片方で電源のみみたいなケーブルがあれば行けたりする?

カテゴリー: その他 | カローラ ツーリングでUSBハブを使うとCarPlayが使えなくなった件 はコメントを受け付けていません

Ollamaとqwen2.5-coderとContinueを使って貧乏Copilotを作る

M5Stack LLM界隈でちらちら見ていた qwen って名前のLLM。なんでも日本語でもやり取りができるとか?
英語の語学力が残念な私にとって日本語でやり取りできるLLMめちゃ大事です。
たまたま、Ollamaのモデル一覧を見ているとqwen2.5-coderたるものがあることを発見しました。

VSCodeにCopilot系のものを入れたいと思っていたところにこれが出てきたので試しに構築してみることに。コード用のモデルってどれがいいかわかんないけど0.5bとかあるしお手軽かなって思って入れてみました。
ちなみにOllamaに入っている別のモデルを指定すればそれも使えます。

このモデルは3Bを除いてApache 2.0だそうです。
https://ollama.com/library/qwen2.5-coder

3B以外で手元の環境で動きそうなのが7Bか1.5B。RTX3080搭載環境なのでとりあえず7Bにしました。

とりあえずモデルダウンロード&テスト

ollama run qwen2.5-coder:7b

終わったらvscodeにContinueをインストールして画面右下のContinueボタンをクリックします。

Configure Autocomplete Optionsとあるのでそこをクリックします。
表示されたテキストファイルを以下のように編集して保存します。

{
  "models": [
    {
      "title": "qwen2.5-coder",
      "provider": "ollama",
      "model": "qwen2.5-coder:7b"
    }
  ],
  "tabAutocompleteModel": {
    "title": "qwen2.5-coder",
    "provider": "ollama",
    "model": "qwen2.5-coder:7b"
  },

*このファイルの編集については以下も参照したほうが確実かもしれません。
https://docs.continue.dev/customize/model-providers/ollama

これでVSCodeからチャットを入力すると。。。
これだけで応答が返ってきます!


デメリットとしては7BだとVRAMがかつかつな点。。。
このパソコン組んだ時はこんなにVRAM使うことになるとか想定してなかたですw


いろいろ試していて。。。

オートコンプリートのモデルは0.5bでも十分かもしれません。
7bと0.5b両方を読み込むとGPUのVRAMが9.7GBに達するためちょっとしんどいですね。。。(´;ω;`)

カテゴリー: パソコン・サーバー関連 | タグ: , , , , | Ollamaとqwen2.5-coderとContinueを使って貧乏Copilotを作る はコメントを受け付けていません

愛車のE12型ノートe-Powerに3万キロ以上乗った感想

先日、新しい車がやってきました。なので以前の愛車「ノートe-POWER e12」との感想など書いていきたいと思います。一部未完成なのでこれからも追記するよ!

はじめに

中古で購入してきたものの人生で初めて自分で購入した車なのでメンテナンスや掃除を含めて結構大事に乗ってきたつもりです。なので評価あまあまで思い出補正ありのレビューです。


見た目

外装

近くで見てみると意外とかっこいい顔しています。とはいっても丸い顔なのでかわいいと言われることの方が多いような気も。。。
私はすごく好みでした!
あと後方のテールランプのラインもお気に入り!夜とかに見るとかっこいいなあって思います。写真で見るよりも実際の車両は天井のあたりがまるっとしている感じです。


乗ってみて

この車の最大の特徴はパワートレイン(e-Power)だと思います。

加速感

e-Power搭載車でまず感じるのはトルクの強さを感じる発進時加速。
3気筒 1200ccの車とは思えない力強い加速と滑らかな出だしで満足感は高いです。
e-Powerに限らず、モーターを搭載した車特有の滑らかさと発進時のトルクの強さは一度乗ったら戻れなくなっちゃいます(๑╹ω╹๑ )

強いて言うなら高速道路の中間加速を行う際のベタ踏みは加速開始まで少しタイムラグがある印象です。ここが変わればもっと良くなると思います。

乗り心地

足回りは期待以上に良いと感じました。
街中でゆっくりと移動している時から高速の繋ぎ目を踏むシーンまで快適な乗り心地です。
どちらかというと硬めの足回りかと思いますが硬すぎず個人的にはちょうどいい感じです。

エンジンが始動する時に結構揺れることがあるのでそこは改善してほしいところですが揺れない時もあるのでエンジンの暖気具合とかもあるのかもしれませんね。。。

エンジンが動いている時の音はまあまあ聞こえてきます。「びゅいーーーーーーん」って感じの音です。猫の鳴き声見たいと言われることも。
巡航中などであればロードノイズよりも静かなので気になりませんが市街地の低速走行とかだと少し気になるかもしれません。
全体的には静かな部類には入ると思います。

燃費

ワンペダル走行を基本にした評価になります。
ハイブリッドというだけあって20km/lは余裕です。Sモード・ECOモードどちらで走っても20km/lは超えてくれます。

まとめ

2年間で3万キロ以上走行するほど色々な場所を走りました。特に最近はガソリン代が高いので燃費の良いこの車はすごくありがたかったです。
今でもお気に入りの一台で「人から乗りやすい車は何?」と聞かれたらこの車になりそうです。

カテゴリー: | タグ: , , , , , , | 愛車のE12型ノートe-Powerに3万キロ以上乗った感想 はコメントを受け付けていません