GitHub CopilotにローカルLLMを組み込めば、
「ネットに出さずに補完できて最強では?」
と軽い気持ちで始めたのがすべての始まりだった。
結論から言うと、普通に動くようになるまでかなり徒労が多かった。
今回はそのハマりポイントを、時系列でまとめておく。
LM Studioなら簡単にできそう…という幻想
ローカルLLMといえばまず LM Studio。
UIも分かりやすいし、「これGitHub Copilotと繋げられるでしょ?」という直感があった。
しかし結論としては、
- LM StudioではGitHub Copilot連携はできなかった
- 検索すると VS Code + Codex + ローカルLLM の記事は出てくる
- ただしこれは GitHub Copilotとは別物 という印象
直感的に出来そうだっただけに、完全に徒労。ここで一度心が折れかける。
Ollamaならできるらしい → 始めの徒労
調べ直すと、OllamaならGitHub Copilotと連携できるという情報に行き着く。
ただし自分の環境では、
- 先にLM Studioを入れていた
- すでにいくつかモデルをダウンロード済み
- モデルを共用したいという欲が出た
やり方を探して試してみたところ、
- Ollama側のモデル一覧には出てくる
- しかし Chatの回答が毎回、変なタブ文字だらけ
- しかも 毎回ほぼ同じ出力
原因をかなり調べたが結局不明。
おそらく Ollamaから直接ダウンロードしていないモデルだったから だと思われる。
「選択肢に出てくる以上、使えるはず」という思い込みで引くに引けず、
ここでかなり時間を溶かした。
Ollamaから直接モデルを入れたら動いた!…が遅い
気を取り直して、
- Ollamaから qwen3 4b を直接ダウンロード
すると、GitHub Copilotとの連携自体は成功。
……が、とにかく遅い。
- GPUが動いていない
- 設定画面にもそれらしい項目が見当たらない
- 「おはよう」の返答に 300秒
ここからさらに徒労が続く。
GPUが動かない問題の深追い
調べると、以下が必要という情報が出てくる。
- グラボのドライバー
- CUDA Toolkit
- cuDNN
- Build Tools for Visual Studio
半信半疑で、以下を順番に試した。
実際にやったこと(時系列)
- LM Studio インストール
- いくつかモデルを入れる
- Ollama インストール
- モデルを共用(失敗)
- Ollamaからモデルを入れ直す
- NVIDIA グラボドライバー更新
- Build Tools for Visual Studio インストール
- CUDA Toolkit インストール
- cuDNN インストール
-
環境変数に
CUDA_VISIBLE_DEVICES=<nvidia-smi -L で調べた値>を追加
※PowerShellではnvidia-smi -Lが動いておらず、気づくのが遅れた。コマンドプロンプトで動く。 - Ollama 再インストール
正直、最低限どれが必要だったのかは不明。
過剰に何かしている可能性はかなり高い。
突然GPUが動き出す
最終的に、
- 何が決定打だったのかは分からない
- しかし GPUが動くようになった
- 応答時間は 300秒 → 約30秒
ollama ps で確認するとGPU使用率100%。
ようやく「動いている感」が出てきた。
環境と使用感
- PC:デスクトップ
- GPU:RTX 3050
- モデル:qwen3 4b
4bモデルであれば、かなり軽快に動いている印象。
iPad mini縛りという地味な工夫
作業環境は iPad mini縛り。
- Windowsマシンにはリモートデスクトップ接続
-
タブやカーソル移動などは
Windows側のスクリーンキーボードで対応可能
これに気づいてから、地味に作業が楽になった。
まとめ
- 「LM Studioでいけそう」は幻想
- Ollamaは 必ず直接モデルを入れる
- GPUが動かないと地獄
- CUDA周りは沼
- 何が効いたか分からないが、最終的には動いた
- ローカルLLM × GitHub Copilotは ハマる覚悟が必要
同じところでハマる人が一人でも減れば幸いです。


コメント