GitHub Copilot × ローカルLLMで盛大にハマった話

アプリ開発

GitHub CopilotにローカルLLMを組み込めば、
「ネットに出さずに補完できて最強では?」
と軽い気持ちで始めたのがすべての始まりだった。

結論から言うと、普通に動くようになるまでかなり徒労が多かった
今回はそのハマりポイントを、時系列でまとめておく。

LM Studioなら簡単にできそう…という幻想

ローカルLLMといえばまず LM Studio
UIも分かりやすいし、「これGitHub Copilotと繋げられるでしょ?」という直感があった。

しかし結論としては、

  • LM StudioではGitHub Copilot連携はできなかった
  • 検索すると VS Code + Codex + ローカルLLM の記事は出てくる
  • ただしこれは GitHub Copilotとは別物 という印象

直感的に出来そうだっただけに、完全に徒労。ここで一度心が折れかける。

Ollamaならできるらしい → 始めの徒労

調べ直すと、OllamaならGitHub Copilotと連携できるという情報に行き着く。

ただし自分の環境では、

  • 先にLM Studioを入れていた
  • すでにいくつかモデルをダウンロード済み
  • モデルを共用したいという欲が出た

やり方を探して試してみたところ、

  • Ollama側のモデル一覧には出てくる
  • しかし Chatの回答が毎回、変なタブ文字だらけ
  • しかも 毎回ほぼ同じ出力

原因をかなり調べたが結局不明。
おそらく Ollamaから直接ダウンロードしていないモデルだったから だと思われる。

「選択肢に出てくる以上、使えるはず」という思い込みで引くに引けず、
ここでかなり時間を溶かした

Ollamaから直接モデルを入れたら動いた!…が遅い

気を取り直して、

  • Ollamaから qwen3 4b を直接ダウンロード

すると、GitHub Copilotとの連携自体は成功。

……が、とにかく遅い。

  • GPUが動いていない
  • 設定画面にもそれらしい項目が見当たらない
  • 「おはよう」の返答に 300秒

ここからさらに徒労が続く。

GPUが動かない問題の深追い

調べると、以下が必要という情報が出てくる。

  • グラボのドライバー
  • CUDA Toolkit
  • cuDNN
  • Build Tools for Visual Studio

半信半疑で、以下を順番に試した。

実際にやったこと(時系列)

  • LM Studio インストール
  • いくつかモデルを入れる
  • Ollama インストール
  • モデルを共用(失敗)
  • Ollamaからモデルを入れ直す
  • NVIDIA グラボドライバー更新
  • Build Tools for Visual Studio インストール
  • CUDA Toolkit インストール
  • cuDNN インストール
  • 環境変数に
    CUDA_VISIBLE_DEVICES=<nvidia-smi -L で調べた値> を追加
    ※PowerShellでは nvidia-smi -L が動いておらず、気づくのが遅れた。コマンドプロンプトで動く。
  • Ollama 再インストール

正直、最低限どれが必要だったのかは不明
過剰に何かしている可能性はかなり高い。

突然GPUが動き出す

最終的に、

  • 何が決定打だったのかは分からない
  • しかし GPUが動くようになった
  • 応答時間は 300秒 → 約30秒

ollama ps で確認するとGPU使用率100%。
ようやく「動いている感」が出てきた。

環境と使用感

  • PC:デスクトップ
  • GPU:RTX 3050
  • モデル:qwen3 4b

4bモデルであれば、かなり軽快に動いている印象

iPad mini縛りという地味な工夫

作業環境は iPad mini縛り

  • Windowsマシンにはリモートデスクトップ接続
  • タブやカーソル移動などは
    Windows側のスクリーンキーボードで対応可能

これに気づいてから、地味に作業が楽になった。

まとめ

  • 「LM Studioでいけそう」は幻想
  • Ollamaは 必ず直接モデルを入れる
  • GPUが動かないと地獄
  • CUDA周りは沼
  • 何が効いたか分からないが、最終的には動いた
  • ローカルLLM × GitHub Copilotは ハマる覚悟が必要

同じところでハマる人が一人でも減れば幸いです。

コメント