デスクトップパソコンをサーバーとしてGitHub CopilotのローカルLLM(Ollama)を使う

アプリ開発

AWS開発を iPad mini で完結させられないか、しばらく試していた。
軽く作業する分には問題ないが、限界を感じる場面も多かった。

特に Amplify をちゃんと勉強しようと思い、 GitHub上で直接コードを編集する運用をしていたところ、 編集後にエラーが多発し、かなりやりづらい。

「さすがにこれは厳しいな…」ということで、 ノートパソコンを使うことを考え始めた。 せっかくなら前から気になっていた ローカルLLM にも挑戦してみよう、という流れ。

AIエディタは何を使うか

個人的な主観だが、主要なAIエディタは

  • Cursor
  • GitHub Copilot

の2択かな、という印象を持っていた。 まずはCursorから調査を開始。

Cursorでは出来なかった

結論から言うと、CursorではローカルLLMが使えなかった

  • ローカルLLMと同じ端末 → ダメ
  • ローカルLLMを別端末 → ダメ

「出来た」という記事もいくつか見かけたが、 「出来ない」という記事も同じくらいあり、 正直どちらを信じていいのか分からない。

少なくとも自分の環境では再現できず、 信じ難いという感想だけが残った。

GitHub Copilotを調査

というわけで、次は GitHub Copilot を調査。

ローカルLLMとコーディングを 同じ端末で使う 方法については別の記事でまとめているが、 今回は 別のパソコン で使うケース。

前提として、

  • GitHub Copilotが使える状態
  • Ollamaが動いているパソコンがある

という準備は必要になる。 これは同一端末でも別端末でも共通。

設定方法(別パソコンでOllamaを使う)

設定は意外とシンプルだった。

  1. VS Codeを開く
  2. fileタブ→ PreferencesSettingsだったかな
  3. settings.json をエディタで開く

そこに、以下を追加する。

"github.copilot.chat.byok.ollamaEndpoint": "http://<OllamaマシンのIP>:11434"

<OllamaマシンのIP> には、 Ollamaを動かしているデスクトップパソコンのIPアドレスを指定する。

結果:ちゃんと使えた

この設定を入れることで、

  • コーディング用パソコン(ノートPC)
  • LLM用パソコン(デスクトップ)

が別でも、GitHub CopilotからOllamaを利用できた

正直、 「やったら出来そう」 という記事を他でも見かけていたので、 半信半疑で試してみた、という感じだったが、 実際に動いたのは素直に嬉しい。

まとめ

  • iPad miniだけでAWS開発はさすがに限界
  • CursorでローカルLLMは自分の環境では不可
  • GitHub Copilotは別パソコンのOllamaも使える
  • 設定は settings.json に1行追加するだけ
  • デスクトップをLLMサーバーとして使う構成は現実的

ローカルLLM環境を活かしつつ、 作業端末を柔軟に切り替えたい人には、 かなりアリな構成だと思う。

コメント