AWS開発を iPad mini で完結させられないか、しばらく試していた。
軽く作業する分には問題ないが、限界を感じる場面も多かった。
特に Amplify をちゃんと勉強しようと思い、 GitHub上で直接コードを編集する運用をしていたところ、 編集後にエラーが多発し、かなりやりづらい。
「さすがにこれは厳しいな…」ということで、 ノートパソコンを使うことを考え始めた。 せっかくなら前から気になっていた ローカルLLM にも挑戦してみよう、という流れ。
AIエディタは何を使うか
個人的な主観だが、主要なAIエディタは
- Cursor
- GitHub Copilot
の2択かな、という印象を持っていた。 まずはCursorから調査を開始。
Cursorでは出来なかった
結論から言うと、CursorではローカルLLMが使えなかった。
- ローカルLLMと同じ端末 → ダメ
- ローカルLLMを別端末 → ダメ
「出来た」という記事もいくつか見かけたが、 「出来ない」という記事も同じくらいあり、 正直どちらを信じていいのか分からない。
少なくとも自分の環境では再現できず、 信じ難いという感想だけが残った。
GitHub Copilotを調査
というわけで、次は GitHub Copilot を調査。
ローカルLLMとコーディングを 同じ端末で使う 方法については別の記事でまとめているが、 今回は 別のパソコン で使うケース。
前提として、
- GitHub Copilotが使える状態
- Ollamaが動いているパソコンがある
という準備は必要になる。 これは同一端末でも別端末でも共通。
設定方法(別パソコンでOllamaを使う)
設定は意外とシンプルだった。
- VS Codeを開く
- fileタブ→ Preferences → Settingsだったかな
-
settings.jsonをエディタで開く
そこに、以下を追加する。
"github.copilot.chat.byok.ollamaEndpoint": "http://<OllamaマシンのIP>:11434"
<OllamaマシンのIP> には、
Ollamaを動かしているデスクトップパソコンのIPアドレスを指定する。
結果:ちゃんと使えた
この設定を入れることで、
- コーディング用パソコン(ノートPC)
- LLM用パソコン(デスクトップ)
が別でも、GitHub CopilotからOllamaを利用できた。
正直、 「やったら出来そう」 という記事を他でも見かけていたので、 半信半疑で試してみた、という感じだったが、 実際に動いたのは素直に嬉しい。
まとめ
- iPad miniだけでAWS開発はさすがに限界
- CursorでローカルLLMは自分の環境では不可
- GitHub Copilotは別パソコンのOllamaも使える
- 設定は
settings.jsonに1行追加するだけ - デスクトップをLLMサーバーとして使う構成は現実的
ローカルLLM環境を活かしつつ、 作業端末を柔軟に切り替えたい人には、 かなりアリな構成だと思う。

コメント