OpenAI Codexの能力を最大限に活用し、ローカルLLMとシームレスに接続する機能が「VibeCoding」によって実現しました。単なる知識や機能の寄せ集めではなく、真に動く、強力な開発ワークフローを構築できたことは大きな成果です。
今回実装した核となるのは、特定のワークフロー画面(/workflows)に「ローカルAIでAI処理機能」を組み込むことです。この機能群によって、従来のLLM利用の課題を解決し、強力なローカルAI処理パイプラインを構築しました。
具体的には、以下の3つのボタンを「Copy」の行に右詰で追加しました。

この機能を実現するために、以下のロジックと挙動を設計しました。
localStorageに記録し、永続的に使用できる状態にします。Ctrl/Cmd + Zでは、AI処理後のコンテンツは元に戻せません。
今後、文書美化やBlog作文など、ローカルのLLMで使えるようになり、無駄なToken消耗がなく、かつ完全ローカルなので超安全!
ローカルで動作するOllama環境と、Cloud Runなどでデプロイしたサーバー側のPluginを通信させるためには、ネットワークレベルでの設定が不可欠です。
(Mac環境の例)
1.環境変数設定: ターミナルを開き、以下のコマンドを実行してオリジンを設定します。
launchctl setenv OLLAMA_ORIGINS "*"
2.Ollamaの設定変更: Ollamaの設定画面で「Expose Ollama to the network」をOnに設定します。

3.再起動: Ollamaを一度Quitし、再度起動し直します。
これらの手順を踏むことで、これからのPromptの文書処理は、インターネット上のAPIに頼らずローカルLLM環境で安全かつ迅速に行えるようになりました。API利用料を気にすることなく、高性能な処理が実現できるのは最大のメリットです!
今回の開発を通じて、ローカル環境の強力なLLM(Ollamaなど)と、カスタムフロントエンドを組み合わせることで、どのような業務ロジックも実現可能だと再認識しました。
最後に、改めて利用しているモデルについて触れておきます。
ローカルLLMの進化は、開発の可能性を無限に広げてくれています。