2025年12月12日に開催されたオンラインイベント「GitHub Copilotを使いこなす 実例に学ぶAIコーディング活用術」。同イベントではAtsushi Morimoto (@74th)さんをお招きし、GitHub Copilotの基礎的な機能から実践的な活用方法までをお話しいただきました。
当日は1,800名以上の申し込みがあり、参加者の皆さまからは「実務に直結する具体的な活用法が学べた」「GitHub Copilotの全体像が掴めた」といった声が寄せられ、チャット欄・Xともに大変盛り上がりました。また、多くのご質問も寄せられ、イベント中に可能な限り回答いただきましたが、時間の関係で回答しきれない質問も残りました。
本記事では、通常そのまま終わってしまうことが多いこうした未回答の質問について、登壇者の方のご協力のもと、イベント後に回答いただいた内容をお届けします。
イベント参加者の皆さまはもちろん、当日参加できなかった方も、ぜひ本編のアーカイブ動画と併せてご覧いただき、GitHub Copilot(以下、Copilot)やAIコーディングにおけるヒントを見つけていただければ幸いです。
※質問文は内容に影響を与えない範囲で、一部表現を調整しています。
Q&A
導入・信頼性・安全性について
Q. 「モデルの学習に使用しない」という説明は、どの程度信用できるものなのでしょうか?
A. 私個人としては、GitHub社の親会社がMicrosoftであるため、信用できると考えています。ただし、Web検索機能など外部との通信を備えた機能があり、その外部においては内容が利用されないという保証は適用されないため、注意が必要だと考えています。
Q. Hugging Faceのトークンなどの秘匿情報を、環境変数ファイルとしてCopilotに安全に扱わせることは可能ですか?
A. MCP Serverであれば、MCP Serverに必要な秘匿情報を設定ファイルに埋め込むことなく利用する機能がVS Codeにあります。VS Codeのドキュメントを確認ください。
GitHub Copilotに.env等のファイルを参照しないように設定することはできますが、コマンドを介して参照するなど、エージェントの動作で回避が可能なため、あまり現実的ではありません。外部流出を抑えたい目的であれば、環境を隔離して、可能な通信を制御するなどする必要があるかと思います。
