【#も読】AIエージェント時代のセキュリティ - 隔離・パーミッション制御(@yusuktan)のトップ画像

【#も読】AIエージェント時代のセキュリティ - 隔離・パーミッション制御(@yusuktan)

投稿日時:
maguroのアイコン

Deno Land Inc. / ソフトウェアエンジニア

maguro

Xアカウントリンク

「あの人も読んでる」略して「も読」。さまざまな寄稿者が最近気になった情報や話題をシェアする企画です。他のテックな人たちがどんな情報を追っているのか、ちょっと覗いてみませんか?


みなさんこんにちは。

「あの人も読んでる」、第8回目の投稿です。maguro (X @yusuktan)がお届けします。

今回のテーマ: AIエージェント時代のセキュリティ

前回の投稿で、以下の内容をご紹介しました。

  • OpenAIのコマンドラインツールであるcodexがRustでの書き換えを進めていること
  • 書き換えの目的の1つが、Linuxのlandlock、macOSのseatbeltといった、OSが提供するセキュリティ機構を利用するためであること

このように、OpenAI Codex CLIチームは、自律的に動くAIに対しての与えるパーミッションを最小限にしようと試みていることが分かります。

この他にもAIとセキュリティという問題に対してさまざまな角度からアプローチがなされています。今回はそのような取り組みのうち、僕がおもしろいと思ったものを2つ紹介しようと思います。

  1. microsandbox: AI生成コードのための軽量かつ強力に隔離されたサンドボックス環境
  2. Cage4Deno: Denoから立ち上げられるサブプロセスに対してパーミッション制限を適用する実験的な試み

microsandbox

https://docs.microsandbox.dev/

1つ目は microsandbox です。これはAI生成コードなど、必ずしも信頼できないコードを実行するための環境として、

この記事のつづきを読もう
新規登録/ログインしたらできること
  • すべての記事を制限なく閲覧可能
  • 限定イベントに参加できます
  • GitHub連携でスキルを可視化
ログイン
アカウントをお持ちでない方はこちらから新規登録