「あの人も読んでる」略して「も読」。さまざまな寄稿者が最近気になった情報や話題をシェアする企画です。他のテックな人たちがどんな情報を追っているのか、ちょっと覗いてみませんか?
こんにちは。東内(@yousukezan)です。
相変わらず引きこもってAIとセキュリティの記事を中心に読んでいます。数日かかってたコーディングやソースコードの読み込みをAIが数分で終わらせてくれて、どんどん自分の仕事が減っていく気がして怖いですね。
それでは、最近読んで良かったコンテンツの一部を紹介します。
LummaStealerがTake downされるまでの活動状況
https://sect.iij.ad.jp/blog/2025/05/lummastealer-take-down/
証券口座のアカウント乗っ取りは依然として大きな話題です。各社が対策を進めており、二段階認証が実装されたことで、今後はそれなしではログインできないサイトも増えていきそうです。
そんな中、原因の一つとして注目されているのが「InfoStealer(インフォスティーラー)」という単語です。初めて耳にした方も多いかもしれませんが、InfoStealerとは、情報を窃取することを目的としたマルウェアの総称です。
今回紹介する記事では、そのInfoStealerの一種である「LummaStealer」のインフラが、2025年5月に国際的な法執行機関とマイクロソフトなどの協力により押収された事例が報告されています。 LummaStealerは直接攻撃を行っていたわけではなく、マルウェアを提供し、それを使って盗んだ認証情報などをマーケットプレイスで販売するというビジネスモデルを採っていました。攻撃者(アフィリエイト)はマルウェアを拡散してデータを収集・販売し、運営側はプラットフォームの維持と情報の管理を担い、手数料を得ていたとのことです。
まるで実際の商品を販売しているかのような仕組みで、盗まれた情報がビジネスとして売買されていることに驚かされます。現在、LummaStealerのドメインはテイクダウンされ、活動は困難になっているようですが、同様の悪質なグループはまだ多く存在しているため、引き続き注意が必要です。
【2025年5月完全版】RAG の教科書
https://zenn.dev/microsoft/articles/rag_textbook
AI関連でMCPと並んでよく見かける単語である「RAG」について、「教科書」と大きく振りかぶったタイトルの記事が公開されています。
RAGとは「検索拡張生成」のことで、大規模言語モデル(LLM)の出力に外部知識を組み込むことで、より正確で信頼性の高い回答を生成する手法です。Meta社が2020年に提案し、LLMのハルシネーション(誤情報生成)を抑制する技術として注目されています。
この記事ではそんなRAGについて、自分のようなにわかAIユーザーにもわかりやすく全体像をまとめたものになります。RAGの概要から、RAGのバリエーション紹介、評価とファインチューニングに到るまでわかりやすく書かれています。これまで今ひとつ理解できていなかったRAGについてわかった気になりました。
RAGのセキュリティに関する記事もいくつか出てきており、あわせて読むと理解が深まりそうです。
AI破産を防ぐために - LLM API利用におけるEconomic DoSのリスクと対策
https://blog.flatt.tech/entry/ai_edos
AIにせっせと課金している人も多いと思いますが(筆者もそうです)、気になることはお金です。使えるお金は限られています。定額で課金されているものは予測が付くのでいいのですが、APIは従量課金だったりすることも多く、調子に乗って使い続けてると予算以上になってしまい焦ることも多いです。
個人でもヒヤヒヤしますが、外部サービスとして公開している場合、設定ミスや他者による悪用で想定外の利用が発生するリスクもあります。この記事では、攻撃者が意図的に大量のトークンを消費させることで、運用を困難にさせる「EDoS(Economic Denial of Sustainability)」攻撃について解説されています。 リクエスト回数を増やしたり、長文や特殊文字を入力したりするだけでなく、長い出力を促すことで課金を誘発する手法もあるそうです。また、処理を長時間化させたり、無限ループさせることによっても攻撃が成立するとのこと。意地が悪いです。
AWSやGCPなどでもAPIの不正利用でビットコインのマイニングをさせられて大変な目に遭う話がありましたが、一歩間違えるとAI破産が見えてきます。注意していきたいですね。
この記事を公開しているFlatt Securityですが、5月になってからこの記事含めてAIのセキュリティに関するエントリを10本も公開しています。どれも読み応えがあってすごいです。
How I used o3 to find CVE-2025-37899, a remote zeroday vulnerability in the Linux kernel’s SMB implementation
Sean Heelan氏がChatGPTo3を使ってCVE-2025-37899(LinuxカーネルのSMB実装のリモートゼロデイ脆弱性)を発見した方法に関する記事です。
筆者も試しに小さなJavaScriptライブラリをAIに読み込ませたところ、いきなり脆弱性の可能性を指摘されて驚いた経験があります(その後IPAに報告済み)。ソースコードをAIに読ませてみるというのは、多くの人が一度は試してみたくなるアプローチかもしれません。
著者はksmbd(Linuxカーネル内でSMB3を提供するサーバ)を趣味で監査していた中で、o3の性能を評価するため、以前に自分で発見した脆弱性を見つけられるか試したそうです。その過程で、なんと著者自身も気づいていなかった新たな脆弱性が発見されました。 やったことは基本的にソースコードをAIに読み込ませただけとのことで、その成果には驚かされます。どうやら、コードの脆弱性を探すという点では、人間よりもAIの方が優れてきているようです。
とはいえ、1回の試行で見つけられたわけではなく、繰り返し試す中での発見だったとのこと。100回の試行のうち、8回で脆弱性を正しく特定できたそうです。普段使っているコンピューターのように、同じ入力で常に同じ出力が得られるとは限らない点に、AI時代の思考法を改めて考えさせられます。