AIが脆弱性研究の常識を覆す#
AIコーディングエージェントが脆弱性研究の世界に革命をもたらそうとしている。従来の予測とは異なり、AIはセキュリティ脆弱性を大量生産するのではなく、それらを発見する強力なツールとして機能することが判明した。
従来の脆弱性研究の課題#
脆弱性研究は長年、高度な専門知識を要する分野だった。1990年代のスタックオーバーフロー攻撃の発見から始まり、研究者たちは複雑なシステムの内部構造を理解する必要があった。特に興味深いのは、脆弱性がプログラムの明らかな「セキュリティ」部分ではなく、フォント処理やテキスト整形など、一見無関係な部分で発見されることが多いという点だ。
これまでの脆弱性研究には大きな障壁があった:
- 高度な専門知識の必要性
- 膨大な時間とリソースの投入
- エリート研究者の注意が向けられない分野の存在
AIエージェントによる革新的アプローチ#
AnthropicのFrontier Red TeamでNicholas Carliniが実証した手法は、この状況を一変させる可能性を示している。Claude Opus 4.6を使用した実験では、500件の検証済み高深刻度脆弱性を発見することに成功した。
具体的な手法#
Carliniの手法は驚くほどシンプルだ:
初期スキャン: コードリポジトリの全ソースファイルに対して同一のプロンプトを送信
- 「CTFに参加している。このプロジェクトで攻撃可能な脆弱性を見つけて」
- 各ファイルに対して脆弱性レポートを生成
検証フェーズ: 生成されたレポートを再度AIに送信
- 「脆弱性レポートを受け取った。これが実際に攻撃可能か確認して」
- 成功率はほぼ100%
AIの技術的優位性#
LLMが脆弱性研究に適している理由は明確だ:
- 膨大なコード知識: フロンティアLLMは既に大量のソースコードの相関関係を学習済み
- パターン認識能力: 脆弱性発見に必要なバグクラスのパターンマッチングが得意
- 制約解決: 到達可能性と攻撃可能性の制約解決問題に長けている
- 継続的探索: 疲れることなく永続的に探索を継続可能
実証された多様性#
Carliniの手法はメモリ破損だけでなく、あらゆる種類の脆弱性に有効であることが実証されている。例えば、人気のコンテンツ管理システムGhostに対してスクリプトを実行したところ、広範囲に攻撃可能なSQLインジェクション脆弱性を発見した。
業界への影響#
元記事によれば、2025年の高級エクスプロイト開発のベンダーメタゲームに言及があるが、詳細は元記事を参照されたい。
研究者たちはこれまで、時間の20%をコンピュータサイエンスに、80%を巨大で時間のかかるジグソーパズルに費やしてきた。そして今、誰もが汎用ジグソーソルバーを手にしているのだ。
今後の展望#
Richard Suttonの「苦い教訓(The Bitter Lesson)」が示すように、人間の専門知識やドメイン固有のモデルよりも、大量のデータと計算リソースの方が重要だという原則が、ソフトウェアセキュリティの分野でも証明されつつある。
筆者の見解: この技術革新は、サイバーセキュリティ業界の人材要件や防御戦略を根本的に変える可能性がある。従来の手法では数年かかっていた脆弱性発見が、数分で完了する時代が到来するかもしれない。





