Jan Michael Alcantara

Jan Michaelは、Netskope Threat Labsのシニア・スレット・リサーチャーであり、スレットハンティングや再現、検知の妥当性確認、およびクラウドアプリケーションの悪用に関する研究に携わっています。セキュリティコミュニティのアクティブな貢献者として、新たなマルウェアやフィッシングのトレンドに関する先進的な知見を継続的に発信しており、彼の研究は主要なサイバーセキュリティメディアでも頻繁に引用されています。
以前は、オーストラリアの四大銀行の一つでインシデント・レスポンダーを務めたほか、トレンドマイクロでシニア・システム・エンジニアとして勤務していました。現在はGIACのアドバイザリーボードメンバー(フォレンジック・アナリスト)も務めています。

AttackGPT:セルフヒーリングと戦略的モデルルーティングによるLLM生成マルウェアの実用化

悪意あるコードは死んだのでしょうか? マルウェアは今や、悪意あるロジックを一切持たず、テキストベースのプロンプトのみを保持し、実行の瞬間に悪意あるコードを生成する「自律的なマルウェア作成者」としてLLM(大規模言語モデル)に依存することが可能になったのでしょうか? 私たちは、「蓄積されたコード」から「オンデマンドの合成(On-demand synthesis)」へのこの転換を調査し、そのテスト結果を共有します。

この概念を単なる研究上の好奇心から実用的な脅威へと移行させるため、私たちはAI生成に固有の摩擦を制御できるフレームワークを開発しました。それが、ポストエクスプロイト型のモジュール式C2フレームワークである「AttackGPT」です。これは、理論上のAIリスクと運用の現実とのギャップを埋める存在です。LLMのコードハルシネーション(幻覚)やガードレールを克服するため、私たちは戦略的なモデルルーティングと「自己修復ループ(Self-healing loop)」を採用しました。このアーキテクチャを通じて、AttackGPTは環境に最適化された個別のペイロードを生成する能力を実現しています。

本デモンストレーションでは、システムの実際の動作を実演します。実行の失敗をリアルタイムで特定し、ログをLLMにフィードバックして自律的なデバッグを行い、数秒前には存在しなかった機能的な攻撃チェーンを正常に具現化させます。マルウェアは今や、実行中に悪意あるコードを生成することをLLMに委ね、テキストベースのプロンプトだけで構成される存在になり得るのでしょうか?