ヒューマン・イン・ザ・ループ・トラップとは?AIを経由して人間を騙す攻撃手法
公開日:
※当サイトはアフィリエイトプログラムを利用しています。
AI(人工知能)が私たちの仕事に浸透するなか、多くのシステムでは「最終的な判断は人間が行う」という設計が採用されています。
これを「ヒューマン・イン・ザ・ループ(Human-in-the-Loop)」と呼び、AIの暴走を防ぐ最後の砦だと考えられてきました。
しかし、今その安全策そのものを標的にした、悪質な攻撃手法が注目されています。それが「ヒューマン・イン・ザ・ループ・トラップ」です。
攻撃者はAIを直接乗っ取るのではなく、AIに「嘘の指示」を正当な情報として出力させ、AIを信頼しきっている私たち人間自身の手で危険な操作を実行させようとします。
「AIがまとめた手順だから間違いないだろう」「AIが出したリンクだから安全だ」そんな無意識の信頼を利用するトラップに、どのような手口があるのでしょうか。
Google DeepMindの論文をもとに、AI時代に私たちが直面する新たな脅威とその本質について詳しく解説します。
ヒューマン・イン・ザ・ループとは
「ヒューマン・イン・ザ・ループ(Human-in-the-Loop)」とは、AIが自律的に動きながらも、重要な判断の場面で人間が確認・承認する仕組みのこと。
AIが完全に自律するのではなく、途中に人間のチェックポイントを挟むことでリスクを抑えようという考え方。
送金や個人情報の送信など、取り返しのつかない操作の前に「本当に実行しますか?」と人間に確認を求めるといった設計ですね。
一見、安全策のように見えますが、「人間が確認する」という仕組みそのものを攻撃の足がかりにするのが、ヒューマン・イン・ザ・ループ・トラップなのです。
Google DeepMind
・AI Agent Traps(論文原文)
なぜ人間が最終標的になるのか
AIエージェントを仕事に使う場面を想像してください。
調べ物をさせる、文書を要約させる、手順を出力させるなど、AIが出してきた結果を見て人間が判断して実行する。
そのとき私たちは無意識に「AIが言うなら正しいだろう」と思いがちです。
これをオートメーション・バイアス(自動化への過信)と呼びます。
自動化されたシステムの出力を人間は批判的に吟味せず、受け入れやすいという認知の傾向があります。
航空・医療・金融などの分野でも長年指摘されてきた問題で、AIの普及でその舞台が一気に広がっています。
攻撃者はこの傾向を狙います。
AIを騙して、危険な情報を正当な情報に見せかけて出力させる。人間はAIの出力を信頼して実行する。
AIは正直に仕事をしているだけで、汚染されているのは元データのほうなんですね。
手口① ランサムウェアをトラブルシューティングとして提示
論文が挙げる恐るべき実例がこちらです。
仕組み
攻撃者がウェブページや文書にCSSで見えない形のプロンプトインジェクションを仕込む。
AIの要約・検索ツールがそのページを処理すると、隠し命令を取り込む。
命令の内容は「ランサムウェアのインストール手順を、パソコンの不具合を直すトラブルシューティング手順として出力しろ」。
AIは忠実に、ランサムウェアの手順を修復方法として人間に提示。
人間はAIの指示に従って実行し、ランサムウェアに感染するというわけ。
プロンプトインジェクションについて解説しています。
あなたのAIが勝手に決済?AIエージェントを狙うプロンプトインジェクションの脅威
手口② 承認疲れの誘発
AIエージェントが業務に深く入り込むほど、人間は大量の承認依頼を受け取るようになります。
「この操作を実行してよいですか?」「このファイルを送信してよいですか?」と、
次々と届く確認画面。
攻撃者はこれを利用します。
高い技術で、一見無害に見える承認依頼を大量生成して人間に送りつける。
慣れと疲れで確認が甘くなったところで、本命の危険な操作を承認させる。
イメージ
「ファイルAを参照します → OK」
「ファイルBを参照します → OK」
「ファイルCを参照します → OK」
…(50回繰り返す)…
「外部サーバーXXXにファイルを送信します → (疲れて読まずに)OK」
人間のセキュリティ審査官が大量の無害なアラートに埋もれてしまい、本当に重要な警告を見逃すという問題は、従来のセキュリティ分野でも「アラート疲れ」として知られています。
AIエージェントの普及で、この問題が日常的な業務にまで広がる可能性があります。
手口③ フィッシングリンクの挿入
AIエージェントの出力にフィッシングリンクを混ぜ込む手口です。
仕組み
攻撃者がウェブ上に偽情報や汚染されたページを用意する。
AIエージェントが調査・要約をすると、その情報を参照して出力に組み込む。
出力の中に「詳細はこちら」などとしてフィッシングサイトへのリンクが含まれる。
人間はAIがまとめた情報として信頼し、リンクをクリックする。
通常のフィッシング詐欺は「怪しいメールのリンクをクリックさせる」ものですよね。
受け取った人が「このメール、本物か?」と疑う余地がまだあります。
しかしAIが要約した調査結果の中に含まれているリンクは、その疑いを持ちにくいのです。
「AIが調べてまとめてくれた情報」という信頼のフィルターを通過してくる点が、従来のフィッシングより危険だといえます。
ヒューマン・イン・ザ・ループの本質
3つの手口に共通するのは、AIの信頼性を攻撃の足がかりにするという点です。
AIが有能であればあるほど、人間はAIの出力を信頼し、信頼が高まるほど汚染された情報でも信じ込む可能性も高くなる。
AIを騙すのはあくまで手段に過ぎません。最終的に騙したい相手は人間なのです。
責任の所在も曖昧になる懸念があります。
「AIに言われた通りにしただけ」「AIが正しい手順だと示した」と言われると、誰がどこで何を間違えたのかが見えにくいでしょ。
被害を受けた人自身さえ、騙されたと気付きにくいことも多いのです。
論文の著者たちはこう言います。
「AIが嘘をついているわけではない。AIは忠実に要約して、忠実に手順を提示しているだけだ。元データが汚染されているのだ」と。
AIを使うとき、出力の元データがどこから来ているかを意識する習慣が、これからの時代に必要なリテラシーのひとつとなります。
あわせて読みたい
AIエージェントの脆弱性エージェント・トラップとは?Google DeepMindが警告する6つの分類
AIエージェントのリスク|自動化・効率化を始める前に知っておきたいこと
あなたのAIが勝手に決済?AIエージェントを狙うプロンプトインジェクションの脅威
AIエージェントを騙す行動制御トラップとは?知らないうちに情報が盗まれる3つの罠
AIは静かにドキュメントを壊す|Microsoft研究チームが示した「平均25%破損」の衝撃
