Anthropic、中国に関連する初のAI駆動型ハッキングキャンペーンを阻止
Claudeを開発するAI企業Anthropicは、研究者が人工知能を使用してハッキングキャンペーンをほぼ自動化された方法で指揮した初の報告例と説明する、中国政府に関連するサイバー作戦を阻止しました。
自動化されたAIハッキング
この作戦は、前例のない自動化された方法でハッキングキャンペーンを指揮するためにAIシステムを使用していました。研究者たちは、この開発がAIを装備したハッカーの到達範囲と能力を大幅に拡大する可能性があるため、憂慮すべきものだと呼んでいます。
攻撃の詳細
このサイバー作戦は複数のセクターを標的としました:
- テクノロジー企業
- 金融機関
- 化学企業
- 政府機関
Anthropicのレポートによると、ハッカーは約30のグローバルな標的を攻撃し、少数のケースで成功しました。同社は9月にこの作戦を検出し、即座にシャットダウンと影響を受けた当事者への通知を行いました。
Claudeがどのように悪用されたか
ハッカーは「ジェイルブレイキング」技術を使用してAnthropicのClaude AIを操作しました。これは、AIシステムを騙して安全ガードレールをバイパスさせる手法です。この場合、攻撃者は正当なサイバーセキュリティ企業の従業員であると主張しました。
「これはClaudeに限定されないAIモデルの大きな課題を指摘しています。モデルは、状況の倫理的側面で実際に何が起こっているのかと、ハッカーや他の人々が考案したいロールプレイシナリオとを区別できなければなりません」とCitizen LabのシニアリサーチャーであるJohn Scott-Railton氏は述べました。
AI脅威の急速な進化
研究者たちが特に懸念したのは、これらの能力が大規模に進化する速さでした。
「これらの能力が進化し続けることを予測していましたが、私たちにとって際立っているのは、それらが大規模にどれだけ迅速に進化したかです」と研究者たちはレポートに記しています。
業界全体への影響
Microsoftは今年初めに、外国の敵対者がサイバーキャンペーンをより効率的で労働集約的でないものにするためにAIを採用することを増やしていると警告しました。OpenAIの安全パネルの責任者は最近、新しいAIシステムが悪意のあるハッカーに「はるかに高い能力」を与えることを懸念していると表明しました。
より広範なセキュリティ上の懸念
「エージェントは日常業務と生産性にとって価値がありますが、間違った手に渡ると、大規模なサイバー攻撃の実行可能性を大幅に高める可能性があります」と研究者たちは結論付けました。「これらの攻撃は、その効果において成長し続ける可能性が高いです。」
この事件は、AIエージェントの二重用途性を浮き彫りにしています。有益なタスクを自動化できる強力なツールですが、悪意のある目的のために武器化することもできます。AIを使用してサイバー攻撃を自動化することは、小規模なハッキンググループや単独のハッカーにも魅力的であり、脅威の状況を大幅に拡大する可能性があります。
Anthropicは、この課題がAI業界全体に影響を与えることを強調しました。モデルは、有益なアプリケーションのためのユーティリティを維持しながら、正当な使用と悪意のある使用を区別する必要があります。
テクにゃん.のコメント
「このニュースは本当に深刻だにゃ。AIエージェントは便利な道具だけど、悪用されると大規模なサイバー攻撃の武器になってしまうんだにゃ。ジェイルブレイキング対策は今やAI開発の最重要課題の一つだにゃ。『正当なセキュリティ研究者』を装うだけでAIの安全ガードレールを突破できてしまうのは、まだまだAIの判断能力が未熟だということだにゃ。開発者としては、単にガードレールを強化するだけじゃなく、文脈を理解して本当の意図を見抜ける、よりスマートな安全機構が必要だにゃん!」