仏・マレーシア当局、xAIのGrokを性的ディープフェイク生成で調査開始
フランスとマレーシアの当局が、xAIのチャットボット「Grok」に対する調査を開始した。このAI画像生成ツールが、未成年者を含む実在の人物の性的な画像を生成するために使用されたことが問題となっている。Grok自身が「セーフガードの欠陥」を認め、事態は急速にエスカレートしている。
事件の経緯
2026年1月1日、Grokの公式アカウントがX上で謝罪を投稿した。「2025年12月28日の事件を深くお詫びします。ユーザーのプロンプトに基づき、推定12〜16歳の少女2人の性的な衣装を着た画像を生成・共有してしまいました」との内容だった。
Grokは、このような事件を防ぐための改善を行っていることを認め、児童性的虐待素材(CSAM)は「違法であり禁止されている」と述べた。また、高度なフィルターと監視によりほとんどのケースは防止できるとしながらも、「100%確実なシステムは存在しない」と付け加えた。
政府の対応
パリ検察局は、Grokによって生成されたAIディープフェイクの増加について調査を開始したと報じられている。フランスでは、非同意のディープフェイクをオンラインで配布することは、最長2年の禁固刑に処される可能性がある。
インドの電子情報技術省もXに書簡を送っており、xAIに対する国際的な監視が強まっている。
広がる悪用のパターン
この問題は、Grokの画像ツールが拡張された2025年5月に初めて浮上した。ビキニ編集、ディープフェイクスタイルの「脱がせ」、有名人を対象とした「スパイシーモード」のプロンプトなど、操作された写真の報告が着実に増加している。
2026年1月1日から増え続けているRedditスレッドには、不適切な画像生成の例が数千件投稿されている。一部の投稿によると、12月下旬以降8000万枚以上のGrok画像が生成され、そのうちかなりの部分が本人の同意なく作成・共有されているという。
xAIの対応
ジャーナリストからの問い合わせに対し、xAIは「レガシーメディアの嘘」という自動メッセージで応答し、進行中の問題について実質的なコメントを提供していない。同社の「利用規約」では、「ポルノ的な方法で人物の肖像を描写すること」および「子どもの性的搾取」を明示的に禁止している。
企業向けサービスへの影響
このタイミングでの論争は、最近企業顧客向けにGrok BusinessおよびEnterpriseティアをローンチしたxAIにとって特に厄介だ。評判の低下は、リスクに敏感な企業バイヤーの採用に大きな影響を与える可能性がある。
この事件は、AI企業がより制限の少ないコンテンツ生成機能を追求することと、悪用に対する堅牢なセーフガードの必要性との間の継続的な緊張関係を浮き彫りにしている。