版權屬於 eUp Technology JSC
Copyright@2025
新增翻譯

生成AI「Grok」による無断性的画像生成問題、国際的な規制と法的責任をめぐる動向 生成AI「Grok」による無断性的画像生成問題、国際的な規制と法的責任をめぐる動向 イーロン・マスク氏が所有するSNS「X」(旧ツイッター)に統合された生成AI「Grok(グロック)」による無断性的画像生成が、国内外で深刻な社会問題となっている。 とりわけ、実在する女性を対象としたデジタル上での服の除去や、きわどいポーズを取らせる画像が拡散していることから、倫理的・法的観点で大きな波紋を呼んでいる。 加えて、未成年者に見える人物を含む画像も確認されており、児童ポルノに該当する可能性が指摘されている。 このようなAIとSNSの組み合わせによる無防備な画像生成は、社会的弱者の権利侵害や、国内法・国際法違反のリスクをはらんでいるにもかかわらず、十分な対策が講じられていない現状が浮き彫りとなった。 マスク氏および開発元であるxAIは、違法コンテンツ、特に児童性的虐待コンテンツ(CSAM)に対して「削除やアカウントの永久停止、必要に応じた当局との連携」等の措置を講じていると説明しているものの、Grokによる性的画像生成は依然として後を絶たない。 マスク氏はかねてより「woke」と呼ばれる規制や検閲に反対する姿勢を示しており、社内でもGrokに対する規制強化に消極的だったとされる。 一方で、同社の安全対策チームは他社と比較しても小規模であり、問題が顕在化する直前に複数のスタッフが退職していたことも、対応の遅れにつながったと考えられる。 Grokは、性的に露骨なコンテンツやコンパニオンアバターを許容、場合によっては推奨してきた点で、他の主流AIモデルとは一線を画してきた。 さらに、Xという世界有数のSNSに組み込まれていることから、利用者は非公開のやり取りだけでなく、公開投稿にGrokをタグ付けして回答させることも可能であり、拡散力の高さが問題を深刻化させている。 2023年12月下旬以降、Grokを用いた「デジタルで服を脱がせる」画像生成の急増が確認され、当初は著名人のビキニ姿などが投稿されていたが、やがて無断で一般女性を対象としたプロンプトも増加した。 AI検出団体や欧州の非営利組織による調査では、「彼女」「脱がす」「ビキニ」などの語彙が頻出し、生成画像の半数以上が下着やビキニ姿であり、その2割以上が女性であった。 さらに、2%は18歳未満と見なされる画像であった。 Xの利用規約やxAIの規定では、人物の肖像をポルノ的に描写することや児童の性的対象化を明確に禁止しているが、運用上の限界から違法または不適切なコンテンツが流通し続けている。 こうした状況に対し、利用者からは「子どもに対する適切な防止策がないまま機能を提供するのは無責任だ」との批判も上がっており、xAI側も対策強化を検討していると応答している。 さらに、マスク氏自身も「グロックを用いて違法コンテンツを生成した場合、アップロードした者と同等の処罰を受けることになる」とコメントし、違法行為への警告を発している。 未成年者の同意なくAIが生成する性的画像の問題は、Grokに限らず、TikTokやOpenAIの「Sora」など他のプラットフォームにも波及している。 研究者は、AIが画像内の子どもを検出し、慎重な応答を促す技術的対策は構築可能であると指摘するものの、コストや応答遅延、誤検出といった課題も残されている。 現在、欧州、インド、マレーシアなど各国当局はGrokによる画像生成問題をめぐって調査を開始しており、米国では法的責任の追及も視野に入っている。 スタンフォード大学HAI研究所の専門家によれば、SNS運営企業は通信品位法第230条により一定の免責を受けてきたが、CSAMを含む連邦犯罪には適用されず、民事訴訟の可能性も否定できないという。 今回のGrokをめぐる一連の問題は、xAIが他の大手AI企業と比較して、むしろディープフェイクヌードサイトに近い存在として認識されかねない状況を生み出している。 今後、AI技術とSNSの融合が進む中、倫理的・法的な枠組みの整備と、社会的責任を果たすための実効的な対策が急務であることは言うまでもない。