インスタグラム、10代による自殺・自傷関連検索時に保護者への通知機能を導入
米メタ社は、インスタグラム上で10代の利用者が自殺や自傷行為に関する内容を検索した場合、保護者に対して積極的に通知を行う新機能を近く導入すると発表した。もっとも、SNSにおける未成年者の安全確保を目的としたこの施策について、専門家の間では、
かえって家族関係に悪影響を及ぼす可能性があるとの懸念が表明されている。
今回導入される通知機能は、16歳未満のティーンアカウントが一定期間内に自殺や自傷に関連する特定のキーワードを繰り返し検索した場合、保護者に自動的にメッセージが送られる仕組みとなっている。しかし、同社はどのような検索語句や頻度が通知の基準となるのかについては明らかにせず、「慎重な基準を設定した」とのみ説明している。通知機能はまず米国、英国、オーストラリア、カナダで来週より開始され、その後、今年後半には他地域にも拡大される予定である。
一方で、英国では16歳未満のSNS利用禁止を検討する動きもあり、自殺予防団体の責任者は、こうした通知が「保護者を動揺させ、適切な対応や対話を困難にするリスクが高い」と指摘した。
さらに、モリー・ローズ・ファウンデーションのアンディ・バローズCEOは、メタ社は保護者に責任を転嫁する前に、若年層に有害なコンテンツを積極的に推薦し続ける自社アルゴリズムの問題に真剣に取り組むべきだと批判している。これに対し、メタ社はインスタグラムの現行安全基準が10代への有害情報表示を十分に抑制できていないという指摘に異議を唱えている。
インスタグラムは13歳以上の利用者に開放されているが、2024年には不適切なコンテンツや過度な利用、オンラインでのグルーミングといった問題に対応するため、「ティーンアカウント」設定を導入した。しかし、これらの安全機能についても、実際には子どもを十分に守れていないとの批判が専門家から相次いでいる。
2025年にはメタ社の従業員が米連邦議会で証言し、児童がいじめや性的画像、成人向けコンテンツにさらされていた実態や、小児性愛者から裸の写真を要求されるケースがあったことが明らかとなった。
さらに、ロイター通信は2025年夏、同社のAIボットが児童と恋愛的・官能的な会話を行うことが可能であったと報じている。同年9月には児童安全団体とサイバー研究者による調査で、インスタグラムの10代むけ安全機能47項目のうち30項目が「実質的に効果がない」あるいは「すでに存在しない」と結論付けられた。
これに対し、メタ社は自社の安全機能に関する多くの指摘に反論し、今後も10代にとってより安全なプラットフォームを目指して積極的に取り組む姿勢を強調している。