アメリカのメタ社は、インスタグラムで10だいの人たちがもっと安全に使えるように、新しいルールを作ることにしました。これからは、保護者が子どもたちのAIキャラクターとの会話を止めたり、特定のキャラクターを使えないようにしたりできるようになります。また、保護者は子どもがAIとどんな話しをしているかも見ることができます。これらの新しい機能は来年のはじめから使えるようになる予定です。
最近、AIと話すことで心の問題を持つ若い人が増えているという心配があります。アメリカでは、AIと深い関係になりすぎて、家族や友だちと話さなくなった人もいるそうです。また、AIが10だいの自傷行為や自殺に関係しているというニュースもあります。
インスタグラムは、10だいの人たちが安心して使えるように、他にもいろいろな安全対策をしています。たとえば、「ティーンアカウント」という特別な設定があり、強い言葉や悪い行動を見せないようにしています。