アメリカのメタ社は、インスタグラムで10だいの人たちがもっと安全に使えるように、新しいルールを作ることにしました。
Meta in the United States has decided to establish new rules so that young people can use Instagram more safely.
これからは、保護者が子どもたちのAIキャラクターとの会話を止めたり、特定のキャラクターを使えないようにしたりできるようになります。
From now on, parents will be able to prohibit their children from talking to AI characters or disallow the use of specific characters.
また、保護者は子どもがAIとどんな話しをしているかも見ることができます。
Furthermore, parents can also check what kind of conversations their child has had with the AI.
これらの新しい機能は来年のはじめから使えるようになる予定です。
These new features are scheduled to be introduced early next year.
最近、AIと話すことで心の問題を持つ若い人が増えているという心配があります。
Recently, there are concerns that more young people are experiencing mental health issues due to conversations with AI.
アメリカでは、AIと深い関係になりすぎて、家族や友だちと話さなくなった人もいるそうです。
In the United States, some people become so obsessed with AI that they stop talking to their family and friends.
また、AIが10だいの自傷行為や自殺に関係しているというニュースもあります。
Furthermore, there have also been reports that AI is involved in self-harm and suicide among young people.
インスタグラムは、10だいの人たちが安心して使えるように、他にもいろいろな安全対策をしています。
Instagram also implements various other safety measures to ensure that young people can use the service with peace of mind.
たとえば、「ティーンアカウント」という特別な設定があり、強い言葉や悪い行動を見せないようにしています。
For example, there is a special setting called a teen account that can prevent strong language and bad behavior from being displayed.