アメリカのメタ
社は、インスタグラムで
10だいの
人たちがもっと
安全に
使えるように、
新しいルールを
作ることにしました。
Meta in the United States has decided to establish new rules so that young people can use Instagram more safely.
これからは、
保護者が
子どもたちのAIキャラクターとの
会話を
止めたり、
特定のキャラクターを
使えないようにしたりできるようになります。
From now on, parents will be able to prohibit their children from talking to AI characters or disallow the use of specific characters.
また、
保護者は
子どもがAIとどんな
話しをしているかも
見ることができます。
Furthermore, parents can also check what kind of conversations their child has had with the AI.
これらの
新しい
機能は
来年のはじめから
使えるようになる
予定です。
These new features are scheduled to be introduced early next year.
最近、AIと
話すことで
心の
問題を
持つ
若い
人が
増えているという
心配があります。
Recently, there are concerns that more young people are experiencing mental health issues due to conversations with AI.
アメリカでは、AIと
深い
関係になりすぎて、
家族や
友だちと
話さなくなった
人もいるそうです。
In the United States, some people become so obsessed with AI that they stop talking to their family and friends.
また、AIが
10だいの
自傷行為や
自殺に
関係しているという
ニュースもあります。
Furthermore, there have also been reports that AI is involved in self-harm and suicide among young people.
インスタグラムは、
10だいの
人たちが
安心して
使えるように、他にもいろいろな
安全対策をしています。
Instagram also implements various other safety measures to ensure that young people can use the service with peace of mind.
たとえば、「ティーンアカウント」という
特別な
設定があり、
強い
言葉や
悪い
行動を
見せないようにしています。
For example, there is a special setting called a teen account that can prevent strong language and bad behavior from being displayed.