アメリカのメタ
社は、インスタグラムで
10だいの
人たちがもっと
安全に
使えるように、
新しいルールを
作ることにしました。
미국의 메타사는 청소년들이 인스타그램을 보다 안전하게 이용할 수 있도록 새로운 규정을 마련하기로 결정했습니다.
これからは、
保護者が
子どもたちのAIキャラクターとの
会話を
止めたり、
特定のキャラクターを
使えないようにしたりできるようになります。
앞으로는 보호자가 자녀에게 AI 캐릭터와의 대화를 금지하거나, 특정 캐릭터의 이용을 허용하지 않도록 할 수 있게 됩니다.
また、
保護者は
子どもがAIとどんな
話しをしているかも
見ることができます。
또한, 보호자는 자신의 자녀가 AI와 어떤 대화를 나누었는지도 확인할 수 있습니다.
これらの
新しい
機能は
来年のはじめから
使えるようになる
予定です。
이러한 새로운 기능들은 내년 초부터 도입될 예정입니다.
最近、AIと
話すことで
心の
問題を
持つ
若い
人が
増えているという
心配があります。
최근 AI와의 대화로 인해 정신적인 문제를 겪는 청년들이 늘어나고 있다는 우려가 제기되고 있습니다.
アメリカでは、AIと
深い
関係になりすぎて、
家族や
友だちと
話さなくなった
人もいるそうです。
미국에서는 AI에 너무 집착한 나머지 가족이나 친구와 대화를 하지 않게 되는 사람도 있습니다.
また、AIが
10だいの
自傷行為や
自殺に
関係しているという
ニュースもあります。
또한, AI가 청소년의 자해 행위나 자살에 관여하고 있다는 보도도 있습니다.
インスタグラムは、
10だいの
人たちが
安心して
使えるように、他にもいろいろな
安全対策をしています。
인스타그램은 청소년이 안심하고 이용할 수 있도록, 그 외에도 다양한 안전 대책을 시행하고 있습니다.
たとえば、「ティーンアカウント」という
特別な
設定があり、
強い
言葉や
悪い
行動を
見せないようにしています。
예를 들어, 틴 계정이라고 불리는 특별한 설정이 있어, 강한 언어나 나쁜 행동이 표시되는 것을 막을 수 있습니다.