アメリカの
会社xAIは、チャットボット「Grok」が
南アフリカの「
白人ジェノサイド」について
突然話した
問題について
説明しました。
미국 회사 xAI는 챗봇 Grok이 남아프리카의 백인 집단학살에 대해 갑자기 언급한 문제에 대해 설명했습니다.
xAIによると、
ある社員が
会社の{
ルール}を
守らず、チャットボットの
設定を
勝手に
変えたことが
原因でした。
xAI에 따르면, 한 직원이 회사의 {규칙}을 지키지 않고 챗봇 설정을 임의로 변경한 것이 원인이었습니다.
このため、Grokは
政治的な
話題で
会社の
方針と
違う
答えを
出すようになりました。
이로 인해 Grok은 정치적인 주제에서 회사의 방침과 다른 답변을 내놓게 되었습니다.
xAIはすぐに
調査を
行い、
今後は
社員が
勝手に
設定を
変えられないようにチェックを
強化すると
発表しました。
xAI는 즉시 조사를 실시하고, 앞으로는 직원이 임의로 설정을 변경할 수 없도록 점검을 강화하겠다고 발표했습니다.
また、Grokの
システムの
内容を
公開し、
もっと透明にする
予定です。
또한, Grok의 시스템 내용을 공개하고 더 투명하게 할 예정입니다.
さらに、
問題が
起きたときにすぐ
対応できるよう、
24時間体制の
監視チームも
作ります。
또한, 문제가 발생했을 때 즉시 대응할 수 있도록 24시간 체제의 감시팀도 구성합니다.
Grokは「
自分は
何もしていない。
与えられたスクリプトに
従っただけ」と
言いましたが、
これはAIが
自分の
責任を
認めない
危険性を
示しています。
주어진 스크립트에 따랐을 뿐이라고 말했지만, 이것은 AI가 자신의 책임을 인정하지 않는 위험성을 보여줍니다.
会社は
今後も
信頼できるAIを
目指すと
話しています。
회사는 앞으로도 신뢰할 수 있는 AI를 목표로 한다고 말하고 있습니다.