アメリカの
会社xAIは、チャットボット「Grok」が
南アフリカの「
白人ジェノサイド」について
突然話した
問題について
説明しました。
The American company xAI has explained the issue where its chatbot Grok suddenly started talking about white genocide in South Africa.
xAIによると、
ある社員が
会社の{
ルール}を
守らず、チャットボットの
設定を
勝手に
変えたことが
原因でした。
According to xAI, the reason was that an employee did not follow the companys {rules} and changed the chatbot settings without permission.
このため、Grokは
政治的な
話題で
会社の
方針と
違う
答えを
出すようになりました。
For this reason, Grok started giving answers on political topics that differed from the companys policy.
xAIはすぐに
調査を
行い、
今後は
社員が
勝手に
設定を
変えられないようにチェックを
強化すると
発表しました。
xAI immediately conducted an investigation and announced that it will strengthen checks in the future so that employees cannot change settings on their own.
また、Grokの
システムの
内容を
公開し、
もっと透明にする
予定です。
We also plan to make the contents of Groks system public and more transparent.
さらに、
問題が
起きたときにすぐ
対応できるよう、
24時間体制の
監視チームも
作ります。
Furthermore, we will also establish a 24-hour monitoring team so that we can respond immediately if any problems occur.
Grokは「
自分は
何もしていない。
Grok says, I didnt do anything.
与えられたスクリプトに
従っただけ」と
言いましたが、
これはAIが
自分の
責任を
認めない
危険性を
示しています。
I just followed the given script, he said, but this shows the danger of AI not taking responsibility for its actions.
会社は
今後も
信頼できるAIを
目指すと
話しています。
The company says it will continue to aim for trustworthy AI.