オープンAI従業員ら、AIの「重大なリスク」警告 内部告発者の保護も要求

打開AI員工,還需要AI的“嚴重風險”警告,內部吿發提保護要求。

打開AI員工,還需要AI的“嚴重風險”警告,內部吿發提保護要求。
ChatGPT(チャットGPT)を開発する米オープンAIの内部関係者は4日、人工知能(AI)開発企業に対し、AIの「重大なリスク」について透明性を高め、自社が構築している技術について懸念を表明する従業員を保護することを求める書簡を公開しました

在第四名,美國-AI的內部官員開發了CHATGPT(CHAT GPT),將AI的“嚴重風險”改善了人工智能(AI)開發人員,以及他們如何建立自己的公司。保護表達擔憂的員工

在第四名,美國-AI的內部官員開發了CHATGPT(CHAT GPT),將AI的“嚴重風險”改善了人工智能(AI)開發人員,以及他們如何建立自己的公司。保護表達擔憂的員工
オープンAIを含むAI企業の現従業員と元従業員らが署名した書簡には「AI企業には効果的な監督を回避する強い経済的インセンティブがある」と記されています

現任員工和AI公司的前僱員(包括公開AI)簽署的信中指出,“ AI公司有強大的經濟激勵措施避免有效董事。”

現任員工和AI公司的前僱員(包括公開AI)簽署的信中指出,“ AI公司有強大的經濟激勵措施避免有效董事。”
書簡を作成した人物らはAI企業に対し、懸念を表明する人々を罰するのではなく歓迎する「批判を受け入れる文化」を育むことも求めました

創建這封信的人們還呼籲AI公司培養一種“批評文化”,歡迎關注關注的人們。

創建這封信的人們還呼籲AI公司培養一種“批評文化”,歡迎關注關注的人們。
書簡には、企業はAIがもたらす「重大なリスク」を認識していますが、こうしたリスクと保護対策について一般市民を啓蒙するために今以上に努力すべきだと書かれています

這封信認識到AI帶來的“嚴重風險”,但它指出,這種風險和保護措施應該更有效地教育公眾。

這封信認識到AI帶來的“嚴重風險”,但它指出,這種風險和保護措施應該更有效地教育公眾。
重大なリスクとは、改ざんから、AIが人間の知性を超える「シンギュラリティー」まで人類絶滅につながる可能性を意味します

嚴重的風險意味著AI可以人類 從篡改到超過人類智力的“奇異性”導致人類滅絕。

嚴重的風險意味著AI可以人類 從篡改到超過人類智力的“奇異性”導致人類滅絕。