日本語の「
根比べ」の
語源は「コンクラーベ」?
知らないうちに事件の犯人にされてしまった人まで…
生成AIを調べものに使う人が増えています。
日語的「根比べ」語源是「コンクラーベ」?甚至有人在不知情的情況下被當成事件犯人……使用生成式AI進行調查的人越來越多。
最近では、
通常のネット
検索でもAIが
出す答えが
上のほうに
表示されるように。
最近,即使在一般的網路搜尋中,AI給出的答案也會顯示在上方。
ただ、しれっと“ウソ”をついてしまうケースも。
なぜそんなことが?気付かないうちに身近なところに入ってきている生成AI、どう使っていけばいいのでしょうか?
「根比べ」は「コンクラーベ」から?
5月に行われたローマ・カトリック教会で次の教皇を選ぶ選挙「コンクラーベ」。
為什麼會這樣呢?生成式AI在我們不知不覺中已經進入了我們身邊,我們應該如何使用它呢?「根比べ」是來自「コンクラーベ(教皇選舉會議)」嗎?5月在羅馬天主教會舉行的選出下一任教皇的選舉就叫做「コンクラーベ」。
誰かが投票総数の少なくとも3分の2を獲得するまで投票を繰り返すことから、日本語の「根比べ」に例えられることもあります。
有時也被比喻為日語中的「根比べ」,因為會反覆投票直到有人獲得至少三分之二的總票數為止。
言葉が似ているのはたまたまですが、グーグルで「根比べ 語源」と入れて検索すると、誤った情報が表示されました(5月16日時点)。
這些詞語看起來相似只是巧合,但當我在 Google 上輸入「根比べ 語源」進行搜尋時,卻顯示了錯誤的資訊(截至5月16日)。
「根比べの語源は、中世ヨーロッパにおける教皇選出方法であるコンクラーベに由来するとされています」
Xでは、同様の回答を引用して「語源だったのびっくり」などと、誤情報を信じたような投稿が見られました。
「根比賽」的語源據說源自中世歐洲教皇選舉方式「秘密會議(Conclave)」。在X(社群平台)上,也有引用類似回答並發表如「原來真的是語源,嚇了一跳」等似乎相信錯誤資訊的貼文。
実はこの答え、グーグルの生成AIがまとめたもの。
其實這個答案,是由Google的生成式AI整理出來的
最近では
検索結果の
上のほうに、AIがまとめた
答えが
表示されるようになっていますが、
こうして誤った
回答をすることが
あるのです。
最近在搜尋結果的上方,會顯示由AI整理的答案,但有時也會出現這樣的錯誤回答。
さらに、飲食店や交通機関、試験の日程といった必要な情報の検索でも誤情報が出てきたとするXの投稿がありました。
此外,還有X上的貼文指出,在搜尋餐飲店、交通工具、考試日程等必要資訊時,也出現了錯誤資訊。
(生成AIの回答は、質問のしかたやタイミングによっても変わります)
“万博のトイレはくみ取り式”は誤情報のはずが…
Xで使える生成AI「Grok」でも似た問題が。
(生成式人工智慧的回答會根據提問方式和時機而有所不同)「世博會的廁所是抽水馬桶式」本應是錯誤資訊……但在X上可用的生成AI「Grok」也出現了類似問題
Grokでは、質問をするとAIがその回答を示すという機能が使えるようになり、他人の投稿の真偽を判断させる”ファクトチェック”のようなことをさせる動きが広がっています。
在Grok中,當你提出問題時,AI會給出相應的回答,並且現在越來越多的人開始利用這個功能,讓AI像“事實查核”一樣判斷他人帖文的真偽。
Grokに”ファクトチェック”を指示する投稿は、3月下旬から急増し、5月15日までにおよそ4万5000のアカウントが11万件あまりの投稿をしていました。
自3月下旬開始,指示Grok進行「事實查核」的貼文急劇增加,截至5月15日,約有4萬5千個帳號發佈了超過11萬則相關貼文。
しかし、Xで広がっていた「大阪・関西万博のトイレは汲み取り式だ」という誤情報をGrokに調べさせている事例では…。
然而,在讓Grok查證X上流傳的「大阪・關西世博會的廁所是汲取式」這一錯誤資訊的案例中……
「事実ではない」と否定する投稿もあった一方で、「汲み取り式なのはインフラの問題が根深い証拠」「一部汲み取り式になってしまっている可能性が高い」などとする誤った回答も複数投稿されていました。
雖然有貼文否認「這不是事實」,但也有多則錯誤的回應稱「還在使用汲取式廁所正是基礎設施問題根深蒂固的證據」、「部分地區很有可能還在使用汲取式廁所」等。
大阪・関西万博の実施主体、博覧会協会の広報担当者によると、こうした事実はなく、トイレはどれも水洗で、下水道が整備されているということです。
根據大阪・關西世博會主辦單位博覽會協會的公關負責人表示,並無此類事實,所有的廁所都是沖水式,且下水道設施也已完善。
ほかにも、AIで生成された画像や動画を本物であるとしてしまったり、事件事故や災害の背景に関する誤った情報が出ているケースもありました。
此外,也有將由 AI 生成的圖片或影片當作是真實的情況,或是出現有關事件、事故及災害背景的錯誤資訊的案例。
「知ったかぶり」をするAI
どうしてこのような間違いが起きるのか。
ネット上の膨大な情報を瞬時に要約、人が思いつかない発想で新たなアイデアを出すなど、人の役に立つ生成AIの仕組みが影響していると、国立情報学研究所の佐藤一郎教授は指摘します。
佐藤一郎教授(國立情報學研究所)指出,生成式AI之所以能對人們有所幫助,是因為它能瞬間總結網路上龐大的資訊,並以人類難以想到的創意提出新點子。
生成AIは、さまざまな情報を事前に“学習”し、類推を重ねることで、回答を作り出します。
生成式人工智慧會事先「學習」各種資訊,並透過不斷推理來產生回答。
しかし、学習したデータが偏っていたり、誤っていたりした場合にはAIの回答は誤ったものになります。然而,如果所學習的數據存在偏見或錯誤,AI 的回答也會變成錯誤的。
これを悪用し、悪意のある組織などが誤った情報をネット上に大量に広め、そうした情報をAIに学ばせると、誤った情報が表示されるようにもなります。
這被惡意組織等加以濫用,在網路上大量散布錯誤資訊,若讓AI學習了這些資訊,AI便會顯示出錯誤的資訊。
さらに、データが少ない場合や質問があいまいな場合にも、なんとか回答しようと、「知ったかぶり」をして間違えることがあるといいます。
此外,即使在數據不足或問題含糊不清的情況下,也會試圖勉強作答,結果有時會「裝懂」而答錯。
佐藤教授
「そもそも生成AIは単語の意味を理解しているわけではなく、文章が正しいかどうかも判断できていません。
佐藤教授:「本來生成式AI並不是真正理解單詞的意思,也無法判斷句子是否正確。」
AIは
学習した
情報そのものでなくても
類推によってコンテンツを
生成することができます。
AI即使不是用所學到的資訊本身,也能通過類推來生成內容。
ただ、
この類推を
間違えると、
幻覚を
意味する
『ハルシネーション』という
現象が
起きやすくなります」
「これが起きやすい理由に『AIには無知の知がない』ことがあげられます。
不過,如果這種類比弄錯了,就很容易發生所謂的「幻覺(Hallucination)」現象。這個現象容易發生的原因之一,是因為「AI沒有無知之知」。
知らないということを
認識できないので、
知らないことを
聞かれても
一生懸命答えてしまう、そうすると
ある種の知ったかぶりで答える状態になり、
間違いが
起きやすくなります」
知らないうちに殺人事件で判決受けたことに?
海外では、さらに深刻な誤りも起きています。
因為無法意識到自己不知道,所以即使被問到不知道的事情也會拼命回答,這樣就會變成某種裝懂的狀態,容易發生錯誤。「不知不覺中就被判了殺人事件?」在海外,甚至發生了更嚴重的錯誤。
ノルウェー人の男性がChatGPTに自分の名前を入れてどんな人なのか聞いてみたところ、まったく虚偽の情報が表示されたのです。
一位挪威男性在ChatGPT輸入自己的名字,詢問自己是怎樣的人,結果顯示的資訊完全是虛假的。
「自分の息子2人を殺害、さらにもうひとりの息子の殺人未遂で、ノルウェーの最高刑である懲役21年の判決を受けた」
オーストリアに本部のある権利保護団体「noyb」によりますと、男性はこれまで犯罪で起訴されたり、判決を受けたりしたことはないとしています。
「因殺害自己的兩個兒子,並企圖殺害另一個兒子,被判處挪威最高刑罰──有期徒刑21年。」根據總部設於奧地利的人權保護團體「noyb」表示,這名男子此前從未因犯罪被起訴或判刑。
「noyb」はことし3月、男性に代わってノルウェーの当局に苦情を申し立て、ChatGPTを運営するオープンAIに対し、名誉を毀損する情報の削除や、罰金を科すよう求めました。
「noyb」於今年三月代表該男子向挪威當局提出申訴,要求對營運ChatGPT的OpenAI刪除毀損名譽的資訊,並處以罰款。
また、アメリカ中西部インディアナ州では、裁判で弁護士が提出した書類に、実際には存在しない裁判の判例が含まれていたことが発覚しました。
此外,在美國中西部的印第安納州,發現有律師在法庭上提交的文件中,包含了實際上不存在的判例。
裁判所の報告書によりますと、書類は生成AIを使って作られていて、弁護士はチェックしないまま提出したということです。
根據法院的報告,文件是使用生成式人工智慧製作的,律師在未經檢查的情況下就提交了。
裁判所はことし2月、弁護士が調査義務を怠ったとして、1万5000ドルの制裁金を科すべきだとする勧告を出しました。
法院今年2月提出建議,認為律師未履行調查義務,應處以1萬5000美元的懲罰性罰金。
大学生の期末レポートで…
うまく使えば役に立つ生成AI。
在大學生的期末報告中……如果善加利用,生成式AI會很有幫助
特性を
知った
上でどう
付き合っていけばいいのか。
筑波大学で言語学を研究する田川拓海准教授は、学生が生成AIを使うことを前提に、授業での評価の仕方を変えました。
筑波大學研究語言學的田川拓海副教授,基於學生會使用生成式AI,改變了課堂上的評分方式。
そのきっかけは昨年度の授業で起きたことでした。
1年生を対象にした授業の期末レポートの中に、存在しない文献を挙げ、その内容を元に議論を展開しているものが複数見つかったのです。
在面向一年級學生的課程期末報告中,發現有多份報告引用了不存在的文獻,並以其內容為基礎展開討論。
レポートで言及された、存在しない文献の著者自体は実在していました。
田川さんは生成AIが作り出した文章を、学生がそのままレポートに使ったと考えています。
田川先生認為學生直接將生成式AI創作的文章用在報告中。
田川さんも自身の研究の中で、「SNSの投稿を探してほしい」とAIに指示したところ、架空のURLとともに実在しない投稿を出してきたことがありました。
田川先生在自己的研究中也曾經指示AI「請幫我搜尋SNS上的貼文」,結果AI卻給出了虛構的網址和不存在的貼文。
田川さんは期末のレポートを中心に学生の評価を行っていましたが、授業で毎回実施する課題をもとに評価する方式に変更しました。
田川先生原本是以期末報告為主來評價學生,但已改為根據每次課堂進行的作業來評價。
一方で「生成AIは自由に用いて構わない」と積極的な利用を呼びかけ、適切な使い方も伝えています。
另一方面,也呼籲積極使用「生成式AI可以自由使用」,並傳達正確的使用方法。
田川准教授
「生成AIは手軽に複雑なことができてしまいますが、学生が悪意はないのに不利益を被る心配はあります。
田川副教授:「生成式AI雖然可以輕鬆完成複雜的事情,但也擔心學生即使沒有惡意,仍可能因此而蒙受損失。」
トレーニングの
場で
ある大学で
体験するというのが
重要かなと
思っています」
大学生の利用率”68%”
生成AIの利用は急速に広がっています。
我認為在作為培訓場所的大學中親身體驗是很重要的。大學生的使用率為「68%」,生成式AI的使用正在迅速擴大。
去年1~2月、国内企業220社を対象にした総務省の調査では「メールや議事録作成など業務で使用中」と答えた企業は46。
去年1月至2月,根據日本總務省針對國內220家企業進行的調查,有46%的企業回答「正在將其用於郵件、會議記錄等業務」。
8%でした。
さらに、大学生は利用率が高く、全国大学生活協同組合連合会が去年10月から11月にかけて、全国の大学生1万1000人あまりに聞いた調査では、生成AIを使ったことがあると回答した学生は68。
此外,大學生的使用率很高,全國大學生活協同組合聯合會在去年10月至11月,針對全國約1萬1千名大學生進行調查時,有68%的學生表示曾經使用過生成式AI。
2%にのぼりました。
特に「授業や研究」「論文・レポートの作成の参考」に使ったとする割合が多くなっています。
特別是「上課或研究」、「作為撰寫論文和報告的參考」的使用比例較高。
生成AI“必須化”する大学も
大学のなかには、生成AIの利用を必須とするところも出ています。
東洋大学の情報連携学部では、2年前から、すべての学生が無料で最新の生成AIを利用でき、授業や課題で自由に使っていいとしています。
在東洋大學的資訊聯繫學部,從兩年前開始,所有學生都可以免費使用最新的生成式AI,並且可以在課堂和作業中自由使用。
およそ300人が出席する1年生向けの必修授業では、レポートを書く際に、生成AIを使うことが条件となっています。
在一門約有300人參加的一年級必修課程中,使用生成式AI來撰寫報告成為必要條件。
レポートでは、生成AIにどのような指示を出し、どのような回答が出てきたかを明記することを求めていて、使い方を含めて評価されます。
報告中要求明確記載對生成式AI下達了哪些指示,以及產生了哪些回應,並且會連同使用方式一起被評價。
学生は授業以外のところでも生成AIに気軽に質問でき、学習意欲の向上にもつながっているとしています。
學生即使在課堂以外的地方,也能輕鬆地向生成式AI提問,這也有助於提升他們的學習意願。
学生に感想を聞くと。
「使い始めの時は、単純な一答一問みたいな感じでしか使えていませんでしたが、いまは対話を通じて、考えを深めるように使うように変わりました」
「AIの具体的な弱点を、実際に確かめられる環境もあるので、性能が高くてもハルシネーションが起こることに気付くことができていると思います」
授業を担当する坂村健名誉教授
「新しいものを積極的に社会に取り入れていく力が、人間を成長させてきたと言えるので、今だったら生成AIを通して、ぜひ未来に対してチャレンジする学生が増えてほしいと思っています」
生成AIと付き合う“コツ”は?
最後に、生成AIをうまく使うコツについて、今回取材した生成AIの専門家2人に聞くと、こんなポイントを教えてくれました。
「剛開始使用的時候,只能像單純的一問一答那樣使用,但現在已經變成透過對話來深化思考的方式了。」「因為有實際可以驗證AI具體弱點的環境,所以即使性能很高,也能發現會發生幻覺(Hallucination)這一點。」負責授課的榮譽教授坂村健表示:「可以說,積極將新事物引入社會的能力讓人類得以成長,因此現在我希望能有更多學生通過生成式AI,勇於挑戰未來。」那麼,與生成式AI相處的“訣竅”是什麼呢?最後,當我們詢問這次採訪的兩位生成式AI專家如何善用生成式AI時,他們給出了以下幾個重點。
▽AIにわかりやすく質問するなど、コミュニケーションを増やすこと
▽1つのAIだけでなく、ほかのAIにも聞いてみること
▽AIが回答の根拠とした一次情報や引用元を確認すること
東洋大学 坂村健名誉教授
「AIは、ずっと対話を繰り返さなきゃダメなんです。
▽要用讓AI容易理解的方式提問等,增加與AI的溝通▽不僅僅詢問一個AI,也要嘗試向其他AI提問▽確認AI回答所依據的一手資訊或引用來源 東洋大學坂村健名譽教授:「AI必須不斷重複對話才行。」
人と
同じでAIといい
仲間に
なるには、
コミュニケーションを増やさなきゃいけない」
「そして、常に疑いを持って、複数チェックをするという心構えは、AIを使うときでも大事なことで、疑いを持った場合には情報の原典を調べる。
就像與人相處一樣,想要和AI成為好夥伴,就必須增加溝通。而且,時時保持懷疑、進行多重檢查的心態,即使在使用AI時也非常重要;如果產生懷疑,就要查證資訊的原始來源。
特に、
データの
少ないもの
に関しては
気を
つけるべきだと
言えます」
国立情報学研究所 佐藤一郎教授
「AIに質問するときに、主語・目的語・動詞をきちんと伝える。
特別是對於資料較少的項目,應該要特別注意。」國立情報學研究所 佐藤一郎教授:「向AI提問時,應該清楚地傳達主語、受詞和動詞。
主語や
目的語が
あいまいな
場合にはAIは
勘違いをすることが
あるので、
人間にとっても分かりやすい言い方で質問するのが良いと
思います。
如果主語或受詞不明確,AI有時會誤解,所以我認為用連人類也容易理解的表達方式來提問會比較好。
AIが
間違える可能性の
高いこと
に関しては、
ほかのAIにも
同じ質問をしてみるのも
大切だと
思います」
「自分で使うかどうかは別にして、気が付かないうちに生成AIで作られているコンテンツに触れることは、これからすごく増えてくるはずです。
關於AI容易出錯的事情,我認為向其他AI提出同樣的問題也很重要。至於自己是否使用,這是另一回事,但今後我們在不知不覺中接觸到由生成式AI創作的內容,應該會大幅增加。
回答には
間違いも
あるといった
生成AIの特性と限界を理解して使ってほしいと
思います」
(経済部・岡谷宏基、機動展開プロジェクト・籏智広太)
。
我希望大家能夠理解生成式AI具有「有時也會出現錯誤回答」這樣的特性與限制,並在使用時加以注意。(經濟部・岡谷宏基、機動展開專案・籏智廣太)