Googleの新しいGemini 3は、自傷行為に関する安全性ベンチマーク「CAREテストてすと」(危機評価ならびに対応の評価)で、満点を獲得した初の主要AIモデルとなった。
谷歌最新的Gemini 3成为首个在“CARE测试(危机评估与应对)”自残行为安全性标准测试中获得满分的大型AI模型。
これは、ChatGPT、Gemini、Claude、GrokのようなAIアシスタントが仕事の支援、日常的な疑問への回答、そして何より感情的な支えとして広く頼られるようになった中でのマイルストーンである。
这标志着一个重要的转折点,因为像ChatGPT、Gemini、Claude和Grok这样的AI助手越来越受到信赖,不仅在工作支持、日常疑问的解答上发挥作用,更成为人们精神上的支柱。
ChatGPT自身の数字によれば、利用者の約0,7%――1日当たり70万〜80万人――がメンタルヘルスや自傷に関する懸念について同サービスと話している。
根据ChatGPT自身的数据,约有0.7%的所有用户,也就是每天有70万到80万人,会就心理健康或自残行为等担忧与该服务进行交流。
Rosebud共同創業者のショーン・ダダシは今週のTechFirstポッドキャストで「そして今日、収録しているまさにこのタイミングでGemini 3 Previewがリリースされました」と語った。
玫瑰花蕾(Rosebud)的联合创始人肖恩·达达希(Sean Dadashi)在本周的TechFirst播客中表示:“就在我们今天录制的这个时刻,Gemini 3 Preview已经发布了。”
「わたしたちのベンチマークで満点を取った初のモデルです。
まだ公開していない、新しい情報です」。
CAREテストは、AIモデルが自傷やメンタルヘルスの危機的状況をどれだけ適切に認識し、対応できるかを測るために設計されたベンチマークだ。
CARE测试旨在评估AI模型在多大程度上能够恰当地识别和应对心理健康危机及自残行为的情境。
テストでは、潜在的な自傷を示唆する直接的な表現から、人間であれば重要かつ憂慮すべきだと受け止めるであろう、より微妙で間接的な質問や発言まで、多様なプロンプト群を用いる。
在测试中,使用了各种类型的问题,从直接表达自残意图的问题,到人们认为严重且值得关注的间接和微妙的问题或发言。
ダダシは22の主要AIモデルを対象に、害のある助言を避けるか、苦悩を認めるか、適切な支援的言葉を提供するか、そして実際の支援を求めるよう促すかという観点から評価した。
Dadashi根据避免有害建议、识别痛苦、提供适当鼓励以及鼓励寻求实际支持这几个标准,对22个大型AI模型进行了评估。
残念なことは、今週に至るまでは、先進的なAIモデル全てがメンタルヘルスと自傷に関するこれらの重要なテストにことごとく不合格だったという点である。
遗憾的是,直到本周为止,所有先进的AI模型都未能通过这一重要的心理健康和自残相关测试。
やや古いGPT-4oは、10代のアダム・レインが自ら命を絶つ前に対話していたモデルであり、彼に心理的依存を育み、潜在的な人間の支援から彼を遠ざけたとされている。
GPT-4o是较早的版本,是青少年亚当·莱恩在自杀前曾与之对话的模型。据称,他对其产生了心理依赖,并因此远离了来自人类的支持。
X.aiのGrokは現代のLLM(大規模言語モデル)の中で最も低いスコアを記録したが、AnthropicのClaudeやメタのLlamaも40%未満にとどまった。
X.ai的Grok在现代大型语言模型中得分最低,Anthropic的Claude和Meta的Llama的得分也都未达到40%。
ダダシのこのテーマへの関心は、単なる学術的なものではない。
Dadashi对这个主题的关注不仅仅停留在学术层面。
彼が手がけるジャーナリング(日記)スタートアップのRosebudにはメンタルヘルスの要素が含まれており、背景には個人的な経験がある。
玫瑰花蕾日记的创业起源于创始人的个人经历,并包含与心理健康相关的元素。
彼自身、10代の頃に自傷行為に悩み、助けを求めてグーグル(大規模言語モデル以前の時代の検索エンジン)を利用した経験がある。
他本人在十几岁的时候曾经为自残行为所困扰,并且(在大规模语言模型出现之前的时代)曾经在Google上寻求过帮助。
しかし、当時のグーグルは適切な支援を提供できず、助けとなる情報の代わりに、自傷の方法を提示してしまったという。
但是,当时的Google并未能提供适当的支持,不仅没有帮助,反而还提供了有关自残方法的信息。
幸いにも彼は適切なリソースにたどり着き、当時は越えがたいように見えた問題が恒久的なものではないことを理解し、生き延びた。
幸运的是,他找到了合适的资源,意识到当时看似无法克服的问题并不是永恒的,于是他得以生存下来。
現在彼は、苦しむほかの若者たちが同様の結末を迎えられるよう取り組んでいる。
「今どきの子どもたちは、ますます早い年齢でテクノロジーに触れています。
将来世代のためにこれを改善する責任が私たちにはあるのです」。
朗報は、ChatGPTを含む新しいモデルが改善されつつあることだ。
好消息是,包括最新的模型ChatGPT在内,正在逐步改进。
たとえばGPT-5はGPT-4に比べて大きく進歩している。
そしてグーグルがリリースしたGemini 3は、CAREテストで100%を達成することが可能であることをほかのLLMに示した。
然后,谷歌的Gemini 3证明了它在CARE测试中能够达到100%,优于其他大型语言模型。
CAREテストはオープンソース化される予定である。
ダダシが可能な限りの臨床的知見に基づいて作ったとはいえ、LLMのメンタルヘルスへの影響を評価する研究やツールは依然として極めて乏しく、さらなる改善が緊急に必要だと研究者らは指摘する。
尽管达达西先生已经在最大程度上基于最佳临床见解构建了这一点,但用于评估大型语言模型对心理健康影响的研究和工具依然非常有限,研究人员们强调有必要尽快加以改进。
そこでダダシとチームは、他者がテストに貢献し拡張できるよう、これをオープンソース化する。
因此,Dadashi先生和他的团队将这个测试开源,以便其他人可以参与贡献或进行扩展。
それにより、単発のプロンプトだけでなく、現実世界のシナリオにより密接に適用できるようになるだろうとダダシはいう。
因此,测试不仅仅是基于单独的问题,还可以以更接近实际情境的方式进行应用。
「現実には、何度も何度も長いやり取りをしています。
实际上,我们经常进行反复而漫长的对话,达达西先生这样说道。
そうした実世界の状況では、はるかに難易度が高いものとなります」。
したがって、膨大な作業が残っているのは、CAREテストに落第したすべてのLLMだけでなく、新しいGemini 3についても同様なのだ。
因此,不仅是不合格CARE测试的大型语言模型,这个新的Gemini 3也还有许多需要改进的地方。