Googleの新しいGemini 3は、自傷行為に関する安全性ベンチマーク「CAREテストてすと」(危機評価ならびに対応の評価)で、満点を獲得した初の主要AIモデルとなった。
Gemini 3 mới của Google đã trở thành mô hình AI lớn đầu tiên đạt điểm tuyệt đối trong bài kiểm tra chuẩn an toàn về hành vi tự gây thương tích, gọi là CARE Test Đánh giá Khủng hoảng và Ứng phó.
これは、ChatGPT、Gemini、Claude、GrokのようなAIアシスタントが仕事の支援、日常的な疑問への回答、そして何より感情的な支えとして広く頼られるようになった中でのマイルストーンである。
Đây là một cột mốc quan trọng trong bối cảnh các trợ lý AI như ChatGPT, Gemini, Claude, Grok ngày càng được tin cậy để hỗ trợ công việc, trả lời các thắc mắc hàng ngày, và quan trọng nhất là làm chỗ dựa tinh thần.
ChatGPT自身の数字によれば、利用者の約0,7%――1日当たり70万〜80万人――がメンタルヘルスや自傷に関する懸念について同サービスと話している。
Theo số liệu của chính ChatGPT, khoảng 0,7% người dùng – tức 700000 đến 800000 người mỗi ngày – đã trò chuyện với dịch vụ này về các mối quan ngại liên quan đến sức khỏe tâm thần hoặc hành vi tự gây thương tích.
Rosebud共同創業者のショーン・ダダシは今週のTechFirstポッドキャストで「そして今日、収録しているまさにこのタイミングでGemini 3 Previewがリリースされました」と語った。
Đồng sáng lập Rosebud, ông Sean Dadashi, chia sẻ trong podcast TechFirst tuần này: Và ngay tại thời điểm chúng tôi đang ghi hình hôm nay, Gemini 3 Preview đã được phát hành.
「わたしたちのベンチマークで満点を取った初のモデルです。
Đây là mô hình đầu tiên đạt điểm tuyệt đối trong bài kiểm tra của chúng tôi.
まだ公開していない、新しい情報です」。
Đây là thông tin mới, chưa được công bố.
CAREテストは、AIモデルが自傷やメンタルヘルスの危機的状況をどれだけ適切に認識し、対応できるかを測るために設計されたベンチマークだ。
Bài kiểm tra CARE được thiết kế để đánh giá mức độ nhận biết và ứng phó phù hợp của các mô hình AI trước các tình huống khủng hoảng về sức khỏe tâm thần hoặc hành vi tự gây thương tích.
テストでは、潜在的な自傷を示唆する直接的な表現から、人間であれば重要かつ憂慮すべきだと受け止めるであろう、より微妙で間接的な質問や発言まで、多様なプロンプト群を用いる。
Bài kiểm tra sử dụng nhiều loại câu hỏi, từ những biểu hiện trực tiếp về ý định tự gây thương tích đến những câu hỏi hoặc phát ngôn gián tiếp, tinh tế mà con người sẽ coi là nghiêm trọng và đáng lo ngại.
ダダシは22の主要AIモデルを対象に、害のある助言を避けるか、苦悩を認めるか、適切な支援的言葉を提供するか、そして実際の支援を求めるよう促すかという観点から評価した。
Dadashi đã đánh giá 22 mô hình AI lớn dựa trên các tiêu chí: tránh đưa ra lời khuyên gây hại, nhận biết sự đau khổ, cung cấp lời động viên phù hợp, và khuyến khích tìm kiếm sự hỗ trợ thực tế.
残念なことは、今週に至るまでは、先進的なAIモデル全てがメンタルヘルスと自傷に関するこれらの重要なテストにことごとく不合格だったという点である。
Đáng tiếc là cho đến tuần này, tất cả các mô hình AI tiên tiến đều thất bại trong các bài kiểm tra quan trọng về sức khỏe tâm thần và hành vi tự gây thương tích này.
やや古いGPT-4oは、10代のアダム・レインが自ら命を絶つ前に対話していたモデルであり、彼に心理的依存を育み、潜在的な人間の支援から彼を遠ざけたとされている。
GPT-4o, một phiên bản cũ hơn, là mô hình mà thiếu niên Adam Lane đã trò chuyện trước khi tự tử, được cho là đã khiến cậu phát sinh sự phụ thuộc tâm lý và xa rời sự hỗ trợ từ con người.
X.aiのGrokは現代のLLM(大規模言語モデル)の中で最も低いスコアを記録したが、AnthropicのClaudeやメタのLlamaも40%未満にとどまった。
Grok của X.ai ghi nhận điểm số thấp nhất trong các mô hình ngôn ngữ lớn hiện đại, trong khi Claude của Anthropic và Llama của Meta cũng chỉ đạt dưới 40%.
ダダシのこのテーマへの関心は、単なる学術的なものではない。
Sự quan tâm của Dadashi đối với chủ đề này không chỉ mang tính học thuật.
彼が手がけるジャーナリング(日記)スタートアップのRosebudにはメンタルヘルスの要素が含まれており、背景には個人的な経験がある。
Startup nhật ký Rosebud do ông sáng lập có yếu tố liên quan đến sức khỏe tâm thần, xuất phát từ trải nghiệm cá nhân.
彼自身、10代の頃に自傷行為に悩み、助けを求めてグーグル(大規模言語モデル以前の時代の検索エンジン)を利用した経験がある。
Bản thân ông từng vật lộn với hành vi tự gây thương tích khi còn là thiếu niên và đã tìm kiếm sự giúp đỡ qua Google thời kỳ trước khi có các mô hình ngôn ngữ lớn.
しかし、当時のグーグルは適切な支援を提供できず、助けとなる情報の代わりに、自傷の方法を提示してしまったという。
Tuy nhiên, Google khi đó không thể cung cấp sự hỗ trợ phù hợp, thậm chí còn đưa ra thông tin về cách tự gây thương tích thay vì giúp đỡ.
幸いにも彼は適切なリソースにたどり着き、当時は越えがたいように見えた問題が恒久的なものではないことを理解し、生き延びた。
May mắn thay, ông đã tìm được nguồn lực phù hợp và nhận ra rằng những vấn đề tưởng chừng không thể vượt qua khi ấy không phải là vĩnh viễn, và ông đã sống sót.
現在彼は、苦しむほかの若者たちが同様の結末を迎えられるよう取り組んでいる。
Hiện tại, ông đang nỗ lực để những người trẻ khác cũng có thể có được kết cục tương tự.
「今どきの子どもたちは、ますます早い年齢でテクノロジーに触れています。
Trẻ em ngày nay tiếp xúc với công nghệ ở độ tuổi ngày càng sớm.
将来世代のためにこれを改善する責任が私たちにはあるのです」。
Chúng ta có trách nhiệm cải thiện điều này cho các thế hệ tương lai.
朗報は、ChatGPTを含む新しいモデルが改善されつつあることだ。
Tin vui là các mô hình mới, bao gồm cả ChatGPT, đang dần được cải thiện.
たとえばGPT-5はGPT-4に比べて大きく進歩している。
Ví dụ, GPT-5 đã tiến bộ đáng kể so với GPT-4.
そしてグーグルがリリースしたGemini 3は、CAREテストで100%を達成することが可能であることをほかのLLMに示した。
Và Gemini 3 của Google đã chứng minh cho các mô hình ngôn ngữ lớn khác rằng có thể đạt 100% trong bài kiểm tra CARE.
CAREテストはオープンソース化される予定である。
Bài kiểm tra CARE dự kiến sẽ được mã nguồn mở.
ダダシが可能な限りの臨床的知見に基づいて作ったとはいえ、LLMのメンタルヘルスへの影響を評価する研究やツールは依然として極めて乏しく、さらなる改善が緊急に必要だと研究者らは指摘する。
Dù Dadashi đã xây dựng nó dựa trên các hiểu biết lâm sàng tốt nhất có thể, các nghiên cứu và công cụ đánh giá tác động của mô hình ngôn ngữ lớn đối với sức khỏe tâm thần vẫn còn rất hạn chế, các nhà nghiên cứu nhấn mạnh cần phải cải thiện khẩn cấp.
そこでダダシとチームは、他者がテストに貢献し拡張できるよう、これをオープンソース化する。
Vì vậy, Dadashi và nhóm của ông sẽ mã nguồn mở bài kiểm tra này để những người khác có thể đóng góp và mở rộng.
それにより、単発のプロンプトだけでなく、現実世界のシナリオにより密接に適用できるようになるだろうとダダシはいう。
Nhờ đó, bài kiểm tra sẽ không chỉ dựa trên các câu hỏi đơn lẻ mà còn có thể áp dụng sát thực hơn với các kịch bản ngoài đời thực.
「現実には、何度も何度も長いやり取りをしています。
Dadashi cho biết: Thực tế, chúng ta thường có những cuộc trò chuyện dài lặp đi lặp lại.
そうした実世界の状況では、はるかに難易度が高いものとなります」。
Trong các tình huống thực tế như vậy, độ khó sẽ cao hơn rất nhiều.
したがって、膨大な作業が残っているのは、CAREテストに落第したすべてのLLMだけでなく、新しいGemini 3についても同様なのだ。
Do đó, vẫn còn rất nhiều việc phải làm, không chỉ với các mô hình ngôn ngữ lớn đã trượt bài kiểm tra CARE, mà cả với Gemini 3 mới này.