- 01ChatGPTに任意の安全機能「Trusted Contact」が追加されました。
- 02深刻な自傷・自殺リスクが検知された際、ユーザーが事前に登録した信頼できる人物へ通知が送られます。
- 03利用はオプトイン(ユーザーが自ら設定する任意参加)形式です。
ChatGPTに任意の安全機能「Trusted Contact」が追加されました。
深刻な自傷・自殺リスクが検知された際、ユーザーが事前に登録した信頼できる人物へ通知が送られます。
利用はオプトイン(ユーザーが自ら設定する任意参加)形式です。
#01 何が起きたのか
2026年5月7日、OpenAIはChatGPTに新たな安全機能「Trusted Contact(信頼できる連絡先)」を導入しました。これはオプトイン(任意参加)形式の機能で、ユーザーがあらかじめ指定した信頼できる人物——家族や友人など——に対して、ChatGPTとの会話の中で深刻な自傷または自殺に関する懸念が検知された場合に通知を送る仕組みです。
この機能はユーザー自身が設定を行う必要があり、強制的に適用されるものではありません。OpenAIは公式ブログにて、ChatGPTが深刻な懸念を検出した際に登録された連絡先へ通知が届くと説明しており、ユーザーのプライバシーと安全のバランスを考慮した設計であるとしています。詳細な通知の方法や検知の仕組みについては、OpenAIの公式ページにて公開されています。
#02 なぜ重要なのか
AI(人工知能)チャットサービスの普及に伴い、ユーザーが精神的な苦悩や自傷・自殺に関する内容をAIに打ち明けるケースが社会的な課題として認識されつつあります。こうした背景から、AI企業がメンタルヘルス(精神的健康)領域における安全対策をどう実装するかは業界全体の注目点となっています。今回のOpenAIの取り組みは、AIサービスが単なる情報提供ツールにとどまらず、ユーザーの安全を能動的にサポートする方向性を示す事例として位置づけられます。オプトイン形式を採用することで、プライバシーへの配慮と安全機能の両立を図った設計となっています。
#03 で、私たちの生活にどう影響?
ChatGPTを日常的に利用するユーザーは、設定画面から「Trusted Contact」機能を有効にし、信頼できる家族や友人をあらかじめ登録しておくことができます。自分自身が精神的につらい状況にあるとき、ChatGPTとの会話の中でそのサインが検出されれば、登録した相手に自動で通知が届く仕組みです。これにより、本人が助けを求める言葉を発することが難しい状況でも、周囲のサポートにつながる可能性があります。一方、この機能はあくまで任意であるため、利用するかどうかはユーザー自身が判断します。医療機関や専門の相談窓口に代わるものではありませんが、日常の延長線上にある安全の網として機能することが想定されています。
誰かに話せないからAIに打ち明けてる人もいるわけで、「通知される」とわかったら逆に話せなくなる可能性も気になる。オプトインだからまだわかるけど。
設計の意図は理解できるし、救える命があるなら意味はある。ただ難しい問題だなと思う。

