2026.02.19 | テクノロジー

ChatGPTの新機能:Lockdown ModeとElevated Risk

AIがWebや外部アプリとつながる時代、利便性は大きく広がりました。その一方で、これまで意識されにくかったリスクも表面化しています。OpenAIが発表した「Lockdown Mode」と「Elevated Risk」ラベルは、その変化にどう向き合うのかを示すものです。本記事では要点を整理します。

Lockdown Modeとは何か──プロンプトインジェクション対策の本丸

Lockdown Modeは、ChatGPTに追加された高度なセキュリティ設定です。対象はごく一部の高リスクユーザーであり、OpenAIは経営層や著名な組織のセキュリティチームなどを例に挙げています。多くの利用者に必須の機能ではないと明示されている点も重要です。
背景にあるのは「プロンプトインジェクション」という攻撃です。第三者がAIへの入力に悪意ある指示を紛れ込ませ、本来とは異なる動作をさせたり、機密情報を引き出そうとする手法を指します。AIが単独で回答するだけなら影響は限定的ですが、Webや接続アプリと連携している場合、外部へ情報が出ていく経路が増え、状況は変わります。OpenAIが指摘するのは、まさにこの接続部分です。

Lockdown Modeでは、ChatGPTが外部とやり取りできる範囲を強く制限します。攻撃に悪用され得るツールや機能を決定論的に無効化し、条件によって防ぐのではなく、最初から使えない状態を作ります。たとえばWebブラウジングはキャッシュ済みコンテンツに限定され、OpenAIが管理するネットワーク外へライブ通信は行われません。強い安全保証ができない機能は無効化されます。
現在はChatGPT Enterprise、ChatGPT Edu、ChatGPT for Healthcare、ChatGPT for Teachersで提供されており、管理者がWorkspace Settingsでロールを作成して有効化します。有効化すると既存の管理設定の上に追加制限が重なります。さらに管理者は、Lockdown Mode下で利用できるアプリやアプリ内の特定操作まで細かく指定できます。Compliance API Logs Platformにより、アプリ利用や共有データの可視化も可能です。
ここまでが「強く制限する」という選択肢です。しかし、すべての利用者がそこまでの制限を必要とするわけではありません。では、通常利用の中でリスクとどう向き合うのか。その答えとして提示されたのが、次の「Elevated Risk」ラベルです。

「Elevated Risk」ラベルが意味するもの──AIが“リスクを説明する時代”へ

Lockdown Modeが高リスク層向けの防御策である一方、OpenAIはもう一つの方向性を示しました。それが「Elevated Risk」ラベルです。AIがアプリやWebと接続することで、作業の幅は広がります。ただし、ネットワーク関連の一部機能には、業界全体としてまだ十分に軽減しきれていないリスクが存在すると説明されています。そこでOpenAIは、追加リスクを伴う機能に明確な表示を付けることを決めました。「Elevated Risk」ラベルはChatGPT、ChatGPT Atlas、Codexで統一されます。目的は利用を止めることではなく、何が変わり、どのようなリスクが生じ得るのかを可視化し、利用者が理解したうえで選択できるようにすることです。

具体例として示されているのがCodexです。開発者がネットワークアクセスを許可すると、外部サイトでドキュメントを参照するなどの操作が可能になります。その設定画面には「Elevated Risk」ラベルが表示され、変更点や想定されるリスク、利用が適切な場面が説明されます。リスクを隠さず示す設計です。OpenAIは、セキュリティ対策が進み、一般利用において十分にリスクが軽減されたと判断した場合、このラベルを削除すると述べています。また、どの機能にラベルを付けるかも今後見直していくとしています。ラベルは固定的な評価ではなく、現時点の安全水準を示す指標です。
制限するか、説明するか。二つの方法を並行して示した点に、今回の発表の本質があります。

まとめ

いかがだったでしょうか?
OpenAIが示したのは、AIの利便性を維持しながら、接続に伴うリスクを整理する考え方です。
Lockdown Modeは外部との接点を強く制限する仕組みでした。
「Elevated Risk」ラベルは、追加リスクを明示し、利用者が判断できるようにする表示です。
AIを使う私たちも、便利さと同時にリスクを理解し、選択する姿勢が求められています。