広告

【生成AI】ChatGPT Team/Enterpriseでデータ保護される範囲と確認手順

【生成AI】ChatGPT Team/Enterpriseでデータ保護される範囲と確認手順
🛡️ 超解決

生成AIサービスの業務利用が広がる中、データ保護の仕組みは重要な関心事です。ChatGPTのTeamプランやEnterpriseプランでは、無料版やPlus版とは異なるデータ保護が提供されています。しかし、具体的にどのデータが保護され、どのデータが学習に使われるのかは、利用者にとって分かりにくい点も多いでしょう。この記事では、ChatGPT Team/Enterpriseにおけるデータ保護の範囲を解説し、実際に設定を確認する手順を詳しく説明します。

【要点】ChatGPT Team/Enterpriseのデータ保護の全体像

  • 保護の対象: ユーザーが入力したテキストやアップロードしたファイルは、モデルの学習に使用されません。
  • 保護されないデータ: 会話履歴や設定情報の一部は、管理者が閲覧できる場合があります。
  • 確認手順: 管理コンソールの「データコントロール」画面から、学習使用の設定を確認・変更できます。

ADVERTISEMENT

ChatGPT Team/Enterpriseのデータ保護の仕組み

ChatGPTの無料版やPlus版では、ユーザーが入力した会話データがモデルの学習に利用される可能性があります。一方、TeamプランとEnterpriseプランでは、この点が大きく異なります。OpenAIのポリシーによると、これらのビジネス向けプランでは、ユーザーの入力データはモデルの学習や改善に一切使用されません。具体的には、会話の内容、アップロードしたファイル、フィードバックデータなどが対象です。また、API経由の利用も同様の保護を受けます。ただし、データ保護の範囲はプランによって微妙に異なるため、注意が必要です。

Enterpriseプランでは、さらに高度なコンプライアンス要件を満たしており、SOC 2やISO 27001などの認証を取得しています。データ保管場所の指定や、暗号化のレベルも強化されています。Teamプランでもこれらの一部は提供されますが、Enterpriseほど包括的ではありません。重要なのは、どちらのプランでも「学習に使われない」という点は共通していることです。

お探しの解決策が見つからない場合は、こちらの「生成AIトラブル完全解決データベース」で他のエラー原因や解決策をチェックしてみてください。

データ保護される範囲の具体例

データ保護が適用される主な領域を具体例とともに説明します。

会話内容の非学習保証

Team/Enterpriseで行った会話は、OpenAIのモデル改善に使用されません。たとえば、顧客リストをアップロードして分析を依頼しても、そのデータが他のユーザーへの応答に影響することはありません。同様に、プロンプトエンジニアリングの試行錯誤もプライベートに保たれます。

ファイルアップロードとコードインタープリター

アップロードしたCSVやPDFなどのファイルも、学習に使われません。コードインタープリターで実行したコードや生成されたグラフも保護対象です。ただし、アップロードしたファイルは会話内に保持されるため、ワークスペースの管理者がアクセスできる場合があります。

カスタムGPTとナレッジベース

TeamやEnterpriseでは、組織専用のカスタムGPTを作成できます。その際に設定したナレッジベース(参考資料)も保護され、外部に漏洩することはありません。ただし、ナレッジベースの内容は同じワークスペース内のユーザーが利用できます。

データ保護の確認手順(5ステップ)

実際に自社の環境でデータ保護が有効になっているか確認する手順を、管理コンソールを例に説明します。

  1. 管理コンソールにログインする
    ChatGPT TeamまたはEnterpriseの管理者アカウントで、管理コンソール(admin.chatgpt.com)にアクセスします。
  2. 「設定」または「データコントロール」メニューを開く
    左側のナビゲーションから「設定」を選択し、さらに「データコントロール」タブをクリックします。
  3. 「モデルのトレーニング」セクションを確認する
    「データコントロール」画面には「モデルのトレーニング」という項目があります。ここで「モデルのトレーニングにデータを使用しない」が選択されていることを確認します。
  4. 「会話の共有」設定を確認する
    同じ画面で「会話の共有」設定も確認します。業務利用では「共有を許可しない」に設定することを推奨します。
  5. 監査ログを確認する
    Enterpriseプランの場合、監査ログからデータエクスポートの履歴を確認できます。管理コンソールの「監査ログ」から、誰がいつデータを出力したか追跡できます。

ADVERTISEMENT

落とし穴と注意点

管理者によるデータアクセス

学習に使われなくても、ワークスペースの管理者はユーザーの会話履歴を閲覧できることがあります。Teamプランでは管理者がすべての会話を確認可能です。Enterpriseでは権限設定により制限できますが、デフォルトでは管理者アクセスが可能な場合があります。

サードパーティ製プラグインのリスク

ChatGPTには多数のプラグインが存在しますが、サードパーティ製プラグインを利用する場合、そのプラグインのプライバシーポリシーに従います。プラグイン経由でデータが外部に送信される可能性があるため、利用前にポリシーを確認する必要があります。

APIとChatGPTの違い

API経由で利用する場合も、データ保護のルールは異なります。APIで送信したデータは、OpenAIのポリシーでは学習に使用しないとされていますが、APIの利用規約はChatGPTとは別です。特にAzure OpenAI Serviceなどリセラー経由の場合は、さらに異なる条件が適用されます。

よくある質問(FAQ)

Q1: Teamプランで作成したカスタムGPTのナレッジベースは学習に使われますか?
A1: 使われません。カスタムGPTの設定内容やアップロードしたファイルも学習対象外です。ただし、同じワークスペース内の他のユーザーがそのカスタムGPTを利用できます。

Q2: Enterpriseプランでデータ保管場所を指定できますか?
A2: できます。Enterpriseプランではデータ所在地を特定のリージョン(例:米国、欧州)に制限できます。設定は管理コンソールの「データコントロール」から変更可能です。

Q3: 会話のエクスポート機能はありますか?
A3: あります。ユーザーは自分の会話履歴をエクスポートできます。管理者はワークスペース全体のデータをエクスポートすることも可能です。エクスポート機能は管理コンソールから実行できます。

データ保護範囲の比較表

項目 無料版/Plus版 Teamプラン Enterpriseプラン
学習へのデータ使用 使用される可能性あり 使用しない 使用しない
管理者の会話閲覧 なし 可能(デフォルト) 権限で制御可能
データ保管場所指定 不可 不可 可能
コンプライアンス認証 なし SOC 2 SOC 2, ISO 27001

まとめ

ChatGPT Team/Enterpriseでは、入力データがモデルの学習に使用されないことが大きなメリットです。ただし、管理者によるアクセスやサードパーティプラグインのリスクなど、注意すべき点も存在します。データ保護の設定確認は、管理コンソールのデータコントロール画面から数分で完了します。本記事で紹介した手順を参考に、自社のポリシーに合った設定を確認してください。また、API利用時や他の生成AIサービス(ClaudeやGeminiなど)のビジネスプランと比較することも、より包括的なデータガバナンスに役立ちます。


🤖
生成AIトラブル完全解決データベース ChatGPT・Claude・Gemini・Midjourneyなど主要生成AIの基礎/料金/セキュリティ/著作権/社内ルール/業務活用/依存防止/比較選びを横断網羅。最新機能ではなく長期に陳腐化しにくい実務リファレンスとしてご活用ください。

ADVERTISEMENT

この記事の監修者
✍️

超解決 第一編集部

疑問解決ポータル「超解決」の編集チーム。正確な検証と、現場視点での伝わりやすい解説を心がけています。

SPONSORED