生成AIサービスの業務利用が広がる中、データ保護の仕組みは重要な関心事です。ChatGPTのTeamプランやEnterpriseプランでは、無料版やPlus版とは異なるデータ保護が提供されています。しかし、具体的にどのデータが保護され、どのデータが学習に使われるのかは、利用者にとって分かりにくい点も多いでしょう。この記事では、ChatGPT Team/Enterpriseにおけるデータ保護の範囲を解説し、実際に設定を確認する手順を詳しく説明します。
【要点】ChatGPT Team/Enterpriseのデータ保護の全体像
- 保護の対象: ユーザーが入力したテキストやアップロードしたファイルは、モデルの学習に使用されません。
- 保護されないデータ: 会話履歴や設定情報の一部は、管理者が閲覧できる場合があります。
- 確認手順: 管理コンソールの「データコントロール」画面から、学習使用の設定を確認・変更できます。
ADVERTISEMENT
目次
ChatGPT Team/Enterpriseのデータ保護の仕組み
ChatGPTの無料版やPlus版では、ユーザーが入力した会話データがモデルの学習に利用される可能性があります。一方、TeamプランとEnterpriseプランでは、この点が大きく異なります。OpenAIのポリシーによると、これらのビジネス向けプランでは、ユーザーの入力データはモデルの学習や改善に一切使用されません。具体的には、会話の内容、アップロードしたファイル、フィードバックデータなどが対象です。また、API経由の利用も同様の保護を受けます。ただし、データ保護の範囲はプランによって微妙に異なるため、注意が必要です。
Enterpriseプランでは、さらに高度なコンプライアンス要件を満たしており、SOC 2やISO 27001などの認証を取得しています。データ保管場所の指定や、暗号化のレベルも強化されています。Teamプランでもこれらの一部は提供されますが、Enterpriseほど包括的ではありません。重要なのは、どちらのプランでも「学習に使われない」という点は共通していることです。
データ保護される範囲の具体例
データ保護が適用される主な領域を具体例とともに説明します。
会話内容の非学習保証
Team/Enterpriseで行った会話は、OpenAIのモデル改善に使用されません。たとえば、顧客リストをアップロードして分析を依頼しても、そのデータが他のユーザーへの応答に影響することはありません。同様に、プロンプトエンジニアリングの試行錯誤もプライベートに保たれます。
ファイルアップロードとコードインタープリター
アップロードしたCSVやPDFなどのファイルも、学習に使われません。コードインタープリターで実行したコードや生成されたグラフも保護対象です。ただし、アップロードしたファイルは会話内に保持されるため、ワークスペースの管理者がアクセスできる場合があります。
カスタムGPTとナレッジベース
TeamやEnterpriseでは、組織専用のカスタムGPTを作成できます。その際に設定したナレッジベース(参考資料)も保護され、外部に漏洩することはありません。ただし、ナレッジベースの内容は同じワークスペース内のユーザーが利用できます。
データ保護の確認手順(5ステップ)
実際に自社の環境でデータ保護が有効になっているか確認する手順を、管理コンソールを例に説明します。
- 管理コンソールにログインする
ChatGPT TeamまたはEnterpriseの管理者アカウントで、管理コンソール(admin.chatgpt.com)にアクセスします。 - 「設定」または「データコントロール」メニューを開く
左側のナビゲーションから「設定」を選択し、さらに「データコントロール」タブをクリックします。 - 「モデルのトレーニング」セクションを確認する
「データコントロール」画面には「モデルのトレーニング」という項目があります。ここで「モデルのトレーニングにデータを使用しない」が選択されていることを確認します。 - 「会話の共有」設定を確認する
同じ画面で「会話の共有」設定も確認します。業務利用では「共有を許可しない」に設定することを推奨します。 - 監査ログを確認する
Enterpriseプランの場合、監査ログからデータエクスポートの履歴を確認できます。管理コンソールの「監査ログ」から、誰がいつデータを出力したか追跡できます。
ADVERTISEMENT
落とし穴と注意点
管理者によるデータアクセス
学習に使われなくても、ワークスペースの管理者はユーザーの会話履歴を閲覧できることがあります。Teamプランでは管理者がすべての会話を確認可能です。Enterpriseでは権限設定により制限できますが、デフォルトでは管理者アクセスが可能な場合があります。
サードパーティ製プラグインのリスク
ChatGPTには多数のプラグインが存在しますが、サードパーティ製プラグインを利用する場合、そのプラグインのプライバシーポリシーに従います。プラグイン経由でデータが外部に送信される可能性があるため、利用前にポリシーを確認する必要があります。
APIとChatGPTの違い
API経由で利用する場合も、データ保護のルールは異なります。APIで送信したデータは、OpenAIのポリシーでは学習に使用しないとされていますが、APIの利用規約はChatGPTとは別です。特にAzure OpenAI Serviceなどリセラー経由の場合は、さらに異なる条件が適用されます。
よくある質問(FAQ)
Q1: Teamプランで作成したカスタムGPTのナレッジベースは学習に使われますか?
A1: 使われません。カスタムGPTの設定内容やアップロードしたファイルも学習対象外です。ただし、同じワークスペース内の他のユーザーがそのカスタムGPTを利用できます。
Q2: Enterpriseプランでデータ保管場所を指定できますか?
A2: できます。Enterpriseプランではデータ所在地を特定のリージョン(例:米国、欧州)に制限できます。設定は管理コンソールの「データコントロール」から変更可能です。
Q3: 会話のエクスポート機能はありますか?
A3: あります。ユーザーは自分の会話履歴をエクスポートできます。管理者はワークスペース全体のデータをエクスポートすることも可能です。エクスポート機能は管理コンソールから実行できます。
データ保護範囲の比較表
| 項目 | 無料版/Plus版 | Teamプラン | Enterpriseプラン |
|---|---|---|---|
| 学習へのデータ使用 | 使用される可能性あり | 使用しない | 使用しない |
| 管理者の会話閲覧 | なし | 可能(デフォルト) | 権限で制御可能 |
| データ保管場所指定 | 不可 | 不可 | 可能 |
| コンプライアンス認証 | なし | SOC 2 | SOC 2, ISO 27001 |
まとめ
ChatGPT Team/Enterpriseでは、入力データがモデルの学習に使用されないことが大きなメリットです。ただし、管理者によるアクセスやサードパーティプラグインのリスクなど、注意すべき点も存在します。データ保護の設定確認は、管理コンソールのデータコントロール画面から数分で完了します。本記事で紹介した手順を参考に、自社のポリシーに合った設定を確認してください。また、API利用時や他の生成AIサービス(ClaudeやGeminiなど)のビジネスプランと比較することも、より包括的なデータガバナンスに役立ちます。
ADVERTISEMENT
超解決 第一編集部
疑問解決ポータル「超解決」の編集チーム。正確な検証と、現場視点での伝わりやすい解説を心がけています。
SPONSORED
生成AIの人気記事ランキング
- 【生成AI】学術論文にChatGPTやMidjourneyの図表を載せる時のジャーナル規定
- 【生成AI】研究室で使う時のポリシー策定と論文への明記方法
- 【生成AI】ChatGPTの回答で出典を確認する時のURLとアーカイブ活用
- 【生成AI】ChatGPT/Claudeのデータが海外に保管される時の越境問題確認
- 【生成AI】社員にChatGPTを使わせる時の社内ガイドライン作成手順
- 【生成AI】Midjourneyで思った絵が出ない時のプロンプトとパラメータ調整
- 【生成AI】ファッションコーデ提案にChatGPTやGeminiを使う時のプロンプト
- 【生成AI】ChatGPTやDeepLの誤訳が招くトラブル事例と確認手順
- 【生成AI】ChatGPTやClaudeの仕組みが分からないと混乱する時のLLM基礎理解
- 【生成AI】DeepSeek V3でコスパが良い理由を理解したい時のMoEモデル特徴
