【Copilot】Copilotの回答にソース明記を求めるプロンプト設計と精度向上のコツ

【Copilot】Copilotの回答にソース明記を求めるプロンプト設計と精度向上のコツ
🛡️ 超解決

CopilotはMicrosoft 365の各種アプリケーションで利用でき、業務効率化に貢献します。しかし、Copilotが生成した情報の出典が不明確な場合、その情報の信頼性を判断するのが難しくなります。Copilotに回答の根拠となったソースを明記させることで、情報の正確性を高め、より安心して活用することが可能になります。この記事では、Copilotの回答にソース明記を求めるプロンプトの設計方法と、回答精度を向上させるためのコツを解説します。

【要点】Copilotの回答精度を高めるプロンプト設計

  • ソース明記依頼プロンプト: Copilotに回答の根拠となった情報源を具体的に示させるプロンプトを記述する。
  • 情報源の指定: 特定のドキュメントやWebサイトを情報源として提示し、その範囲内で回答させる。
  • 具体性のある質問: 曖昧な質問ではなく、具体的な情報を求める質問形式にする。
  • 複数回の対話: 一度の質問で完結せず、追加質問で深掘りし、ソースを確認する。

ADVERTISEMENT

Copilotが回答を生成する仕組みとソース明記の重要性

Copilotは、Microsoft 365のデータ(メール、チャット、ドキュメントなど)やWeb上の公開情報に基づいて回答を生成します。大規模言語モデル(LLM)がこれらの情報を処理し、ユーザーの質問に対して最も関連性の高いと思われるテキストを生成する仕組みです。しかし、LLMは学習データに基づいて回答するため、時に不正確な情報や、出典が不明確な情報を生成することがあります。特に、業務で利用する際には、生成された情報の正確性を担保し、意思決定の根拠とするために、その情報がどこから来ているのかを明確にする必要があります。ソースが明記されていれば、ユーザーは情報の信頼性を自身で評価し、必要に応じて元の情報源を確認できます。

Copilotにソース明記を求めるプロンプト設計

Copilotにソース明記を求めるためには、プロンプト(指示文)を工夫する必要があります。単に質問するだけでなく、回答の形式や含めるべき情報について具体的に指示することが重要です。

基本となるソース明記依頼プロンプト

最も基本的な方法は、プロンプトの最後に「出典を明記してください」や「参考にした資料やWebサイトを教えてください」といった指示を加えることです。これにより、Copilotは回答とともに、その根拠となった情報源のリストを提示しようと試みます。ただし、Copilotが常に正確なソースを特定できるとは限りません。特にWeb上の情報については、URLまで特定できない場合もあります。

回答形式を指定するプロンプト

より確実に出典を求めるには、回答の形式を指定します。例えば、「以下の質問について、回答の根拠となったMicrosoft 365内のドキュメント名を3つ挙げてください」のように、具体的な情報源の種類や数を指定します。これにより、Copilotは指定された形式に沿って回答を生成しようとします。

特定のドキュメントを情報源とするプロンプト

Copilotは、ユーザーがアクセス可能なMicrosoft 365内のドキュメントを検索して回答を生成できます。特定のドキュメントを参照してほしい場合は、そのドキュメント名をプロンプトに含めます。例えば、「〇〇プロジェクトの進捗報告書(ファイル名:進捗報告_20231026.docx)の内容に基づいて、現在の課題を3点挙げてください。回答には、参照したドキュメント名を必ず含めてください」のように指示します。

Web上の情報を参照させる場合のプロンプト

CopilotはWeb上の公開情報も参照します。Web情報を参照させつつソースを明記させたい場合は、「最新の〇〇に関する業界レポートを参考に、市場動向をまとめてください。参考にしたWebページのURLも提示してください」といった指示が有効です。ただし、Web上の情報源の特定は、Microsoft 365内のドキュメントよりも不確かな場合があります。

Copilotの回答精度を向上させるコツ

ソース明記だけでなく、Copilotの回答全体の精度を高めることも重要です。以下にいくつかのコツを紹介します。

質問を具体的にする

曖昧な質問では、Copilotも曖昧な回答しか生成できません。質問の対象、目的、必要な情報などを具体的に記述することで、Copilotは意図を正確に理解し、より的確な回答を生成しやすくなります。例えば、「市場調査について教えて」ではなく、「〇〇市場における競合他社の最新の動向について、過去1年間のデータに基づいて教えてください」のように具体的にします。

コンテキスト(文脈)を提供する

Copilotは、対話の履歴や、現在開いているドキュメントなどのコンテキストを理解して回答を生成します。質問する前に、関連するドキュメントを開いておく、あるいはプロンプト内で背景情報を簡潔に説明することで、Copilotの理解度が高まり、より精度の高い回答が得られます。

一度で完璧を求めない(対話形式の活用)

Copilotとの対話は、一度の質問で完結するとは限りません。初回の回答で不明な点があれば、「〇〇について、もう少し詳しく教えてください」や、「この情報の出典は何ですか?」といった追加質問をすることで、回答を深掘りし、ソースも確認できます。Copilotは以前のやり取りを記憶しているため、対話を通じて徐々に精度を高めていくことが可能です。

否定的な指示や制約を加える

「〇〇については言及しないでください」や「専門用語は避けてください」といった否定的な指示や制約を加えることで、回答の範囲を限定し、意図しない内容の生成を防ぐことができます。また、「〇〇の観点からのみ回答してください」のように、特定の視点からの回答を求めることも有効です。

ADVERTISEMENT

Copilotのソース明記に関する注意点

Copilotのソース明記機能は非常に便利ですが、いくつかの注意点があります。

ソースが常に正確とは限らない

Copilotが提示するソース情報が、必ずしも正確であるとは限りません。特にWeb上の情報については、リンク切れや、参照元が誤っている可能性もゼロではありません。Copilotが提示したソース情報は、必ずユーザー自身が確認し、情報の真偽を判断することが重要です。

参照範囲の制限

Copilotが参照できる情報は、ユーザーのアクセス権限があるMicrosoft 365内のデータや、Web上の公開情報に限られます。組織内で共有されていない非公開情報や、アクセス権限のないファイルについては参照できません。また、参照できるデータ量にも制限がある場合があります。

機密情報の入力に関するリスク

Copilotに質問する際に、機密情報や個人情報などのセンシティブなデータを入力することは避けるべきです。Copilotは入力された情報を処理するため、意図せず情報漏洩のリスクにつながる可能性があります。機密情報を含むドキュメントをCopilotに参照させる場合は、事前に機密情報を取り除くなどの配慮が必要です。

Copilot ProとMicrosoft 365 Copilotの違い

Copilot Proは個人向けのサブスクリプションであり、主にWeb版のCopilotやMicrosoft 365アプリ(Word, Excel, PowerPoint, Outlook, Teams)で利用できます。Microsoft 365 Copilotは法人向けのライセンスで、より高度な組織内データ連携やセキュリティ機能が期待できます。ソース明記の機能自体は両者で提供されますが、参照できるデータ範囲やセキュリティレベルに違いが生じることがあります。法人利用の場合は、Microsoft 365 Copilotの利用が推奨されます。

まとめ

Copilotにソース明記を求めるプロンプトを設計し、質問を具体化することで、回答の精度と信頼性を大幅に向上させることが可能です。Copilotが提示したソース情報は必ず自身で確認し、機密情報の取り扱いには十分注意してください。今後は、Copilotとの対話を通じて、より効率的かつ安全に情報を収集・活用していくことが求められます。

ADVERTISEMENT

この記事の監修者
✍️

超解決 第一編集部

疑問解決ポータル「超解決」の編集チーム。正確な検証と、現場視点での伝わりやすい解説を心がけています。