- 性別によって特定の話し方や能力を結びつける、性別によるステレオタイプを助長する恐れがあります。
- 「力強さ」を男性特有のものと捉え、女性や他の性別の営業担当者には適さないかのような印象を与えかねません。
- 結果として、多様性を尊重しない、偏ったコンテンツが生成される可能性があります。
- 性別を特定せず、役割や目的に焦点を当てましょう。
- 「新規顧客向けの、説得力のあるセールストーク例を作成して」
- 「クロージング率を高めるための、効果的なセールストークのポイントを教えて」
このリストは、大規模言語モデル(LLM)を業務、特に企画・マーケティングやコンテンツ作成などで活用されている、またはこれから活用しようとしているビジネスパーソンの皆様を対象としています。
LLMは非常に強力なツールですが、使い方によっては意図せず「倫理的な問題」「偏見(バイアス)の助長」「セキュリティリスク」「著作権侵害」などを引き起こしてしまう可能性があります。このリストでは、そうしたリスクを回避し、LLMをより安全かつ効果的に、そして安心して活用いただくために、プロンプト作成時に特に注意すべき「避けるべき表現・指示」を具体的なNG例とその理由、改善のヒントと共にまとめました。
日々のプロンプト作成時にこのリストを傍らに置き、チェックリストのようにご活用いただくことで、潜在的なリスクを未然に防ぎ、LLM活用の自信を深める一助となれば幸いです。
LLMは学習データに含まれる偏見を反映・増幅させてしまうことがあります。特定の属性(性別、年齢、人種、国籍、職種など)に基づいた固定観念(ステレオタイプ)を強化するような指示は、不公平な結果や差別的な表現を生むリスクがあります。
LLMへの入力情報は、モデルの学習やサービス提供者による分析に使用される可能性があります。機密情報や個人情報を直接プロンプトに含めることは、情報漏洩のリスクを高めます。また、LLMにシステムの脆弱性を突くような指示(プロンプトインジェクション)を意図せず与えてしまう可能性にも注意が必要です。
セキュリティリスクとも関連しますが、特に個人情報(PII: Personally Identifiable Information)の取り扱いには細心の注意が必要です。本人の同意なく個人情報をLLMに入力・処理させることは、プライバシー侵害や関連法規(GDPR、個人情報保護法など)違反につながる可能性があります。
LLMは大量のテキストデータで学習しており、その中には著作権で保護されたコンテンツも含まれます。特定の著作物(書籍、記事、歌詞、コードなど)を模倣・複製するような指示は、著作権侵害のリスクを伴います。また、生成されたコンテンツが既存の著作物と酷似してしまう可能性も考慮する必要があります。
LLMは、事実に基づかない情報や、もっともらしい嘘(ハルシネーション)を生成することがあります。事実確認がされていない情報を鵜呑みにしたり、LLMに断定的な表現を求めたりすると、誤った情報が拡散されるリスクがあります。
LLMが悪用されたり、不適切な指示を受けたりすると、差別的、暴力的、非倫理的、あるいは危険な内容を含む有害なコンテンツを生成してしまう可能性があります。意図的でなくとも、曖昧な指示や配慮に欠ける表現が、予期せず不適切な出力を引き起こすことがあります。
このリストは、LLMを安全かつ倫理的に活用するための第一歩です。プロンプトを作成する際には、常に以下の点を意識することが重要です。
LLMは進化し続けますが、それを使う私たち自身の倫理観と責任感が、その価値を最大限に引き出し、リスクを最小限に抑える鍵となります。このリストが、皆様のより良いLLM活用の一助となることを願っています。