Keyboard shortcuts

Press or to navigate between chapters

Press S or / to search in the book

Press ? to show this help

Press Esc to hide this help

4. 出力の管理と利用

4.1 出力の検証義務

  • 4.1.A. [Required] 出力内容の正確性確認(ファクトチェック)が義務付けられている [NIST: MEASURE 2.5] [JDLA] [FUJITSU]
    • 説明: 生成AIの出力は「もっともらしいが正しいとは限らない」。自然な文章で あるほど誤りに気づきにくく、検証せずに利用した結果、誤情報を社外に出してしまえ ば組織の信頼を失う。ファクトチェックは手間ではなく、AI活用の最低限の安全装置で ある。
    • 定義例: 「AI出力を業務に利用する場合、事実情報(数値・日付・法令名・人名 ・固有名詞等)は必ず一次情報源で裏取りを行う。裏取りが困難な情報は、AI出力であ る旨を付記して共有する」
  • 4.1.B. [Required] 専門分野(法務、財務、技術等)における専門家レビューの要否基準がある [NIST: MEASURE 1.3] [JDLA]
    • 説明: 法律の解釈、財務上の判断、技術的な正確性は、一般的な知識では検証で きない。専門領域のAI出力を非専門家だけで「確認済み」とするのは、確認していない のと同じである。どの領域で専門家レビューが必要かを予め決めておくことが重要であ る。
    • 定義例: 「AI出力が以下の領域に関わる場合は、各分野の専門家(または外部顧 問)によるレビューを必須とする:①法的判断・契約内容、②財務・会計処理、③技術的 な安全性、④医療・健康に関する情報」
  • 4.1.C. [Required] 出力をそのまま使用してはいけない場面が明記されている [JDLA] [FUJITSU]
    • 説明: 入力の禁止事項と同様に、出力の利用にも「ここでは使うな」という明確 な線引きが必要である。特に対外的な公式文書や法的効力を持つ文書で無加工のAI出力 を使うのは、組織としてのガバナンスの欠如を示すことになる。
    • 定義例: 「以下の場面ではAI出力をそのまま使用してはならない:①対外公式文 書(契約書・プレスリリース・公式声明)、②法的効力を持つ文書、③人事評価・処遇に 関する文書。これらの用途では草案としてのみ利用し、必ず人間が加筆・修正・承認を 行う」
  • 4.1.D. [Required] 人間による最終確認・承認プロセスがある [NIST: MAP 3.5] [METI]
    • 説明: AIはあくまで「下書きをつくる道具」であり、最終的な品質と正確性に責 任を負うのは人間である。出力の重要度に応じて「誰が」「どのタイミングで」確認・ 承認するかを定めることで、ヒューマン・イン・ザ・ループの原則を実現する。
    • 定義例: 「AI出力を業務に利用する場合、①社内利用のみの場合は利用者自身が 確認、②対外利用の場合は上長の承認を必須とする。重大な意思決定に関わる場合はAI 管理担当者にも確認を依頼する」

4.2 著作権・知的財産

  • 4.2.A. [Required] 生成物の著作権の帰属に関する考え方が示されている [JDLA] [METI] [AIACT-JP]
    • 説明: AIが生成した文章や画像に著作権が発生するかは、人間の「創作的寄与」 の程度による。プロンプト入力で著作権は発生しない可能性がある。一方、 人間が大幅に加筆・編集すれば著作物となりうる。この曖昧さを組織として整理してお く必要がある。
    • 定義例: 「AI生成物の著作権について、以下の方針を定める:①AI出力をそのま ま使用した場合は著作権が発生しない前提で取り扱う、②人間が実質的な加筆・編集を 行った場合は、編集者の著作物として扱う。利用するAIサービスの規約で生成物の権利 帰属がどう定められているかも確認する」
  • 4.2.B. [Required] 既存著作物との類似性チェックの必要性が言及されている [JDLA] [FUJITSU] [AIACT-JP]
    • 説明: AIは学習データに含まれる既存著作物類似の出力をする可能性がある 。利用者が元の著作物を知らなくても、類似性と依拠性が認められれば著作権侵害とな りうる。特に画像やデザインでは、類似性の確認が不可欠である。
    • 定義例: 「AI生成物を対外利用する場合、既存著作物との類似性を可能な範囲で 確認する。画像はインターネット画像検索で類似画像がないか確認し、文章は特徴的な 表現が既存文献と一致しないか検証する」
  • 4.2.C. [Recommended] 商用利用時の追加確認事項が定められている [JDLA] [AIACT-JP]
    • 説明: AI生成物を商用利用する場合、非商用利用よりも高い注意義務が求められ る。AIサービスの利用規約で商用利用が制限されている場合もあり、規約違反は契約上 の責任だけでなく、ライセンス取消しにつながるリスクもある。
    • 定義例: 「AI生成物を商用利用(顧客向け成果物、販売物、広告等)する場合は 、①利用するAIサービスの規約で商用利用が許可されていることを確認、②著作権侵害リ スクの追加チェックを実施、③商用利用であることをAI管理担当者に事前申告する」
  • 4.2.D. [Option] 画像・音声・動画生成時の特別な注意事項がある [JDLA] [EU-AIA] [AIACT-JP]
    • 説明: テキスト生成に比べ、画像・音声・動画の生成は著作権侵害やディープフ ェイクのリスクが格段に高い。実在する人物の肖像に似た画像の生成、既存キャラクタ ーに酷似したデザインの生成は、肖像権・パブリシティ権・著作権の各侵害につながり うる。
    • 定義例: 「画像・音声・動画を生成する場合は、テキスト生成時の注意事項に加 え、①実在する人物の肖像に似た出力でないか確認、②既存のキャラクター・ブランドに 類似していないか確認、③プロンプトで特定の作家名・作品名を指定しない。生成した 画像等を社外で使用する場合は上長の承認を必須とする」

4.3 出力の表示・開示

  • 4.3.A. [Required] AI生成コンテンツであることの表示要否の基準がある [EU-AIA] [METI]
    • 説明: EU AI Actでは一定のAI生成コンテンツに表示義務が課される。日本では 現時点で法的義務はないが、受け手がAI生成物と知らずに意思決定の根拠にした場合、 透明性の欠如が信頼を損なう。どの場面で「AI利用」を明示すべきか、組織として基準 を持つことが重要である。
    • *定義例**: 「以下の場合はAI生成物であることを明示する:①社外向けコンテンツ (広報・マーケティング資料等)、②顧客への提出物。社内利用のみの場合は表示を推 奨とする。明示の方法は、文書末尾への注記(例:『本文書の草案作成にAIを利用して います』)とする」
  • 4.3.B. [Required] 社外向け資料でのAI利用に関するルールがある [JDLA]
    • 説明: 社外向け資料にAI出力をそのまま使う場合、誤情報や不適切表現が組織の 公式見解として受け取られるリスクがある。社内メモとは異なり、社外向け資料には組 織としての品質保証が暗黙に求められる。
    • 定義例: 「社外向け資料(提案書・報告書・プレスリリース・公開資料等)にAI 出力を利用する場合、①内容の正確性確認と人間による加筆・編集を必須とし、②上長の 承認を得てから提出・公開する」
  • 4.3.C. [Required] 顧客・取引先への説明責任に関する指針がある [NIST: GOVERN 5.1] [METI]
    • 説明: 顧客が「専門家が作成した」と信頼して受け取ったレポートが実はAI出力 のコピペだった場合、信頼関係は深刻に損なわれる。AIを利用したこと自体が問題では なく、利用した事実を適切に伝えないことが問題になる。
    • 定義例: 「顧客・取引先への成果物にAIを活用した場合、求めに応じてAI利用の 事実を説明できるようにする。対面・電話での顧客対応にAIを活用する場合は、AI利用 の旨を事前に伝える」
  • 4.3.D. [Option] ディープフェイク等の合成コンテンツへの対応がある [EU-AIA]
    • 説明: AI技術により実在の人物の映像・音声を偽造する「ディープフェイク」は 、詐欺・名誉毀損・情報操作に悪用される。自組織がディープフェイクを作成しないこ とはもちろん、外部から受け取った合成コンテンツへの対応も検討しておく必要がある 。
    • 定義例: 「実在する人物の顔・声を模倣した合成コンテンツの作成を禁止する。 外部から受領した映像・音声コンテンツの真正性に疑義がある場合は、 利用前に信頼できる情報源で確認する」

4.4 品質管理

  • 4.4.A. [Required] 重要度に応じた承認プロセスが定められている [NIST: MANAGE 1.1] [JDLA]
    • 説明: すべてのAI出力に同じレベルの承認を求めるのは非効率だが、すべてを無 審査で使うのはリスクが高い。出力の利用場面の重要度に応じて承認レベルを段階的に 設けることで、効率と安全のバランスが取れる。
    • 定義例: 「AI出力の利用を3段階の承認で管理する:①低リスク(社内参考資料) =利用者自身の確認で可、②中リスク(社外向け資料の草案)=上長の確認、③高リスク (公式文書・顧客提出物)=上長承認+専門家レビュー」
  • 4.4.B. [Option] 出力の記録・保存に関するルールがある [NIST: GOVERN 4.2] [IPA]
    • 説明: AI出力を利用した業務で後日問題が発覚した場合、「どのプロンプトで何 が出力され、どう使ったか」を遡れなければ原因究明や再発防止ができない。ただし、 すべてのAI出力を記録するのは小規模組織では現実的でない。対外提出物や重要な意思 決定など、影響の大きい領域に限定して記録を残すのが実務的である。
    • 定義例: 「顧客向け成果物や重要な意思決定にAI出力を利用した場合に限り、 使用したプロンプトの要旨とAI出力の概要を記録し、少なくとも1年間保存する」
  • 4.4.C. [Option] 問題のある出力を発見した場合の報告プロセスがある [NIST: MANAGE 4.3] [JDLA]
    • 説明: AIが差別的表現や明らかな誤情報を出力した場合、利用者がそれを報告で きる仕組みがあれば、同じ問題の繰り返しを防ぎやすい。ただし、SaaS型AIサービス をそのまま利用する小規模組織では、問題出力を報告してもモデル自体の改善にはつな がらないため、組織内のガイドライン改善に活かせる範囲での運用が現実的である。
    • 定義例: 「AI出力に重大な問題(明らかな誤情報、差別的表現、個人情報の生成 等)を発見した場合、AI管理担当者に報告する。管理担当者は事例を記録し、必要に応 じて利用ルールの見直しに反映する」