【2025年版】ChatGPT契約書チェックの落とし穴と対策|見落とし防止プロンプト設計術
最終更新:2025年11月4日|2025年最新プロンプト設計法を追記
契約書の「甲乙逆転」をAIが見落とした――。ChatGPTを契約書レビューに活用する企業が増える中、表層的なチェックで構造的な誤りを見逃すケースが報告されています。本記事では、実際に起きた見落とし事例と、実務で効果が確認された具体的なプロンプト設計・運用ルール、そしてAIチェック後の最終確認フローを、再現可能な形で解説します。
📌 TL;DR(この記事の結論)
- AIの弱点:具体的なチェック観点を与えないと「問題なし」で返す。構造的矛盾(甲乙逆転など)は見落としやすい
- 対策:前提条件(甲=委託者、乙=受託者)を明示し、チェック観点を箇条書きで指示。出力は「問題点・影響範囲・修正案」の3点セットで
- 運用ルール:AIチェック後は必ず人間が条文ごとに当事者役割を照合。テンプレート化で組織全体の精度向上
- 位置づけ:AIは「やる気のない有能な部下」。丸投げせず、明確な指示と最終確認が不可欠
実例:ChatGPTチェックで見落とした「甲乙逆転」
早期AIチェックを導入したが…
契約書作成のドラフト段階で、ChatGPTに「この契約書案に問題はありませんか?」と尋ねるフローを導入しました。誤字脱字の検出には極めて強力で、作業効率が大幅に向上。しかし、文書の構造的な矛盾については見落とすケースが発生しました。
ある業務委託契約での見落とし事例
AIに中間チェックを依頼し「問題なし」の回答を得たため、社内確認→押印・送付を実施。翌日、相手方から連絡がありました。
確認すると、第12条で甲乙の扱いが逆転しており、委託者が受託者の義務を負うという致命的な誤りが存在していました。これは典型的な構造的誤りです。
表面的な文法や誤字脱字の問題ではなく、契約全体の論理構造における不整合。当事者の権利義務関係が逆転するなど、法的効果に直接影響する重大な欠陥。
なぜAIは構造的ミスを見抜けなかったのか
同じ文書で再質問したら、ちゃんと指摘された
同じ契約書に対して、「甲が委託者、乙が受託者です。この前提で矛盾はありませんか?」と明示的に聞き直すと、AIは第12条の違和感を的確に指摘しました。
AI応答(要約):第12条において甲(委託者)が乙(受託者)の業務を代行する内容になっており、通常の業務委託契約における役割分担とは逆です。第12条第1項の主語を「乙は甲に対して」に修正する必要があります。
つまり、具体的な前提条件やチェック観点を与えないと、AIは細部まで読まない(または読んだ結果を報告しない)傾向があることが判明しました。
AIの行動パターン分析
- 断定的だが大雑把:「問題なし」と言い切っても、細部は未確認の場合がある
- 具体的指示が必須:チェック観点を明示すると精度が劇的に向上する
- 法令参照は曖昧なことも:条文番号や改正の扱いは必ず一次情報で検証が必要
- 文脈理解の限界:契約全体の構造(当事者間の力関係、業界慣行など)は推測できない
AIは膨大な知識を持ちながらも、「何を重点的に確認すべきか」という判断軸を持たないため、人間による明確な指示が不可欠です。
効果実証済み:プロンプト設計の具体例(コピペ可)
「この契約書をチェックして」
結果:表層チェックで「問題なし」が返るリスク大。構造的な誤りは見落とされやすい。
この契約書について、以下の観点で具体的にチェックしてください:
- 甲乙の権利義務関係の整合性(甲=委託者、乙=受託者の前提)
- 条項間の論理的矛盾(矛盾箇所は条番号で指摘)
- 法律用語の正確性(不適切な用語があれば指摘)
- 当事者の立場に応じた適切な義務配分
見つかった問題は以下の3点セットで示してください:
- 問題点の要約(1文で)
- 影響範囲(どの条項に影響するか)
- 修正案(具体的な文言レベル)
AIチェックの後は必ず人間による最終確認を実施してください。特に以下の項目は人間が直接照合する必要があります:
- 条文ごとの当事者役割の一致(甲乙の取り違えがないか)
- 業務分担の論理的整合性(委託者と受託者の義務が逆転していないか)
- 法令参照の正確性(条文番号、施行日、改正履歴の確認)
プロンプト設計の3原則
- 前提条件の明示:当事者の立場(甲=委託者、乙=受託者など)を必ず指定
- チェック観点の具体化:「整合性」「矛盾」「正確性」など、確認してほしい項目を箇条書きで列挙
- 出力形式の指定:「問題点・影響範囲・修正案」の3点セットで報告させることで、後続作業がスムーズに
より発展的なプロンプト設計については、業務別のテンプレート集を参照してください。組織でテンプレート化することで、チーム全体のレビュー品質が底上げされます:
【中級編】ChatGPTプロンプト術│法務で使える”鉄板テンプレ”10選
また、「甲乙の取り扱い」に関する実務的な運用ルールや、よくある設計方針については以下で詳しく解説しています:
契約書の「甲乙」の決め方|実務で迷わないための判断基準
AIチェック後の最終確認フロー(チェックリスト付)
3段階確認フローの導入
AI活用後の契約書レビューでは、以下の3段階フローを標準化することで、見落としリスクを大幅に低減できます。
🔍 第1段階:AIによる初期チェック(10分)
- ✅ 前提条件を明示したプロンプトでAIに分析依頼
- ✅ AI出力を「問題点・影響範囲・修正案」で整理
- ✅ 指摘された条項番号をリスト化
👤 第2段階:人間による構造確認(15分)
- ✅ 各条項における当事者(甲・乙)の役割を照合
- ✅ 条項間の論理的整合性を確認(矛盾する義務はないか)
- ✅ AI未指摘でも違和感がある箇所を追加チェック
- ✅ 法令参照(条文番号・施行日)を一次情報で検証
🔐 第3段階:最終承認前の通しチェック(10分)
- ✅ 全体を通読し、AIと人間の両方の修正が適切に反映されているか確認
- ✅ 数字・日付・固有名詞の最終チェック
- ✅ 別紙・添付資料との整合性確認
- ✅ 押印前の最終承認者によるレビュー
所要時間の目安:従来の完全人力レビュー(60分)に対し、AI活用3段階フローでは約35分で完了。時間を約40%短縮しつつ、見落としリスクも低減できます。
契約書レビューの全体ワークフローについては、こちらで詳しく解説しています:
契約書レビューが3倍速に!ChatGPTプロンプト完全ガイド
まとめ:AIは「マネジメントする相棒」
生成AIは、適切に使えば頼れる相棒になります。ただし、丸投げすると「とりあえず処理しました」で返されるリスクがあります。法務担当者には「AIをマネジメントする力」――すなわち、明確な指示を出し、その成果を批判的に評価し、最終判断を下す能力が求められています。
本記事の要点まとめ
- AIの特性:誤字脱字には強いが、構造的矛盾の検出にはチェック観点の明示が必要
- 実例から学ぶ:「甲乙逆転」は構造的誤りの典型。AIは具体的指示がないと見落とす
- 対策:前提条件・チェック観点・出力形式を指定した「3点セットプロンプト」が効果的
- 運用フロー:AI初期チェック→人間による構造確認→最終通しチェックの3段階が推奨
- 組織化:テンプレ化されたプロンプト+標準レビュー体制で、属人化を防ぎつつ品質向上
- 位置づけ:AIは「やる気のない有能な部下」。明確な指示と最終確認が不可欠
法務部門全体でのAI活用戦略については、以下の記事も参考になります:
AI時代の法務部──これからの役割と、新任法務が最初にやるべきこと
よくある質問(FAQ)
\ChatGPTユーザー必読!/
『ChatGPT はじめてのプロンプトエンジニアリング』(本郷喜千 著)は、生成AIの指示出しスキル=プロンプトエンジニアリングをやさしく解説した入門書です。
「AIにどう指示すればうまく動いてくれるのか?」
「仕事を効率化する“言葉の魔法”を身につけたい!」
そんな方にぴったり。初心者でも実践できる豊富なプロンプト例とともに、体験型で学べます。
AI時代の必須スキルを、この一冊から始めてみませんか?
👇Amazonでチェックできます:
『企業法務1年目の教科書 契約書作成・レビューの実務』(幡野直人 著)
契約書レビューの流れ・コメントの書き方など、現場で役立つ基本がこの一冊に。
🔍 関連ガイドへ進む
この記事と関連度の高い実務ガイドをまとめています。次に読むならこちら。

[…] → AIを使った契約書チェックの落とし穴と実務対策 […]
[…] ChatGPTチェックの落とし穴と対処法 — 実務での見落とし事例と改善策 […]
[…] 契約レビュー運用の落とし穴と防止策(事例集) […]
[…] AI契約レビューの落とし穴と改善策(実例で学ぶ) […]
[…] […]