法務部の”うっかり”をAIが救う?ChatGPTチェックの落とし穴と使いこなし術

契約書のドラフト段階でChatGPTを活用するチームが増えています。本記事では実際に起きた「甲乙逆転」などの見落とし事例と、 実務で効果があった具体的な質問テンプレ(プロンプト)と運用ルールを紹介します。AIチェック後の人による最終確認フローも提示します。

ChatGPTチェックで見落とした実話

早い段階でAIチェックを入れるようになった

ChatGPTが登場してから、契約書作成のドラフト段階でAIに目を通してもらうようになりました。「この契約書案に問題はありませんか?」と聞けば、AIが文面全体をスキャンして、不自然な箇所を指摘してくれる。誤字脱字の発見には非常に強い一方で、文書の構造的な矛盾を見落とすことがあります。

ある業務委託契約での”見落とし”

AIに中間チェックしてもらった結果「問題なし」と返ってきて社内確認→押印・送付まで行ったところ、翌日、相手方から

「契約書の第12条の『甲は乙に対して』の主語が逆になっているようですが…」

慌てて確認すると、甲乙の扱いが逆になっており、委託者が受託者の義務を負うという逆転が発生していました。これは構造的な誤りの典型例です。

なぜAIは見抜けなかったのか?

再確認したら、ちゃんと指摘された

同じ文書に対して「甲が委託者、乙が受託者です。この前提で矛盾はありませんか?」と明示的に聞きなおすと、AIは第12条の違和感を指摘しました。つまり、具体的な前提条件やチェック観点を与えないと細部まで読まない(or 読んだことを報告しない)傾向があります。

実行例(AIの応答要約):第12条で甲(委託者)が乙(受託者)の業務を代行する内容になっており、通常の業務委託契約とは逆です。

見えてきたAIの”クセ”

  • 断定調だが大雑把:「問題なし」と言われても細部は未確認の場合がある。
  • 具体的指示必須:チェック観点を明示すると精度が上がる。
  • 法令参照は曖昧なことがある:条文番号や改正の扱いは確認が必要。

ChatGPTへの依頼、こう変えました

NGな聞き方

「この契約書をチェックして」

結果:表層チェックで「問題なし」が返るリスク大

効果的な聞き方(定番テンプレ)

この契約書について、以下の観点で具体的にチェックしてください:

  1. 甲乙の権利義務関係の整合性
  2. 条項間の論理的矛盾(矛盾箇所は条番号で指摘)
  3. 法律用語の正確性(不適切な用語を指摘)
  4. 当事者の立場に応じた適切な義務配分

見つかった問題は「問題点の要約」「影響範囲」「修正案(文言レベル)」の3点セットで示してください。

注:AIチェックの後は必ず人による最終確認(条文ごとの当事者役割・業務分担の照合)を実施してください。

(参考)より発展的なプロンプト集は組織でテンプレ化すると効果が出ます。実務向けプロンプトテンプレの事例をまとめた解説記事も参照してください: 法務で使える ChatGPT プロンプト集(中級編)

また、「甲乙の取り扱い」に関する運用ルールやよくある設計方針については別記事で具体例を解説しています。内部運用ガイドの参考にしてください: 契約書の「甲乙」の決め方(実務的なハンドブック)

まとめ:AIは「やる気のない有能な部下」

生成AIは、うまく使えば頼れる相棒になります。ただし、丸投げすると”とりあえず処理”で返されてしまうリスクがあります。法務は「AIをマネジメントする力」を持つことが求められています。

本記事の要点まとめ

  • AIは誤字脱字には強いが、構造的矛盾の検出にはチェック観点の明示が必要
  • 「甲乙逆転」は構造的誤りなので、人の最終確認が必須
  • テンプレ化されたプロンプト+レビュー体制の組合せが効果的
  • AIの出力は「修正案」まで出すように指示して運用する

免責:本記事は実務上の運用例および編集部の観察に基づいています。最終的な法的判断は所属組織のルールや外部専門家による確認を行ってください。