無料ツール 6本まとめ
法務向け無料デスクトップツール一覧
契約依頼の一次整理マスキング論点アラート
運用引継ぎメモ稟議一枚化レビュー受付台帳
完全オフラインで支援。用途別に最短で選べます。
一次整理 マスキング 論点アラート 運用引継ぎ 稟議一枚化 法務依頼受付台帳
無料ツール一覧を見る →
インストール不要 ・ 完全オフライン対応 ・ すべて無料
法務OSを動かすAIエージェント(Legal Agents)|6つのリーガルエージェント設計|Legal GPT
法務OSシリーズ 第3回

法務OSを動かすAIエージェント(Legal Agents)
6つのリーガルエージェント設計

── 法務OSは単一AIでは動かない。6つのリーガルエージェントが協働するマルチエージェントシステムとして設計する。

Legal GPT|法務OSシリーズ 第3回|2026年3月

01「ChatGPT=法務AI」という誤解

第1回では、法務部に必要なのは契約レビューAIではなく「法務OS」であることを論じました。第2回では、その法務OSの内部構造を6層リーガルアーキテクチャとして設計しました。

しかし、ここで一つ根本的な問いに立ち返ります。

設計図は描けた。
では、誰がこのシステムを動かすのか。

多くの法務部門が陥る最大の誤解があります。それは「ChatGPTを導入すれば法務AIになる」という発想です。

たしかに、ChatGPTやClaudeなどの大規模言語モデルは優秀なAIです。文章を読み、分析し、生成する能力は申し分ありません。しかし、企業法務の業務を冷静に棚卸ししてみると、次のようなタスクが同時並行で動いていることに気づきます。

タスク内容求められるもの
相談受付事業部からの案件情報を構造化する入力フォーマットの標準化、一次判定ロジック
法令参照関連法令・社内規程・過去判例を検索する最新法令DB、自社ルール辞書
リスク分析契約条項のリスクを評価し論点を抽出する推論能力、ドメイン知識、比較分析
文書生成稟議書・レビューメモ・修正案を作成する出力テンプレート、社内フォーマット準拠
承認管理稟議フロー・例外承認の判断を管理するワークフロー制御、権限管理
証跡記録判断根拠・処理経路をログに残す監査対応、J-SOXトレーサビリティ

これらを一つのAIモデルに投げて「あとはよろしく」──それが現在の法務AI導入の実態です。しかし冷静に考えれば、これは一人の従業員に受付・分析・起案・承認・監査のすべてを一括で任せているのと同じ構造です。

単一AI vs マルチエージェント法務OS 現在の法務AIは一つのAIモデルにすべてを任せる構造。法務OSは複数の専門エージェントが協働するマルチエージェント構造。 “` 現在の法務AI 事業部 丸投げ 単一 AI モデル 受付も分析も文書も監査も すべて一括処理 → ブラックボックス 出力(未管理) 法務OS(マルチエージェント) 事業部 Intake Agent Knowledge Agent Analysis Agent Document Agent Audit Agent 証跡あり 監査対応
図1:単一AIモデル(左)vs マルチエージェント法務OS(右)── 法務業務は一つのAIに「丸投げ」できない
“`

エンタープライズ領域では、単一AIモデルではなく、タスク特化型AIエージェントを組み合わせる設計への関心が高まっています。リーガルテック業界でも、単一チャット型から、より役割分担されたワークフロー型への進化が意識されるようになっています。

この流れの本質は一つです。

法務AIの設計は「単一モデル」から「マルチエージェント」へ転換する。
法務OSを動かすのは、一つのAIではなく、役割の異なる複数のリーガルエージェントの協働である。

02AIエージェントとは何か ── 自律的タスク実行者の定義

「AIエージェント」という言葉は、2025年後半から急速に普及しました。しかし法務の文脈では、まだ定義が曖昧なまま語られることが少なくありません。本記事では、法務OSにおけるAIエージェントを次のように定義します。

Legal Agent(リーガルエージェント)とは、
法務OSの特定の層に対応し、定義された目的・権限・入出力仕様に基づいて
自律的にタスクを実行するAIコンポーネントである。

ここで重要なのは、「自律的」の意味です。

リーガルエージェントの自律性は、ChatGPTのような対話型AIとは本質的に異なります。対話型AIは「ユーザーの質問に応答する」のが基本動作ですが、リーガルエージェントはトリガー(入力条件)に応じて、人間の指示を待たずに定義済みタスクを実行します。

比較項目対話型AI(ChatGPT等)リーガルエージェント
起動条件ユーザーがプロンプトを入力事業部の相談登録やワークフロー遷移がトリガー
動作範囲単一の応答を生成定義された層の処理を完了するまで自律実行
外部連携なし(単体完結)他エージェントへ出力を引き渡す
証跡チャット履歴のみ処理ログ・判断根拠を構造化して記録
権限境界なし各エージェントにアクセス範囲と処理上限を設定

つまり、リーガルエージェントは「賢いチャットボット」ではなく、法務OSの中で定義された責務を果たすシステムコンポーネントです。ソフトウェア工学でいうマイクロサービスに近い概念であり、各エージェントが独立した責務を持ち、API(入出力仕様)を通じて他のエージェントと連携します。

03法務OSのエージェント構成 ── 6つのリーガルエージェント

法務OSを動かすリーガルエージェントは、第2回で設計した6層アーキテクチャに対応する形で6つ設計します。

No.エージェント名対応層役割
1Intake AgentIntake事業部からの相談を受け付け、案件情報を構造化し、一次判定を行う
2Workflow AgentOrchestrator案件の種類・緊急度を判定し、タスクを適切なエージェントに振り分ける
3Knowledge AgentRule関連法令・社内規程・過去の判断事例を検索・参照する
4Analysis AgentReasoningKnowledge Agentの情報を基にリスク評価・論点抽出・修正案を生成する
5Document AgentExecutionレビューメモ・稟議書・契約修正案など成果物を生成する
6Audit AgentAudit全エージェントの処理経路・判断根拠を構造化ログとして記録する

この構成の核心は、各エージェントの責務が明確に分離されていることです。

なかでも注目すべきは、Workflow AgentとAudit Agentの関係です。Workflow Agentが「処理の順序」を制御し、Audit Agentが「処理の履歴」を保存する──この二つが揃って初めて、法務OSは再現可能なシステムになります。

Knowledge Agent(法令知識)とAnalysis Agent(推論)が分かれているのは、前回の記事で詳述した「RuleとReasoningの分離設計」をそのままエージェントに反映したものです。知識と推論を混在させると、「AIが何のルールに基づいて判断したか」が追跡不能になります。法務OSのガバナンス要件を満たすには、この分離が不可欠です。

04各エージェントの詳細設計

AGENT 01
Intake Agent ── 相談受付・一次判定
対応層:Intake Layer

事業部からの相談を受け付け、非構造化テキスト(メール・チャット・口頭メモ)を構造化された案件データに変換するエージェントです。具体的には、契約類型の自動分類、当事者・金額・期間の抽出、緊急度の一次判定を行います。

Legal GPTが無料公開しているLegal Gatewayは、まさにこのIntake Agentの実装例の一つです。事業部が自らセルフチェックを行い、法務部の受付負荷を軽減する仕組みを提供しています。

Input: 非構造化テキスト(メール/チャット/フォーム)
Output: 構造化案件データ(JSON: type, parties, amount, urgency, deadline)
Trigger: 事業部からの相談登録
Next: → Workflow Agent
AGENT 02
Workflow Agent ── タスク振り分け・進行管理
対応層:Orchestrator Layer

Intake Agentが構造化した案件データを受け取り、案件種別と緊急度に応じて処理ルートを決定する指揮官です。NDA案件は簡易レビューフローへ、M&A関連は精密分析フローへ、といったルーティングを自動制御します。

人間の法務マネージャーが案件ごとに「誰に振るか」を判断している工程を、ルールベース+AIで自動化するイメージです。

Input: 構造化案件データ + ルーティングルール
Output: 処理ルート指定(エージェント呼出順序、タイムライン)
Trigger: Intake Agentの処理完了
Next: → Knowledge Agent / Analysis Agent(並列可)
AGENT 03
Knowledge Agent ── 法令・社内ルール参照
対応層:Rule Layer

案件に関連する法令条文、社内規程、契約ひな型、過去のレビュー判断を検索・取得するエージェントです。ここで重要なのは、Knowledge Agentは「検索と提供」のみを行い、推論は一切しません。

ただし、過去の判断事例はそのまま「正解」として扱うのではなく、現行ルールとの整合確認を前提に参照する必要があります。古い運用や例外処理をそのまま再生産するリスクがあるためです。

たとえば、生成AIガバナンスの利用ルールに関する案件であれば、個人情報保護法の関連条文、自社のAI利用ガイドライン、過去の類似案件対応を「参照情報パッケージ」として次のAnalysis Agentに渡します。

Input: 案件データ + 検索クエリ
Output: 参照情報パッケージ(法令条文, 社内規程, 過去判例, 契約ひな型)
Source: 法令DB / 社内ナレッジベース / 判例DB
Next: → Analysis Agent
AGENT 04
Analysis Agent ── リスク評価・論点抽出
対応層:Reasoning Layer

法務OSの頭脳にあたるエージェントです。Knowledge Agentから受け取った参照情報と、案件データを突き合わせて、リスク評価・論点抽出・修正方針の策定を行います。

この段階で「契約書のどの条項に、どのリスクがあり、どの法令・ルールに抵触する可能性があるか」を構造化した分析結果を生成します。Analysis Agentの推論品質は、プロンプト設計によって大きく左右されます。契約レビューをAIで効率化する方法で解説した多段階プロンプト設計は、このAnalysis Agentの推論精度を高めるための設計手法です。

Input: 案件データ + 参照情報パッケージ
Output: 分析レポート(リスク一覧, 論点, 推奨修正案, 根拠条文)
Engine: LLM(Reasoning + 多段階プロンプト)
Next: → Document Agent
AGENT 05
Document Agent ── 成果物生成
対応層:Execution Layer

Analysis Agentの分析結果を受け取り、実際に事業部や経営層に提出する成果物を生成するエージェントです。レビューメモ、修正案(赤入れ)、稟議書、リスクサマリーなど、社内で使われるフォーマットに準拠した文書を出力します。

Legal GPTの契約書マスキングツールは、このDocument Agentの前処理段階──機密情報を除去してからAIに渡す──を実現するツールです。

Input: 分析レポート + 社内テンプレート
Output: レビューメモ / 稟議書 / 修正案 / リスクサマリー
Format: 社内テンプレート準拠(Word / PDF / 社内システム投入形式)
Next: → Audit Agent
AGENT 06
Audit Agent ── 証跡記録・監査対応
対応層:Audit Layer

第2回で「6層の中で最も重要」と定義したAudit層に対応するエージェントです。他の5つのエージェントが処理した全ステップの入出力・処理時刻・判断根拠を構造化ログとして記録します。

Audit Agentの存在が、法務OSを「便利なAIツール」から「ガバナンス装置」に昇華させます。「なぜこの契約を承認したのか」に対して、判断の経緯を根拠付きで即座に回答できる──これがAudit Agentの提供価値です。

Input: 全エージェントの処理ログ(入力, 出力, タイムスタンプ, モデルバージョン)
Output: 構造化監査ログ / 証跡レポート / 判断経路トレース
Retention: 契約書保存期間に準拠(7年〜10年)
Compliance: J-SOX / 内部統制報告対応
PROMPT COLLECTION
Analysis Agentの推論品質を支えるプロンプト設計
法務OSのAnalysis Agentは、プロンプトの精度がそのまま推論品質に直結します。
契約レビューの受付→リスク分析→修正案→稟議書生成まで、10STEPで構造化されたプロンプト設計を提供します。
契約書AIレビュー プロンプト集を見る →

056層アーキテクチャ × 6エージェント ── 構造と実行の接続

第2回の6層アーキテクチャは「構造」を定義し、本記事の6エージェントは「実行主体」を定義します。この2つを接続すると、法務OSの全体像が完成します。

Architecture × Agents マッピング 6層の各レイヤーがそれぞれ対応するエージェントによって実行される構造を示す “` Layer(構造) Agent(実行主体) LAYER 1 Intake AGENT 01 Intake Agent LAYER 2 Orchestrator AGENT 02 Workflow Agent LAYER 3 Rule AGENT 03 Knowledge Agent LAYER 4 Reasoning AGENT 04 Analysis Agent LAYER 5 Execution AGENT 05 Document Agent LAYER 6 Audit AGENT 06 Audit Agent
図2:Architecture × Agents ── 6層の「構造」を6つのエージェントが「実行」する
“`

この対応関係が意味するのは、アーキテクチャとエージェントは1対1で結ばれており、各エージェントの責務は層の設計によって決まるということです。エージェントを勝手に増やしたり、責務を曖昧にしたりすることは、アーキテクチャの崩壊を意味します。

設計上の注意 エージェントの数を「便利だから」と安易に増やすのは危険です。エージェントが増えれば連携の複雑性が指数関数的に増加します。法務OSでは6層=6エージェントの構成を基本とし、業務が拡張する場合はエージェント内のサブプロセスとして吸収することを推奨します。

06エージェントワークフロー ── 契約レビューを例に

6つのリーガルエージェントが実際にどう連携するのか、契約レビュー案件を例にEnd-to-Endのワークフローを示します。

契約レビュー エージェントワークフロー 事業部からの契約レビュー依頼が6つのエージェントを順に通過し、最終的にレビュー結果と監査証跡が生成されるフロー “` 事業部 「取引先から新規契約書が届いた」 STEP 1 Intake Agent 契約類型自動分類 / 当事者・金額・期間抽出 / 緊急度判定 STEP 2 Workflow Agent 業務委託契約 → 標準レビューフローにルーティング STEP 3 Knowledge Agent 民法・下請法条文 / 自社契約ひな型 / 過去の類似レビュー履歴 STEP 4 Analysis Agent 損害賠償条項にリスク / 知財帰属が曖昧 / 修正案3件生成 STEP 5 Document Agent レビューメモ生成 / 稟議書ドラフト / 赤入れ版Word出力 STEP 6 Audit Agent 全STEP処理ログ記録 / 判断根拠の構造化保存 / 監査対応 Audit Agent が全 STEP を記録 HUMAN CHECK 法務担当者が最終確認 レビュー完了 + 証跡保存
図3:契約レビューのエージェントワークフロー ── 6 STEP + Human-in-the-Loop
“`

このワークフローのポイントは3つです。

第一に、各ステップの入出力が明確です。Intake Agentの出力(構造化案件データ)がWorkflow Agentの入力になり、Knowledge Agentの出力(参照情報パッケージ)がAnalysis Agentの入力になる。この連鎖が途切れなく設計されていることが、マルチエージェントシステムの安定稼働を支えます。

第二に、Audit Agentが全ステップを横断的に監視しています。図3の右側に示したとおり、Audit Agentは個別の処理ステップではなく、ワークフロー全体の証跡を記録する横断的な役割を担います。

第三に、Human-in-the-Loop(人間による確認)がAnalysis Agent → Document Agentの間に組み込まれています。AIの分析結果を法務担当者が確認し、必要に応じて修正したうえで、最終成果物の生成に進む設計です。

07Human-in-the-Loop ── 人間が握るべき判断の境界線

「AIエージェントが法務判断を完全に自動化する」──この幻想は、少なくとも現時点では危険です。

AIエージェントの推論精度は日進月歩で向上しています。しかし、法務領域ではAIの判断エラー(ハルシネーション)の影響が金銭的損害や法的責任に直結します。法律特化型AIツールであっても、検証によっては一定の誤答率が報告されており(出典により幅があるものの、10%台後半〜30%台に達するケースもあるとされます)、AIの出力を無条件に信頼することのリスクは看過できません。

Human-in-the-Loop 役割分担 AIエージェントが担う領域(分析・補助・記録)と、人間が担う領域(最終判断・例外判断・利益相反と独立性の判定・対外交渉)の境界 “` AI AGENT が担う領域 情報収集・法令検索 リスク分析・論点抽出 文書ドラフト生成 証跡記録・ログ保存 境界 人間法務が担う領域 最終判断(承認 / 却下) 例外判断(ルール逸脱承認) 利益相反・独立性の最終判定 対外交渉・ステークホルダー対応
図4:Human-in-the-Loop ── AIと人間の役割境界を設計する
“`

法務OSにおけるHuman-in-the-Loopの設計原則は明確です。

判断カテゴリ担当理由
定型的リスク分析Analysis Agentパターン化可能。精度が高く、処理速度で人間を上回る
法令検索・参照Knowledge Agent網羅性でAIが優位。ただし最新法令の反映には人間の監視が必要
最終承認判断人間(法務マネージャー)法的責任の帰属先は自然人・法人であり、AIに責任帰属できない
例外・逸脱承認人間(法務部長)ルール外の判断は文脈依存が強く、AIの推論範囲を超える
利益相反・独立性判定人間(CLO / 外部弁護士)当事者関係の微妙なニュアンスは現時点でAIが処理困難
設計原則 法務OSにおけるHuman-in-the-Loopは「AIの不完全さを補う保険」ではありません。最終的な法的責任を組織内の適切な権限者に帰属させるためのガバナンス設計です。責任帰属が不明確なまま運用されるAIシステムは、有事の際に組織を守れません。

08エージェント間連携の設計原則

マルチエージェントシステムの実装で最もリスクが高いのは、エージェント間の連携部分です。個々のエージェントが優秀でも、連携が壊れればシステム全体が機能不全に陥ります。

法務OSのエージェント間連携では、以下の4つの設計原則を守ることを推奨します。

原則1:契約駆動型インターフェース(Contract-Driven Interface)

各エージェントの入出力仕様を「契約」として厳密に定義します。Intake Agentの出力JSON仕様が変わればWorkflow Agentが受け取れなくなる──この種の連携障害を防ぐため、エージェント間のインターフェースはバージョン管理します。ソフトウェア工学でいうAPIコントラクトの考え方と同じです。

原則2:一方向フロー+明示的フィードバックループ

基本のデータフローは上流→下流の一方向です。ただし、Analysis Agentが追加の法令参照を必要とする場合に限り、Knowledge Agentへの明示的なフィードバックループを設けます。暗黙的な循環参照(エージェントAがBに聞き、BがまたAに聞く無限ループ)は禁止します。

原則3:障害隔離(Fault Isolation)

1つのエージェントが障害を起こしても、他のエージェントには波及しない設計にします。たとえばKnowledge Agentの法令DB接続が切れた場合でも、Analysis Agentは「参照情報なし」のフラグ付きで処理を継続し、Human Checkpointで法務担当者に判断を委ねます。システム全体が止まる事態を回避する設計です。

原則4:Audit Agent の横断的アクセス

Audit Agentだけは例外的に、全エージェントの処理ログに横断的にアクセスする権限を持ちます。これは前回のAudit層設計を忠実に反映したものです。他のエージェントが互いのログを参照することは、責務分離の原則上、許可しません。

実装上の注意 エージェント連携でよくある失敗は「全エージェントに同じLLMを使い、同じコンテキストを共有させる」ことです。これでは実質的に単一AIと変わりません。各エージェントのコンテキスト(参照情報・権限範囲)は独立させ、必要最小限の情報だけを次のエージェントに渡す設計にしてください。

09法務部の未来像 ── 「作業者」から「エージェント管理者」へ

ここまで読んで、一つの疑問が浮かんでいるかもしれません。

6つのエージェントが法務業務を処理するなら、
法務部員の役割は何になるのか?

答えは明確です。法務部員の役割は、「自分で作業する人」から「エージェントを管理・監督する人」へ移行します。

役割現在法務OS導入後
法務担当者契約レビュー・文書作成を自分で行うAnalysis Agentの出力をレビューし、最終判断を行う
法務マネージャー案件振り分け・進捗管理を手動で行うWorkflow Agentのルーティングルールを設計・チューニングする
法務部長 / CLO重要案件に個別対応エージェント群の稼働状況を監視し、例外判断・ルール改定を行う
法務DX担当(存在しないことが多い)Knowledge Agentの法令DB更新、プロンプト最適化、Audit Agentの監査設計

この変化は、製造業における「ライン作業者」から「ロボット監督者」への移行と構造的に同じです。工場で人間がすべてのネジを締めていた時代から、ロボットがネジを締め、人間はロボットの稼働状況を監視し、異常時に介入する時代になりました。

法務部門も同じ道をたどります。契約レビューの一次分析はAnalysis Agentが行い、法務担当者はAIの分析結果をレビューして「この判断は適切か」を確認する。稟議書のドラフトはDocument Agentが生成し、法務マネージャーは「この稟議内容で経営層に上げてよいか」を判断する。

この移行に対して、一つだけ誤解してはいけないことがあります。

重要 「エージェント管理者」は「何もしなくてよい人」ではありません。
AIの出力を批判的に評価し、エラーを発見し、ルールを更新し続ける能力が求められます。
むしろ、これまで以上に高い法務知識とAIリテラシーの両方が必要になります。

法務部門がこの移行を成功させるために必要な研修設計については、法務部向けAI研修プログラムで詳述しています。

REASONING ENGINE FOR LEGAL AGENTS
Analysis Agentの「推論エンジン」を構築する
法務OSのAnalysis Agent(Reasoning層)は、プロンプトの設計品質がそのまま推論品質に直結します。
契約受付 → 類型判定 → リスク抽出 → 論点整理 → 修正案生成 → 稟議書ドラフトまで──10STEPで体系化された契約レビュープロンプトが、エージェントの頭脳を支えます。
契約書AIレビュー プロンプト集(10STEP)を見る →

よくある質問(FAQ)

Q. 法務AIエージェントとは何ですか?

法務AIエージェントとは、法務OSの各層に対応し、特定の法務タスクを自律的に実行するAIコンポーネントです。単体のAIチャットボットとは異なり、相談受付、ルール参照、リスク分析、文書生成、証跡記録などの役割を、複数のエージェントが分担して処理します。

Q. マルチエージェント法務システムのメリットは何ですか?

単一AIでは対応しにくい法務業務の複雑さ(情報収集・分析・判断・記録・通知の同時処理)を、専門エージェントの協働で管理できます。また、各エージェントの処理が分離されているため、監査証跡の確保や、障害発生時の影響範囲の限定が可能になります。

Q. AIエージェントが法務判断を完全に自動化できますか?

現時点では完全自動化は現実的ではありません。法務OSのエージェント設計ではHuman-in-the-Loop(人間による介在)が不可欠です。AIエージェントが担うのは分析・補助・記録であり、最終判断・例外判断・利益相反や独立性の判定は人間の法務担当者が行います。

まとめ ── 法務OSは、エージェントの協働で動く。

本記事では、前回設計した6層リーガルアーキテクチャを、実際に駆動する6つのリーガルエージェントとして具体化しました。

記事テーマフレームワーク焦点問い
第1回法務OSの思想5層業務フレームワークWHAT法務は何を管理すべきか
第2回Legal Architecture6層システムアーキテクチャHOW法務OSをどう設計するか
第3回(本記事)Legal Agents6エージェント設計WHO法務OSを誰が動かすか
第4回(次回)導入ロードマップ導入フェーズ設計WHEN / WHERE法務OSをいつ・どこから始めるか

核心は一つです。

法務OSは、単一のAIモデルでは動かない。

Intake Agent → Workflow Agent → Knowledge Agent → Analysis Agent → Document Agent → Audit Agent

6つのリーガルエージェントが、6層アーキテクチャの上でそれぞれの責務を果たしながら協働する──
これがマルチエージェント法務OSの設計である。

そしてこのシステムの中で、人間の法務担当者は最終判断者・例外判断者・エージェント管理者として、
AIが届かない領域を守り続ける。

次回の第4回では、この法務OSを実際にどう導入するか──導入ロードマップ、フェーズ設計、組織体制の構築方法を解説します。