オフラインAIで作る理由──外部送信NGの現場で法務ツールを動かす設計思想|Legal GPT
オフラインAIで作る理由
──外部送信NGの現場で
法務ツールを動かす設計思想
法務におけるAI導入の最初の論点は、精度ではない。
「そのデータを外に出してよいか」──この問いにYesと言えない現場で、どう作るか。
「ChatGPTで契約書レビューを効率化したい」──そう考えて情報システム部門に相談したら、苦い顔をされた経験はありませんか?
クラウドAIの性能は日々向上しています。契約書の要約、リスク条項の検出、翻訳──どれも驚くほどの精度です。しかし法務の現場には、利便性よりも先に問われる「沈黙の要件」があります。それは、入力するデータを外部に送信してよいかという問いです。
本記事は、第1回「要件定義10STEP」の続編です。前回定義したSTEP 2(入力データの特性定義)・STEP 3(自動化の範囲と人間の役割)・STEP 9(情報管理とセキュリティ)・STEP 10(証跡・説明責任・再現性)を掘り下げ、なぜ法務では「便利なクラウドAI」より「統制できるオフラインAI」が勝つ場面があるのかを、法令・ガイドラインの根拠とともに解説します。
本記事の構成は3部構成です。第1部で「外部送信NG」の法的な正体を解体し、第2部でオフラインAI設計の3つの思想を示し、第3部で筆者の開発経験をもとに実装の現実解を提示します。
法的根拠
設計思想
開発実践
第1部 ── 法的根拠
クラウドAIが法務を「詰ませる」3つの法的障壁
法務がクラウドAIに慎重になる理由は、漠然とした不安ではありません。明確な法的・規程的根拠があります。ここでは、外部送信を制約する3つの法的障壁を整理します。
1営業秘密の壁──不正競争防止法と秘密管理性
契約書に含まれる取引条件、価格情報、技術情報等が「営業秘密」に該当する場合、その秘密管理性を維持しなければ、不正競争防止法上の保護を受けられなくなるリスクがあります。
不正競争防止法第2条第6項は、営業秘密を「秘密として管理されている生産方法、販売方法その他の事業活動に有用な技術上又は営業上の情報であって、公然と知られていないもの」と定義しています。すなわち、秘密管理性・有用性・非公知性の3要件すべてを満たす必要があります。
経済産業省は令和7年(2025年)3月31日に「営業秘密管理指針」を6年ぶりに改訂しました。今回の改訂では、テレワークの普及、クラウド技術の進展、生成AIの急速な台頭といった環境変化を踏まえ、秘密管理措置の具体例の追加や考え方の整理が行われています。
本指針は、不正競争防止法により「営業秘密」として法的保護を受けるために必要となる最低限の水準の対策を示すもの。令和7年改訂では、秘密管理性の判断において「合理的区分」を必須要件とするのではなく「必要な秘密管理措置の程度」を判断する一要素に位置づける整理がなされた。また、営業秘密と限定提供データ(不競法2条7項)の相互補完的関係が明示された。
経済産業省「営業秘密管理指針」(PDF)
ここで重要なのは、クラウドAIサービスに営業秘密を含むデータを送信した場合、秘密管理性の維持が問題になり得るという点です。令和7年改訂では、テレワークやクラウド技術、生成AIの台頭等の環境変化も踏まえて、秘密管理措置の考え方や具体例の整理が見直されています。したがって、秘密情報をどの処理環境に投入するかは、従前以上に設計上の論点になっています。オフライン設計であれば、データが社内ネットワークから一切外に出ないため、この論点自体が発生しません。
2個人情報の壁──委託・第三者提供・越境移転
契約書には署名者の氏名、住所、連絡先等の個人情報が含まれることが一般的です。これらの個人情報を外部AIサービスに送信する場合、個人情報保護法上の整理が必要になります。
個人情報保護委員会は令和5年(2023年)6月2日に「生成AIサービスの利用に関する注意喚起等」を公表し、個人情報取扱事業者が生成AIサービスに個人情報を含むプロンプトを入力する場合には、特定された利用目的の達成に必要な範囲内であることを十分に確認することを求めています。
実務上、外部AIサービス利用時に検討すべき論点は多岐にわたります。
| 論点 | 検討内容 | 根拠条文 |
|---|---|---|
| 委託か第三者提供か | AIサービス提供者への個人データの提供が「委託」(法27条5項1号)として整理できるか。委託であれば本人同意は不要だが、委託先の監督義務(法25条)が発生 | 個人情報保護法27条5項1号、25条 |
| 越境移転の有無 | AIサービスのサーバーが海外に所在する場合、法27条5項1号の委託として第三者提供に当たらない整理があり得る一方で、法28条1項に基づく「外国にある第三者への提供」に関する検討が必要となる場合がある | 個人情報保護法28条1項(外国第三者提供)、27条5項1号(委託の例外) |
| 学習利用の有無 | 入力データがAIモデルの学習(再訓練)に利用されるか。利用される場合、当初の利用目的の範囲を超える可能性 | 個人情報保護法18条(利用目的の制限) |
| 安全管理措置 | 個人データの取扱いにあたり組織的・人的・物理的・技術的安全管理措置を講じているか | 個人情報保護法23条 |
| 要配慮個人情報 | 契約書そのものでは典型的ではないが、紛争対応資料、労務案件資料、医療・福祉関連契約等では要配慮個人情報が含まれる可能性がある。取得には原則として本人同意が必要 | 個人情報保護法20条2項 |
「生成AIサービスの利用に関する注意喚起等について」(令和5年6月2日)では、利用者に対し、生成AIサービス提供事業者が入力情報を機械学習に利用しないことを十分確認すること等が求められている。また、OpenAI社に対する個別の注意喚起も同時に行われた。
個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について」
なお、個人情報保護法のいわゆる「3年ごと見直し」に係る検討では、生成AIの学習段階・利用段階における事業者の義務の明確化が議論されています(個人情報保護委員会「個人情報保護法の制度的課題に対する考え方について」令和7年3月5日公表)。今後の法改正動向にも注視が必要です(改正の詳細は「個人情報保護法改正でプライバシーポリシーの何を変える?」を参照)。
3NDA(秘密保持契約)の壁──相手方から預かった情報
見落とされやすいのが、自社の情報ではなく、相手方から秘密保持義務の下で受領した情報です。
多くのNDAには「第三者への開示禁止」条項が含まれます。AIサービス提供者が「第三者」に該当するか否かは契約解釈の問題ですが、AIサービスにデータを送信する行為が「開示」に当たると解釈されるリスクは否定できません。特に、学習利用される可能性がある場合、そのリスクは一層高まります。
「ログそのものが機密」という盲点
クラウドAIに投げた質問のログ自体が、機密情報を含み得ます。「この契約でA社との取引金額は○○円だが、リスクはあるか?」というプロンプトには、取引先名と金額という営業秘密が含まれています。AIの精度以前に、プロンプトを作成した時点で情報が外部に出ているのです。
ここまでの3つの障壁を整理すると、法務が扱うデータの多くは、何らかの法的・契約的制約の下にあることがわかります。
契約書・稟議・訴訟資料
営業秘密?個人情報?NDA?
多くのケースで該当
要件から逆算した選択
第2部 ── 設計思想
オフラインAIを選択する3つの設計原則
ここからは、法的障壁を踏まえたうえで、オフラインAIを「仕方なく」ではなく「戦略的に」選択する設計思想を整理します。
本記事における「オフラインAI」の定義
本記事で「オフラインAI」とは、機密データを扱う処理がPCのメモリ(RAM)内で完結し、外部APIへのリクエストが発生しない設計を指します。必ずしもPCがインターネットに一切接続していない状態(完全スタンドアロン)を意味するものではありません。インターネット接続自体はあっても、機密データの処理経路上で外部通信が発生しない──この「ローカルファースト」の設計を、本記事では「オフラインAI」と呼びます。
なお、総務省・経済産業省が令和7年(2025年)3月28日に公表した「AI事業者ガイドライン(第1.1版)」は、AI開発者・提供者・利用者それぞれが取り組むべき事項を整理するソフトローです。同ガイドラインでは、AIガバナンスの構築として「リスクベースアプローチ」──すなわちリスクの程度に応じた対策の実施──を推奨しています。法務部門が自作ツールを設計する際も、このリスクベースの考え方が基礎になります。
総務省・経済産業省「AI事業者ガイドライン(第1.1版)」(令和7年3月28日)は、2024年4月の第1.0版を更新したLiving Document。AI利用者に対し、AIの出力について精度及びリスクの程度を理解し、様々なリスク要因を確認したうえで適正利用することを求めている。
総務省・経済産業省「AI事業者ガイドライン(第1.1版)」本編(PDF)
1データ主権の完全保持
オフライン設計の最大の利点は、「データが1bitも社内ネットワークから出ない」と断言できることです。
この一言は、情報セキュリティ審査において極めて強力な説明になります。クラウドAIの場合、利用規約の確認、委託先の監督体制の整備、越境移転の有無の確認、学習利用オプトアウトの設定──これらすべてを精査しなければなりませんが、オフラインツールであればこれらの論点が構造的に発生しません。
営業秘密管理指針(令和7年改訂)の考え方に照らしても、オフライン処理は秘密管理性の維持にとって有力な設計方針です。秘密情報が社外に送信されない設計は、秘密管理性を支える重要な事情になり得ます。ただし、実際にはアクセス制御、秘密表示、利用者範囲の限定、ログ管理等を含む運用全体で秘密管理性が判断される点には注意が必要です。オフラインであることは「必要条件の一つ」であって「十分条件」ではない──この認識のもとに、本記事では設計思想を展開します。
2再現性と検証可能性(Auditability)
クラウドAIサービスには、もうひとつの構造的なリスクがあります。モデルのバージョンアップにより、過去の処理結果が再現できなくなるという問題です。
法務ツールにおいて再現性は「あれば嬉しい」機能ではなく、監査対応の前提です(第1回 STEP 10で解説)。たとえば、半年前にAIが「リスク低」と判定した契約条項について、現在の同じプロンプトで「リスク高」と出力された場合、「当時の判断は適切だったのか」を検証するすべがありません。
「クラウドAIでもモデルのバージョンを固定すればよいのでは?」という反論がありますが、クラウドサービスのバージョン固定には必ず提供終了(Deprecation)があります。多くのAPIでは、特定バージョンのサポート期間は数か月から1〜2年程度です。一方、ローカルに保持したモデルファイルとライブラリは、環境さえ維持すれば10年後でも同じ挙動を再現できます。法務の証跡保全が求められるスパン(契約書の保存期間は7年〜10年以上が一般的)に耐えられるのは、ローカル保持だけです。
オフラインツールでは、ルール(正規表現・辞書)とモデル(ローカルNLP/LLM)のバージョンを設定ファイルで管理し、入力ファイルのハッシュ値とともにログに記録します。これにより、「いつ・どのルールで・何を処理し・どういう結果だったか」を完全に再現可能な状態が保てます。
3自社ルールへの完全適合
法務業務のルールは、法令だけでなく、社内規程・業界慣行・過去の社内判断の蓄積で構成されています。汎用SaaSではカバーしきれない自社固有のロジックを持てることが、自作ツールの最大の強みです。
たとえば「当社では損害賠償の上限条項がない契約は、金額にかかわらず法務部長の承認が必要」「A社グループとの取引は、別途のNDA条件を適用する」──こうした自社固有のルールは、YAML/JSONの設定ファイルに外部化することで、法改正や社内規程の変更にも開発者不在で対応できます(第1回 STEP 8で解説)。
クラウドAI vs オフラインAI:法務視点の比較
| 比較軸 | クラウドAI | オフラインAI |
|---|---|---|
| 外部送信リスク | あり(利用規約の精査が必須) | なし(構造的に発生しない) |
| 学習利用・越境移転 | 確認が必要(オプトアウト設定等) | 該当なし |
| 秘密管理性の維持 | 条件付き(契約・設定に依存) | 高い(データが外部に出ない) |
| 再現性 | 低い(モデル更新で変動。バージョン固定にも提供終了期限あり) | 高い(バージョン管理可能。ローカル保持で長期再現可) |
| 説明可能性 | サービス依存 | 自社設計で制御可能 |
| 自社ルール適合 | ベンダー依存(カスタマイズ限定的) | 高い(設定ファイルで柔軟に対応) |
| 監査ログの統制 | サービス依存 | 自社で完全管理 |
| 初期導入の速さ | 速い | やや遅い(開発工数が必要) |
| 高性能モデルの利用 | 強い(最新モデルを即利用可) | 制約あり(ローカル実行に限定) |
SaaSが「悪い」のではない
本記事の趣旨は、クラウドAIを否定することではありません。法務のデータが、先にクラウドAIを「選べなくする」場面が多いという構造的な事実を示すものです。外部送信が許容される情報(公開情報ベースの法令調査、一般的な法律相談等)については、クラウドAIの活用が合理的です。重要なのは、データの機密区分に応じて処理環境を使い分ける設計です(生成AIの社内ルール整備については「社内ルールと生成AIの法務リスク」を参照)。
第3部 ── 開発実践
私の開発経緯──設計思想の進化として
ここからは、筆者が実際にオフラインの法務ツールを開発してきた経緯を、「単発のツール紹介」ではなく「設計思想の進化」として整理します。
1第1段階:外に出せない文書を扱う必要があった
最初に開発したのは、契約書マスキングツールです。契約書中の個人情報・機密情報を検出し、マスキング(墨消し)を施すツールですが、マスキング対象となるデータそのものが、個人情報や営業秘密を含む文書です。つまり、処理したいデータこそが、外部送信できないデータでした。
クラウドAPI版のプロトタイプも試作しましたが、情報管理の観点から社内利用の承認が得られる見込みがなく、オフライン版に設計を切り替えました。結果として、正規表現(電話番号・口座番号等の定型パターン検出)とローカルNLP(人名・組織名の固有表現抽出)を組み合わせたハイブリッド方式に落ち着いています。
このツールが社内の情報セキュリティ審査を通過した際、最も効果的だった説明は「このツールは外部との通信を一切行いません。電卓と同じです」という一言でした。クラウドAIであれば利用規約の精査、委託先の監督体制、オプトアウト設定の確認──多くの論点が発生しますが、オフラインツールではこれらが構造的に不要になります。セキュリティチェックシートの「外部通信の有無」欄に「なし」と記入できることの破壊力は、想像以上に大きいものでした。
2第2段階:精度より先に、再現性と説明可能性が必要だと気づいた
次に開発したLegal Gateway(契約審査支援ツール)では、契約審査の業務導線全体──ヒアリング→リスクスコア→論点整理→交渉カード→稟議書一枚化──を支援する設計にしました。
開発を進める中で気づいたのは、法務にとって重要なのは「なんとなく当たる」精度ではなく、「なぜそう出たか」の説明可能性だということです。AIが「リスク高」と判定した理由が説明できなければ、事業部への説明も、上長への報告も、監査への対応もできません。自作ツールであれば、処理ロジック・判断根拠・適用ルールのすべてを自社で把握でき、「ブラックボックスではない」と説明できます(AIレビューの品質改善については「Claudeで契約書チェックしたら見落としが95%減った話」も参考になります)。
3第3段階:モデルの賢さより、配布・更新・統制がボトルネックだった
法務ツールの開発で最も時間を費やしたのは、AIモデルの選定ではなく、「現場にどう届け、どう更新し、どう統制するか」でした。
CLIで動くプロトタイプは早期に完成しますが、法務部内の他のメンバーがコマンドラインを使えるとは限りません。そこで、Python + tkinterでGUIを構築し、PyInstallerでexe化して配布する形態に移行しました。ダブルクリックで起動し、「入力→確認→出力」の3ステップで完結するUI設計にしたことで、初回説明15分で運用が開始できる状態になっています。
設定ファイル(YAML/JSON)の外部化により、法改正や社内規程変更への対応も、ファイルの差し替えと承認で完結します。コードの修正は不要です。
「オフラインAIで実際にどう処理を分担するか」
重要なのは、「全部をローカルLLMでやる」のではなく、処理の性質に応じてルール・NLP・LLM・人間を分業させる設計です。
| 処理対象 | 最適な手法 | 理由 |
|---|---|---|
| 電話番号・口座番号・メールアドレス | 正規表現(ルールベース) | 形式が定型。AIより正確かつ高速 |
| 人名・住所・組織名 | ローカルNLP(GiNZA等) | 表記揺れに対応。辞書マッチだけでは限界 |
| 契約類型の判定・論点整理 | ルール+ローカルLLM | 文脈依存の判断。小型モデルでも十分 |
| 要約草案の生成 | ローカルLLM(量子化済み小型モデル) | CPUでも動作可能なモデルを選定 |
| 最終判断 | 人間確定 | 法務としての判断責任は人間が負う |
この分業設計は、第1回のSTEP 4(中核ロジックの選定)とSTEP 5(誤検出・見逃し・ハルシネーション対応)をそのまま実装に落としたものです。「AIを使いすぎない」こと──つまり、前段のルールベースで8割を処理し、AIには文脈依存の判断だけを担当させる「賢い手抜き」が、法務ツールのオフライン設計では極めて効果的です。
なお、高性能なクラウドLLMが不要になるわけではありません。タスクの切り分け(オーケストレーション)がポイントです。公開情報に基づく一般論の整理や、契約類型ごとのリスクの傾向分析といった「外部送信OK」な作業はクラウドLLMに任せ、個別契約の条項抽出や自社ルールとの照合といった「外部送信NG」な作業はローカルに閉じる──この使い分けにより、ローカルモデルの性能不足という弱点はかなり限定的なものになります。
4第4段階:結局、法務ツールは「統制されたミニシステム」だった
マスキングツール、Legal Gateway、稟議一枚化ツール、論点アラートツール、引継ぎ支援ツール──これらを開発してきた結論として言えるのは、法務ツール開発は「AI導入」ではなく「統制可能な業務システム設計」だということです。
ログ、設定ファイル、版管理、承認フロー、差分記録──必要な仕組みは、AIモデルの選定よりもむしろ運用設計の側にあります。オフラインAIは、この運用設計と最も相性が良い技術選択だったのです。
オフラインAIの弱点と、それでも採る理由
公平を期して、オフラインAIの弱点も明示します。
| 弱点 | 具体的な影響 | 法務現場での対処 |
|---|---|---|
| モデル性能の限界 | ローカル実行可能なモデルは、クラウドの最新大規模モデルに比べ精度が劣る場面がある | ルールベースとの組み合わせで補完。精度が必要な判断は人間が確定 |
| 開発・保守の工数 | 自作である以上、開発と保守の負担がかかる | 設定ファイルの外部化で保守負担を軽減。CLI→GUI段階移行で開発効率化 |
| 配布・更新の手間 | exe配布はバージョン管理が煩雑になりがち | 社内ファイルサーバーにexe+READMEを配置。更新はファイル差し替え |
| 低スペックPCへの対応 | 法務部員のPCは必ずしも高スペックではない | 軽量モデル(CPU動作可能な量子化モデル)の選定。重い処理はルールベースに寄せる |
これらの弱点を認識したうえで、それでも法務の現場ではオフラインAIが成立する理由は明快です。法務が求めているのは「最も賢いAI」ではなく、「統制可能で、説明可能で、監査に耐えるAI」だからです。
NPU搭載PCの普及が「今こそ本命」の根拠を強化する
2025年以降、NPU(Neural Processing Unit)を搭載したビジネスPC(いわゆる「AI PC」)の出荷が本格化しています。かつてはローカルでのLLM実行に高価なGPUが必要でしたが、NPUの標準搭載により、一般的な事務用PCでも量子化された小型モデルが実用的な速度で動作する環境が整いつつあります。「法務が開発するならSaaSを待て」がかつての正解でしたが、自社専用の推論処理をローカルに閉じ込めるコストは劇的に下がっています。オフラインAIは、もはや一部のギークな法務の趣味ではなく、データ主権を守るための標準的な選択肢になりつつあるのです。
まとめ:法務のAI導入は「精度競争」ではなく「統制可能性の設計」
本記事を通じて伝えたかったのは、以下の3点です。
第一に、外部送信NGという制約が、技術選定より先に来る。 営業秘密管理指針、個人情報保護法、NDA──法務のデータには複数の法的制約が重なっており、クラウドAIの利用が構造的に制限される場面が多い。
第二に、その制約の中で、ルール・NLP・ローカルLLM・人間確認を組み合わせてきた。 「全部をAIにやらせる」のではなく、処理の性質に応じた分業設計が、オフライン環境でも十分な実用性を生む。
第三に、結果として、法務ツール開発はAI導入ではなく、統制可能な業務システム設計になった。 ログ、設定ファイル、版管理、承認フロー──これらの運用設計こそが、法務ツールの品質を決める。
オフラインAIは「守り」の技術ではありません。法務にとっての「城門」──外から攻められず、中から自在に動ける設計基盤です。
次のステップ
本記事の設計思想を実装に落とした具体例として、以下のツールを無料で公開中です。いずれも完全オフライン動作・ログ保存・設定外部化を前提に設計しています。
オフラインAI設計と併用する──AIプロンプトで「外部送信OK」な業務を加速する
本記事で解説したオフライン設計は「外部送信NGのデータ」に対する解です。一方、法令調査や一般的なレビュー方針の検討など、外部送信が許容される業務では、クラウドAIの活用が合理的です。以下のプロンプト集は、そうした場面で法務実務を加速させるために設計されています。
自社で扱っている契約書・稟議書・審査メモの中で、「外部AIに送信できるもの」と「できないもの」を1つずつリストアップしてみてください。第1回記事のSTEP 2「入力データ台帳」に、「外部送信の可否」列を追加するだけで、オフライン設計の要否が見えてきます。
次回予告:「法務ツールの実装入門──Python × exe化で『配れるツール』を作る」
第3回では、Python + tkinterによるGUI開発、PyInstallerでのexe化、正規表現とNLPの具体的な組み合わせ方、設定ファイルの設計パターンなど、法務担当者がゼロからツールを作るための実装ガイドを公開します。
🔍 関連ガイドへ進む
この記事と関連度の高い実務ガイドをまとめています。次に読むならこちら。
