こんにちは。
「最近、社内で生成AIを“とりあえず使ってる”話、よく聞くようになったなぁ」
そんなふうに感じている法務の方、多いのではないでしょうか?
ChatGPTに議事録をまとめさせたり、Claudeで契約条項の草案を出してみたり、エンジニアがコード生成に使っていたり。
“便利”の波はすでに現場に押し寄せていて、ルールよりも現実が先に動き出しているのが、2025年の今です。
「とはいえ、法制度って変わったんだっけ?」
「リスクあるのに、止めろとは言えないし…」
そんな“いま”のモヤモヤに応えるべく、今回は制度のアップデートをざっくり整理しつつ、法務部門として今やっておきたいことをまとめました。
📌 いま制度はどうなってるの?
✅ 個人情報保護法は…検討中(=まだ変わってません)
- 3年ごとの見直しで、2025年も改正が検討されていましたが…
- 現時点(6月)では法案提出は見送り
- 少なくとも当面は現行ルールで運用される見込みです
とはいえ、「柔軟な同意ルール」や「課徴金制度」など、法改正の“素案”は出てきているので、静かに地殻変動は起きている、という認識が大事です。
✅ AI新法は…6月に成立済み(ただし“使ってOK”の促進法)
正式名称は「人工知能関連技術の研究開発及び活用の推進に関する法律」。
- AIの研究開発と社会実装を後押しする法律で、禁止や罰則はナシ
- 国の施策に“協力するよう努めましょう”という努力義務ベース
- ガイドラインや倫理指針との連携が今後の焦点に
つまり、制度としては「AI使っていこうぜ」ムードが加速しているということです。
🤖 法務部として、制度より先に現実を見よう
さて、ここからが本題です。
法律がどうなるかも大事ですが、もっと大事なのは「現場はすでに使ってる」という現実。
法務部門として、今できるのは「使わせない」ことではなく、“どう使うか”のルールを整理することです。
✅ 今やっておくと後がラクになるチェックリスト
🧭 社内のAI利用実態を把握する
「そもそも、誰がどこで何を使ってるのか分からない」
あるあるです。でも放置すると、見えないリスク=一番こわいリスクに。
まずは簡単なヒアリングやフォームでOK。
「使ってる人」に罪はないので、責めないトーンで把握するのがコツです。
📑 ガイドラインの見直し(禁止より“整理”)
「ChatGPT使うの禁止」では回りません。
現実的には、以下のようなポイントを明文化するのが◎。
- 入力してはいけない情報(例:個人情報、社外秘、契約データなど)
- 利用目的(社内資料の叩き台作成まで/顧客対応には使わない等)
- 利用時の注意(出力結果の検証、責任は誰が持つ?)
形式より“実態に合ってるか”が勝負です。
📬 インシデント対応フローの再点検
「AIでうっかり漏えいしたらどうする?」
生成AIに入力した内容が学習に使われた/誤情報をそのまま使ってしまった、など“AIならでは”の事故パターンも想定しておくと安心です。
- 通常の漏えい対応フローに“AI経由”のパターンを追加
- 事業部から相談が来たときの一次窓口を明確化
- ヒヤリ・ハットも含めて共有できる仕組みづくり
📎 契約書のAI対応
「開発会社が勝手にAI使ってた…」
→ これ、これから絶対出てくるやつです。
- NDAや業務委託契約書に「生成AI利用の制限」や「再同意義務」などを検討
- ベンダー・外注先にも、“AI使うなら言ってね”のメッセージが必要
📊 まとめ:制度を待つのではなく、法務から前に出る
2025年、制度の動きは「柔軟化」「促進」がキーワードです。
でも、法務として求められるのは、“柔軟に使っても安全な仕組み”を作ること。
- 制度はまだ改正されていなくても、現場は動いている
- ガイドラインも契約書も、先手を打った方があとがラク
- 法務が止め役から推進役に回ることが、信頼にもつながる
※この記事は2025年6月時点の情報に基づいています。最新情報は各省庁の公式サイトをご確認ください。