生成AIの進化によって、
「弁護士はどこまで代替されるのか」という問いを耳にすることが増えました。
しかし、より重要なのは、
「弁護士に何を求めるべきか」という問いです。
生成AIは、過去の膨大な言語データをもとに、
文脈上もっとも自然に続く言葉を提示することはできます。
けれども、不確実な状況の中でリスクを引き受け、
最終的な判断を下すことはできません。
この記事では、技術が進む時代だからこそ、
弁護士という存在に期待される役割を、
「判断」と「責任」の観点から整理していきます。
弁護士は、何をしてくれる存在なのか
―― 生成AI時代に求められる「判断」と責任 ――
生成AIの進化によって、「社会は一変する」「専門職は不要になる」といった言説が、日常的に語られるようになった。法律分野も例外ではなく、「弁護士の仕事はどこまでAIに代替されるのか」という問いを目にする機会は増えている。
だが、より本質的な問いは、別のところにあるように思われる。
それは、「弁護士をどう選ぶか」ではなく、「弁護士に何を求めるべきか」という問いである。
生成AIは、人間のように状況を理解し、熟考の末に結論を出しているわけではない。過去の膨大な言語データをもとに、文脈上「次にもっとも自然に続く言葉」を選び、積み重ねているにすぎない。文章が滑らかで説得力を帯びて見えるため、私たちはそこに判断や洞察を読み込みがちになるが、それはAIが考えているからではなく、人間が意味を与えているからである。
この性質は、情報整理や選択肢の提示といった場面では、大きな力を発揮する。一方で、未来予測や意思決定の領域では、注意が必要になる。技術が一定の水準に達すれば、社会が一気に変わる――そうした物語は分かりやすく、希望を抱かせる。しかし現実の社会は、そこまで単純ではない。
新しい技術は、必ず摩擦を生む。事故が起き、責任の所在が問われ、紛争が生じる。制度やルールが追いつかず、立ち止まる局面も現れる。そこで問題になるのは、「できるかどうか」ではなく、「誰が責任を負うのか」「その判断を誰が引き受けるのか」である。
法の世界では、この点が特に顕著だ。自動運転、医療AI、生成コンテンツの著作権、フェイク情報――技術的には前進していても、社会実装は段階的で、限定的であり、ときに後退すらする。その「遅さ」は非効率に見えるかもしれないが、同時に、人間社会が判断を引き受けてきた証でもある。
弁護士の役割も、ここにある。
法的な選択肢を示すこと自体は、将来、AIがかなりの部分を担うかもしれない。しかし、不確実な状況の中で、どのリスクを引き受け、どこで線を引き、どの判断を採用するのか。その結果について説明責任を負い、紛争の当事者として向き合うことは、データや言葉の連なりでは代替できない。
だからこそ、生成AIが普及する時代において、弁護士に求められるのは「正解を出すこと」ではない。むしろ、複数の不完全な選択肢の中から、どの判断を引き受けるのかを、依頼者とともに考え、責任の所在を明確にすることである。
技術の進歩を否定する必要はない。生成AIは、社会を便利にし、多くの負担を軽減するだろう。しかし、技術が示すのは、あくまで整理された言葉や可能性の一覧であって、社会の選択そのものではない。
技術は進む。
だが、社会を動かすのは、いまも人間である。
そして、弁護士とは、その「人間の判断」が問われる場面に立ち会い続ける存在である。






