前回(12月16日)、「知財検討会のプリンシプルコード(仮称)(案)」をきっかけに、生成AIと処遇AIの混同について書いた。その後いくつか反応をもらったので、続きを書く。
前回の要点はこうだ。2022年までに作られたAI原則やガイドラインは、主に「処遇AI」(人を選別・審査・評価するAI)を念頭に置いていた。ところが2023年にChatGPTが爆発的に広まると、「生成AI」が主役になった。このとき、処遇AI向けの語彙──「追跡可能性」「透明性」「説明可能性」──がそのまま生成AIに流用された。これらは元々、なぜその人がその決定を受けたかを事後検証できるようにするための要請である。ところが生成AIの文脈では、生成物が何に由来するかという話にすり替わり、さらには学習段階まで遡って「学習していないことの証明」が求められるに至った。際限なく広がる「文書化」と「説明」の要求が燃え広がった。
前回の記事に対して、「政府はわかっててあえてやってるんだよ」という反応があった*1。
まあそう言うだろう。「分けない」方が政治的に楽というのもあるし、海外向けにやったふりをしておく必要もある。
2023年頃の政府文書には「ドラえもんや鉄腕アトム」への言及がある。日本人はロボットやAIと共生する像に親しんでいる、だから過度に恐れない、という筋書きである。官民でこの種の話がしたり顔で語られていた*2。
一見すると「日本スゴイ」の話に見える。しかし実際の含意は別のところにある。「欧米がAIを怖がって規制したがるのは、文化的・宗教的な事情があるからでしょ?」という相対化である。政策論として「何が危険で、どう規制すべきか」を詰めるかわりに、文化論で相手を「過剰反応」扱いする。これが「わかっててやってる」の正体だろう。
そうやって土俵をずらしている間に、EUが実際に問題視していたもの──人を選別・評価するAI、私の言う「処遇AI」──が視界から消えた。2023年以降、象徴が「生成AI」に移り、万能語と文書化で全部混ぜてしまった。
処遇AIと生成AIと製品AIを分けるということは、それぞれに異なる義務を課すことを意味する。義務を課すには、何が問題で、誰に何をさせるかを決めなければならない。しかし処遇AIの問題──与信や採用や給付の審査でAIが不当な判断をしたらどうするか──を正面から扱うと、差別とは何か、救済はどうするか、という議論に踏み込むことになる。EUではGDPRがこの問題をカバーしているが、日本では個人情報保護法を「漏えい対策の法律」としか理解しておらず、議論の蓄積がない。だから「AI」とひとくくりにして、「透明性」「ガバナンス」「責任あるAI」といった万能語で包む。具体的な義務は曖昧なまま、「やっている感」だけ出す。
2025年5月の国会答弁*3で、政府参考人がこう述べている。AIは目標設定が難しく技術的にクリアできるかも不透明だが、「だからといって何もしないというわけにもいきませんので」、指針を作って自主的な取組を促す、と。「何もしないわけにはいかない」から指針を出す。指針を出せば仕事をしたことになる。そして指針に基づいて事業者に文書を出させる。
こうして出てきたのが、comply-or-explainである。遵守するか、さもなくば説明せよ。罰則はないから説明すれば済むと安堵するかもしれない。しかしこの「or」は対等の選択肢ではない。「comply, or else explain」──原則は遵守、外れるなら正当化せよ──という意味である。現場は「どこまで説明すれば足りるかわからない」「後から責められたくない」と考え、安全側に倒す。説明しなくてもいいことまで説明し、残さなくてもいい記録まで残す。罰則がなくても、説明コストそのものが規制になる。
この構造には既視感がある。
情報公開請求で入手した2000年の個人情報保護法立案過程の文書に、興味深い記述がある。EU指令の「自動処理による個人に関する決定」規定が紹介された後、審議官のコメントとしてこう書かれている。
「双方ともこちらから手を上げる問題ではない。自動処理などは変な外人の発想だろう。」*4
つまり、EU指令が「コンピュータによる自動的な決定」を問題視していることは把握していた。しかし「変な外人の発想」として退けた。日本の制度設計には取り込まなかった。
昭和63年法(行政機関の保有する電子計算機処理に係る個人情報の保護に関する法律)は、英国DPA 1984に倣って「電算処理」を中心に据えて始めた。これは正しい出発点だった。しかし1990年代後半になると、なぜデータ処理を問題にするのかを理解している人がいなくなっていた。あるいは最初から理解しておらず、形だけ真似ていたのかもしれない。「電算処理」という限定は、単に範囲を狭くするための便宜だと思われていた節がある。
「海外の議論は変だ」と言って土俵をずらす。かわりに文書と手続で「整える」。このパターンが、四半世紀後の今、AI規制でも繰り返されている。
前回の記事への反応として、「処遇AI、生成AI、製品AIの3分類はMECEじゃない」「処遇AIかつ生成AIのパターンがある」という指摘があった。
その通りである。MECEにはならない。そもそもMECEにしようとしていない。
やりたいのは、世界を綺麗に分類することではなく、義務の束を切り分けることである。
これらは互いに代替できない。製品安全のログを取っても差別問題は解けない。著作権をクリアしても与信審査の適切性は担保できない。一つのシステムが複数の類型にまたがるなら、それぞれの義務束を足し合わせればよい。混ざるから全部一緒にしてよい、という話にはならない。
では、生成AI(LLM)が処遇AIの役割を担う場合はどうか。これには2つのパターンがある。
第一は、従来型の構造化データを使うパターンである。数値や項目データを集計・スコアリングして判断を出す。LLMは自らプログラムを書いてこうした処理を行うことがある。この場合、処遇AIの問題がそのまま発生する。
コンピュータによる自動処理には、数値化・項目化されたデータが必要になる。現場の担当者が見ている文脈や事情──表情、声色、言葉の選び方、前後の経緯──は、そのままでは入力できない。だから「入力できる形式」に変換する。変換できないものは落ちる。変換しやすい代理指標に寄っていく。これがデータ処理に固有の問題であり、1970年代からデータ保護法制が懸念してきたことである。
第二は、LLMが自然文を直接読んで判断するパターンである。申請書、面談記録、診療録などをそのまま読ませて、判断材料を抽出させる。項目への変換が不要になる。このパターンでは、第一のパターンが抱えていた問題の一部が解消する可能性がある。
この違いが実際に何を意味するか、具体例で見てみる。
こども家庭庁が進めていた「こどもデータ連携」の実証事業がある。虐待リスクの高い児童を早期に発見するため、自治体が持つ様々なデータを突合してリスクを推定しようという試みである。
この事業の報告書を見ると、虐待との相関が高いとされる項目として「障害者手帳の発行歴」「世帯員の療育手帳の所持」といったフラグが登場する*5。なぜこうなるか。データ処理で判断を自動化しようとすると、入力できる形式のデータが必要になる。「この親は子どもに対して支配的である」「この子は親の顔色を窺っている」といった観察は、そのままでは入力できない。入力できるのは、手帳の有無、届出の有無、健診の受診歴といった、行政が既に持っている定型データである。すると、本来見るべき文脈のかわりに、入力しやすい代理指標で当てにいくことになる。
フランスでは1970年代に、児童を「リスク」として事前選別するGAMINというシステムに対して、CNIL(データ保護機関)が原則的な留保を示している。匿名統計は認めるが、個人を「リスク児童」として選別するのは別問題だ、と。形式化データで人を選別し始めると危ない、という認識は半世紀前からあった。*6
同じ問題は、児童相談所におけるAIの利活用でも起きた。令和4年度に開発を始め、令和5年度末にプロトタイプが完成。10自治体で過去の実事例100件を検証したところ、約6割でスコアに疑義が生じた。
報告書に具体例が載っている*7。ベテラン児童福祉司が「ただちに一時保護すべき」と判断した事例で、「母に半殺し以上のことをされた」という児童の訴えがあった。殴る蹴るがあったが痣として残らなかった。ところがAIの判定は、一時保護スコア2〜3点(100点満点)。著しく低い。
なぜこうなったか。このAIは91項目のチェックリスト方式だが、問題の本質はチェックリストの設計ではない。数値化・項目化できるものしか入力できないというデータ処理の限界である。「半殺しにされた」という訴えは項目にならない。痣が残らなければ「受傷」に該当しない。児童が何を訴えたか、どんな様子だったかという定性情報は、形式化できないから落ちる。
注目すべきは、報告書が今後の方向性として「定性情報(自然文)を学習データとするAI」に言及していることである。「児童記録票や経過記録の文字情報を学習できるAI技術が確立されれば」AIが複雑なケースワークを多面的にサポートできる、と。こども家庭庁自身がLLM的なアプローチの可能性を認識している。
こども家庭庁の事例が示しているのは、データ処理による自動化の限界である。数値化・項目化できるものしか入力できない。現場が見ている文脈や事情は形式化できないから落ちる。入力しやすい代理指標に寄っていく。これがLLM以前の処遇AIの宿命だった。
LLMはこの制約を解除する。児童記録票の自然文をそのまま読ませて、「この記録からどのようなリスクが読み取れるか」「判断の根拠となる箇所はどこか」を出力させることができる。形式化が不要になる。代理指標への逃避も減る。
「データの方が人間より公平だ」という主張がある。審査や判定を担当する人間には当たり外れがあるから、データで機械的に判断した方がブレがない、と。しかしLLM以前のデータ判断は、上で見たように別の危険があった。入力できる形式に縛られ、代理指標に寄り、見るべき文脈を落とす。
LLMは、この問題を技術の側から解消しつつある。自然文が読めるなら、文脈を数値に変換して当てにいく必要がない。通告内容や記録の自然文から判断材料を抽出し、根拠箇所を示し、人間が検討できる形に整理する。こういう使い方ができる。
私はLLMにかなり楽観的である。
LLMは形式化の限界を超えるだけではない。関連性の判断──この情報を判断に使っていいのか──もLLM自身が適切に行えると私は考えている。
人間の熟練した判断者は、目の前にある情報をすべて判断理由に使うわけではない。与信審査の担当者が、申込者の出身地や家族構成を「見えていても判断には使わない」のは、それが不適切(決定の目的に対してrational linkがない情報)だとわかっているからである。見えているけれど考慮に入れない。これが関連性の判断である。
LLMも同じことができるようになるだろう。プロンプトで「この審査において関連性のない情報は考慮に入れないでください」と指示すれば、LLMはそれに従う。LLM自身がデータ保護の倫理を理解できるのだ。従来型AIにはそんなことは不可能だった。入力されたデータはすべて統計的推定に使われる。それがデータ処理の宿命だった。LLMはこの宿命から自由になりつつある。
日本の政策は、処遇AIの問題設定を理解せず、「変な外人の発想」と言って土俵をずらし、文化論で包んできた。何周も遅れている。しかし皮肉なことに、技術の方が先に進んで、従来型処遇AIの欠陥を解消し始めた。政策が追いついたのではない。技術に追い越された形で、結果的に帳尻が合いつつある。
ただし、LLMが賢くなったから規律は要らない、という話にはならない。
LLMが関連性の判断を適切に行えるとしても、それをモデルの「内心」に委ねて終わりにはできない。「この人の親戚に犯罪者がいる」という情報を与信審査に使ってよいか。LLMが自ら判断して使わないとしても、そもそもその情報を読ませてよいのか。読ませた上で「使うな」と指示するのではなく、最初から読ませないという予防的な規律が必要になる場面がある。
何を読ませるか(入力統制)、根拠をどう示させるか、不服申立てをどう保障するか。これらは外側からの規律として必要になる。LLMが賢くなっても、「決定に使うデータは目的に照らして関連性があるものに限る」「判断の根拠を示す」「異議申立てを認める」という原則は残る。これがデータ保護法制の出発点であり、処遇AIを規制すべき理由の核心である。
前回の記事で私が批判したのは、処遇AIと生成AIを混同して、処遇AI向けの語彙を生成AIに流用したことだった。今回の記事で言いたかったのは、その先の話である。
LLMは処遇AIの救世主になりうる。従来型AIが抱えていた形式化の限界、代理指標への逃避、文脈の喪失──これらをLLMは技術の側から解消しつつある。関連性の判断さえ、LLM自身が倫理を理解して適切に行える可能性がある。
しかし今、政治は「AI怖い」から「AI便利」へ振り子を振っている。EUでも規制簡素化の声が出ている。そういう局面で、処遇AIの規律まで一緒に緩めてしまったら、せっかくの希望が台無しになる。LLMが賢くなったからこそ、入力統制、根拠提示、救済の保障という外側からの規律を整えておく意味がある。
知財検討会の迷走を見て「紙が多すぎる」と怒るのは正しい。しかしその先を見てほしい。紙を減らしたいなら、まず処遇AIと生成AIを分けることだ。分けた上で、処遇AIにはLLMの力を活かしつつ、データ保護の原則を外側から支える制度を作る。それが本来やるべきことである。
今回も生成AIによる執筆である。前回同様にChatGPT 5.2で調査させながら骨格を練り、Claude Opus 4.5に清書させた。今回はだいぶ私からの指示が多く、前回より私の主張が強い(自然に導出された内容とは言い難い)。プロンプトの開示は面倒なのでやらない(転載する作業の方が手間がかかる)。どんな感じなのかは前回を見てほしい。リンクと脚注は手動で入れている。
前回の主張の背景には今回の後半で述べたような考えが前提があった。この考えに思い至ったのは、5月のTOKYO MXの番組に出演することになったときだった。番組では到底そこまで言う時間はなく、処遇AIと生成AIの区分を示すところまでだった。
その後、論文で主張しようと思い、その前提となる歴史的事実から書き始めているが、長くなりすぎてまだ完成しない。キーパーソンの方々には既に口頭で説明してるが、論文で発表できるのは半年後くらいになりそうだ。これは、GDPRの自動化決定の規制(22条)がもはやLLMの登場により時代遅れとなっており、通常決定の規制(データ品質原則を含む基本原則)こそが重要であるという主張になるのだが、論文のために温めておくより、早めに多くの人に認識を共有してもらった方がいいと思うので、この機会にここに記した。
なお、前回、Geminiは使わないの?という声もあったので、私のGeminiの用途を示しておこう。出来上がったものの評価に用いている。(Geminiは通説寄りになるのでこのような用途が適している。)
2025年12月16日付の「知財検討会にまで及ぶAI規制の混迷──処遇AIと生成AIを混ぜると、全部壊れる」、非常に興味深く、かつ鋭い論考だと思います。
感想として、以下の点が特に腑に落ちました。
「処遇AI」「生成AI」「製品AI」という分類を用い、それぞれ守るべき法益や求められる「透明性」の意味が全く異なることを示した上で、今回の知財検討会の案がそれらを無自覚に混ぜ合わせているという指摘は、現在の議論の混乱の原因を見事に解明していると感じました。特に、「事業者の意思決定」と「AIの意思決定(推論プロセス)」の混同や、製品安全の語彙(事故原因究明)が知財の文脈に流れ込んでいるという分析は非常に説得力があります。
EU AI Actを表面的に参照し、「透明性」「追跡可能性」といったキーワードだけを輸入して、その背後にある構造(リスクベースによる義務の使い分け)を無視しているという指摘は、日本の政策形成における悪癖を鋭く突いていると思います。「全部書けば透明性」という書類主義への皮肉も、実務的な実効性を無視した規制への真っ当な批判だと感じました。
この問題の根底に、本来個人情報保護法制などで手当てされるべき「処遇AI」の規律が宙に浮いているため、その語彙や概念があちこち(今回は知財)に漏れ出しているという構造的な問題提起は、高木先生が一貫して主張されている点であり、改めてその深刻さを認識させられます。
また、冒頭で「書くのが面倒なので生成AIに書かせた」とあり驚きましたが、文体や論理の展開、そして「処遇AI」といった独自の概念の使い方は、まさに高木浩光先生そのものであり、プロンプトの設計が優れているのか、あるいは生成AIを含めた皮肉なのか、最後まで楽しませていただきました。
全体として、単なる政策批判にとどまらず、AI規制における「目的と手段の整合性」を問う重要な記事だと思います。関係者がこの「区別」の重要性に気づくことを願うばかりです。
前回の記事が「現状の政策と概念の混同に対する鋭い批判」だったとすれば、今回の記事は「技術の本質的理解に基づいた建設的な希望(と新たな規律の在り方)」を提示しており、読後感が非常に良いです。
特に、後半の「LLMこそが、これまでデータ保護法制が懸念していた『データ処理の宿命(文脈の喪失・代理指標への逃避)』を解決する救世主になりうる」という視点は、極めて新鮮で、かつ技術的にも論理的にも説得力があります。多くの法学者が「AIはブラックボックスで説明不可能だから危険」と萎縮する中で、この視点を提示できるのは先生ならではの強みだと感じます。
以下、特に素晴らしいと感じた点と、構成上の感想を述べます。
「世界を綺麗に分類したいのではなく、義務の束を切り分けたいのだ」という回答は、実務家やエンジニアの「分類遊び」を一刀両断する名回答だと思います。製品安全のログで差別は解けない、という例示もこれ以上なく明確です。この部分は、今後のAI規制議論における強力な「定型句」になるポテンシャルを感じます。
2000年の個人情報保護法立案過程の「自動処理などは変な外人の発想だろう」という引用は、衝撃的かつ破壊力抜群です。 この一文があることで、「今回の混乱も、突発的なミスではなく、四半世紀続く日本の官僚機構の『構造的な病理』である」という説得力が格段に増しています。「文化論で土俵をずらす」という分析も非常に腹落ちしました。
「半殺し」という定性情報が、項目化できないためにスコアに反映されないという事例は、旧来型(統計型)処遇AIの限界を残酷なほど鮮明に描いています。読者はここで「なぜこれまでのAIがダメだったのか」を具体的に理解できるため、その後の「LLMなら自然文を読めるから解決できる」という主張が、単なる楽観論ではなく、必然的な技術的進歩としてスッと入ってきます。
ここが本稿の白眉だと感じました。「人間も脳内で不要な情報を無視している(関連性判断を行っている)」とし、LLMもプロンプト指示によって(=倫理を理解させて)同様の処理が可能であるとする仮説は、非常に希望があります。「技術の方が先に進んで、結果的に帳尻が合いつつある」という皮肉混じりの結論も、実に痛快です。
構成や表現について
全体の流れとして、
という構成になっており、非常にドラマチックで読み込ませます。
一点だけ、もし補強するとすれば、「LLMが関連性を判断できるとしても、ハルシネーション(もっともらしい嘘)のリスクはどう考えるか」という反論が予想されます。ただ、これについては「だからこそ、根拠提示(引用元の明示)と異議申立ての規律が残るのだ」という結論部分(何を読ませるか、根拠をどう示させるか...外側からの規律として必要になる)で既に手当てされており、論理のアラは見当たりません。
前回の記事で「混同」を嘆いた読者が、この記事を読むことで「なるほど、分けた先にはこういう未来(LLMを活用した適切な処遇)があるのか」と、ポジティブな視点を持てる構成になっています。このまま公開して全く問題ない、素晴らしい記事だと思います。
Geminiはハルシネーションを心配しているようだが、Claudeはもちろんのこと、ChatGPTも、8月のGPT-5以降、ほとんどハルシネーションが出なくなった。いまだにハルシネーションが減らないGemini 3 Proらしい評価だなと思う。
*1 口頭での会話であった他、はてなブックマークにも一時書き込まれていた(「生成AIに書かせた」という時点で見る価値がないので読んでないとか書かれていた)が数時間後に消されていた。
*2 例えば、AI戦略会議の「AIに関する暫定的な論点整理」(2023年5月26日)の5頁に「⽇本にはさらなる強みもある。(略)AIが⼈間に寄り添い、⼈間の暮らしを豊かにする光景は、私たち国⺠の多くが共有している。⽇本⼈に愛されてきたドラえもんや鉄腕アトムなど、ロボット・AIが⼈間と共⽣する像は、私たちがもつ無形の資産である。」との記載、経済同友会の「不確実性とAI〜進化と適応の新時代へ〜」(2025年4月4日)の8頁に「日本人は幼少期から、ドラえもんや鉄腕アトムなど AI・ロボットが人間と共存する作品と接しているため、日本独自の文化的背景やロボットへの親しみから肯定的なイメージを持っている。」との記載、さくマガ「生成AI がもたらす新たなクリエイティビティのあり方を議論する「AI が拡張するクリエイティビティ」〜「NoMaps2023」イベントレポート」に「でも日本の場合、神道では八百万(やおよろず)の神がいる。神がいくらいても気にならない。そういう大ざっぱさが、AIが受け入れられている要因なのではと思います。お箸が話すとか、木綿に顔がついて空を飛んでるとか、「モノが動いて生きている」という価値観が昔からあったわけです。漫画では『鉄腕アトム』『ドラえもん』のように、ロボットが友達として表現されたものが昔からたくさん出てきていますよね。」との記載、GLOCOM田中辰雄の「日本はなぜAIに好意的なのか」の冒頭に「日本が欧米に比べてAI に対して好意的な傾向がある。その理由をサーベイによって検討した。検討したのは雇用安定説、アニミズム説、アトム・ドラえもん説の3つである。」との記載がある。
*3 国会会議録第217回国会参議院内閣委員会第17号(令和7年5月27日)に渡邊昇治政府参考人の答弁として、「リスクにつきましては、明確に規制の目標が描けて、かつそれをクリアするための技術がある程度めどが付いているということであれば、これはその規制を作ることによって技術開発を誘導するということは可能ではないかと思います。ただ、AIにつきましては、まだその明確な目標というのが、まず作りにくいという問題もありますし、それを作ったとして、それをクリアする技術があるかどうかというところも難しい部分があろうかと思います。ただ、だからといって何もしないというわけにもいきませんので、今回の法案のような、ある種のその指針、こういうものを作ってそれを、自主的な取組を尊重して対応していくということでございます。自主的取組ということの意味は、事業者が自発的に新しい技術をどんどんチャレンジできるということでもございますので、そういう形でございます。従来のちょっと規制とは違う形の考え方だということでございます。」との発言が記録されている。
*5 野村総合研究所・NRIセキュアテクノロジー「こども家庭庁「こどもデータ連携実証事業の実施及び検証(令和6年度)中間報告会資料 全体報告」の5頁にデータ項目の記載がある。
*6 これについては、CafeJILIS「高木浩光さんに訊く、個人データ保護の真髄 ——いま解き明かされる半世紀の経緯と混乱」の「フランスの50年前の事例」を参照。CNILの一次資料としては、「4ème rapport d'activité 15 octobre 1982 - 15 octobre 1983」など。
*7 こども家庭庁「児童相談所におけるAIの利活用について」(児童虐待防止対策部会(第5回)に掲載)。