■ AI法案の国会審議で担当大臣が「我が国においても個人情報保護法等により規制されており」と答弁してしまう
3月6日の日記「日本のAI法制:概念的基盤と実効性の課題 インフォグラフィック」が目にとまったようで、TOKYO MXの番組「田村淳のキキタイ!」からお呼びがかかり、5月10日の生放送に出演してきた。見逃し配信が明日17時まで以下で視聴できる。番組の構成上、冒頭の気になったニュースにコメントしなくてはならなかったが、それはともかく、本題は10:12から始まる。
話の流れはこう展開した。
- 日本がAIの活用で遅れている原因、何がリスクなのか明確にされていないので、過剰に心配しているのではないか。
- EUはちゃんと何が危険かを見定め、これはやっちゃダメという具体的なルールを挙げてきているが、日本は採用していない。何を日本がリスクとして見ているかというと、「犯罪に悪用されたり、個人情報が漏洩したり」と書いてあって、全くわかっていない。
- マスコミは「罰則もないのに意味あるのか」という報道の論調だったが、そもそも何が悪いかわかんないから罰則なんて作れない。
- AIの脅威には既存法で対処するとされており、その点は概ねその通りで、生成AIの脅威が色々あるから罰則をという声がある中で、現行法で他の法令でできますよというのはその通りだ。しかし、個人情報のところ、挙げられている「具体的事例」はトンチンカンで、問題は全然そこじゃない。
- EUにはGDPRがあり、EUのAI法とGDPRの関係は、個人データに関することはGDPRですでにカバーされているところ、AI法で上乗せ規制しているという構造。日本のAI法も同じようにやるとすると、個人情報に絡むところは個人情報保護法でという同じ構造になるはずだが、VTRで指摘されているような差別や公平性の問題への対応が日本の個人情報にはない。EUと同じようには比べられなくなっており、その結果、日本のAI法は中身のないものになってしまっている。
- AI法以前に現行法がうまく機能していないということだ。日本の個人情報保護法も1980年のOECDガイドラインに基づいて作られいてるが、その意味をみんなわからないまま個情法を作ってしまったという事実が、文献の研究でわかった。
- 個情法にはいろんな誤解があると思うが、本来の目的は、関係ないデータによってコンピュータ処理されて不公平な決定をされることを問題にしていた。スタートが。EUはちゃんとそれをベースにしてGDPRまで来てて、さらにAI法になったのだが、日本は1990年代の議論を見ると、個人情報はなんか保護しないといけないようだけど何が問題なのかよくわからないから、ソフトローで、ガイドラインでやりましょうって言ってた時期がある。今言っていることと同じですよね。
- ロンブー淳「ソフトローって言えばなんかすごい柔軟な考え方っぽく映るけど、わかってねえからソフトローなんじゃん、ってことですよね!」
- 個情法は作ったものの、文書管理法みたいなものになってしまって、それが2000年から2010年ごろまでの混乱で、やっとそこが問題が指摘され始めたのが最近。
- 今、個情法の3年ごと見直しを個情委が別途やっていて、AIとの関係で根本から考え方を再検討している段階で、そこに期待しないといけない。
- 「生成AI」と「処遇するAI」の違い。50年前から欧州も米国も処遇AIを問題にしていた。実際、悪い例があった。住所でローンの判断をするとか。それでこの制度ができた。EUのAI法は2021年から欧州委員会の提案があって、その時はまだChatGPTが話題になっておらず、生成AIでこんなことになるとは思っていなかったので、処遇AIを基本的に中心にしてルールを作っていた。それがChatGPTが出てきて、EUは両方に対応することになった。日本も2017年から検討していて同じように進んでいたが、今やすっかりみんな生成AIのことばっかり考えてしまっている。
- 衆議院の審議を見ていたら、質問者が、雇用関係で人事評価が不当な評価を受けるのではないか心配していると述べていて、これは「処遇AI」の話だが、大臣答弁は「生成AIが格差差別を助長するような出力をしないこと」となっていて、生成AIのことを答えちゃっている。「差別」とか「バイアス」のキーワードはガイドラインの基準に書き込まれているものの、生成AIが変なことを言わないようにという意味になってしまっている。以前は処遇AIのことを検討していたはずなのに。
- こども家庭庁の虐待判定AIが導入見送りのニュース。同一世帯の者が障害者手帳を所持しているか否かをデータ項目に入れるという差別的データ利用を行なっていたことが問題。同居人が障害者手帳持ちであることは児童虐待と「関係ない」こと。統計的に幾らかの相関は、苦労している家庭であるなどの要因で、あるのかもしれないにしても。
- 実はフランスが50年前に全く同様のシステム作って中止になっている。母親が未婚であるというデータ項目を用いていたのは差別だ。日本は50年経った今頃同じ轍を踏んでいる。
- 国税庁がAI導入で追徴課税1398億円のニュース。どういうデータ・方法を使っているかが明らかにされていない。関連性のないデータが使われているとすれば、税務調査の対象者の選別に差別が生じている可能性。
- 個情委が監督しないといけない。そもそも欧州が独立監督機関の設置を求めてきたのは、政府から独立して政府の施策に口を挟めるようにするためだった。日本は個情委を作ったが、仏作って魂入れずの状況。
このように、3月の日記以後の新しい話として、衆議院の国会審議で「処遇AI」の質問に対して「生成AI」のことを答弁してしまう事態があったことを含めた。
また、「差別」や「バイアス」のキーワードが「ガイドラインの基準に書き込まれているものの」と指摘したところは、「AI事業者ガイドライン」のことを指しており、番組に出る前に精査したところ、これらが生成AIの出力についてしか述べられていないことを確認している。(この点については、改めてどこかで明確に指摘することとしたい。)
この放送の後、5月16日に参議院本会議でAI法案が審議入りし、代表質問に対して再び大臣答弁が同じ過ちをしているので、以下に抜粋しておく。
竹詰仁君(国民民主) (略)採用活動など人事分野のAI活用について伺います。人事分野におけるAI活用については、学習データに偏りがあるために生じる差別、学習データやそのアルゴリズムが見えないことによる公平性への疑問、またそれによる不利益などを受ける可能性、人事分野の議論が成熟しておりません。採用活動など、人事分野のAI活用について、城内大臣及び福岡厚生労働大臣に考えを伺います。
城内実国務大臣 (略)最後に人事分野のAI活用についてお尋ねがございました。雇用や人事採用選考の在り方については、AIに特化したものではないものの、厚生労働省のガイドライン等において一定の考え方が示されているところであります。これに加えて、本法案に基づき国が整備する指針の中でAI開発者が偏見や差別の含まれる情報出力を防ぐための対策を講じることについて盛り込んでいく予定としております。具体的には、AI開発者が学習データから偏見情報を除外することや、AIが差別を助長する出力をしないかどうか。市場に出す前及び出した後にも確認し、必要な修正を行うことなどを明記する方向で検討しております。
処遇AI(データ処理)の公平性(非差別)問題の原因は、「学習データに偏りがあるため」というより、学習結果を決定対象者の個人データに当て嵌める段階で、当該個人データに決定の目的に関連性のないデータ項目が含まれていることにある(1980年OECDガイドライン第2原則前段)のだが、このことが日本では理解されていない。
そして、その参議院本会議で新たに、担当大臣から驚くべき答弁が飛び出した。
杉尾秀哉君(立憲民主) (略)EUのAI法では、許容できるリスクを4段階に分け、リスクの程度に応じて規制などを行う、罰則付きのリスクベースアプローチが採用されていたり(略)EU流のリスクベースアプローチは一定の合理性を持つと考えますけれども、なぜ本法案はこうした考え方を採らなかったのか、これも城内大臣、併せてお答えください。(略)
城内実国務大臣 (略)次に本法案がリスクベースアプローチを採らなかった理由についてお尋ねがありました。ご指摘のあったEUのAI法では、AIをリスクに基づき4つのランクに分け、そのうち最上位の許容できないリスクを持つAIシステムは禁止され、また2段階目のハイリスクなAIシステムを扱う事業者には基準遵守義務が課されていると承知しております。EUで禁止される許容できないリスクを持つAIシステムについては、我が国においても個人情報保護法等により規制されております。EUが適合性評価を義務付けている重要なインフラ等に関するハイリスクなAIシステムについては(略)」
なんと!これは斬新だ。いったい個人情報保護法のどこでEU法の「許容できないリスクを持つAIシステム」が規制されているというのだろうか! いや、大臣答弁に誤りがないのであれば、個人情報保護委員会が対処しなくてはならない。現行法で無理があるなら、3年ごと見直しでカバーしなくてはいけなくなるのではあるまいか!