近年、AIの技術が急速に発達しています。AIによるイノベーションが注目される一方で、AIには個人情報の流出リスクや答えが出る過程のブラックボックス化などの課題もあります。
今回は、総務省でAIに関する海外との交渉を担当する𫝆川総務審議官に、現在のAIをめぐる国際的なルールづくりの現場や、欧米や中国と比べAI分野で日本に足りない点などをお伺いしました。
(取材日:2025年4月25日)
(文責:株式会社PoliPoli 井出光)
𫝆川拓郎(いまがわ たくお)総務審議官
1990年郵政省(現、総務省)入省。
大阪大学大学院国際公共政策研究科助教授、総務省情報通信国際戦略局情報通信政策課長、総合通信基盤局総務課長、電気通信事業部長、情報流通行政局郵政行政部長、大臣官房長、総合通信基盤局長などを経て現職。
歴史ある日本のAIの国際ルール作り
ー𫝆川総務審議官は現在、どのような業務を担当されているのでしょうか。
私は国際担当の総務審議官で、総務省においてデジタル分野のテーマで海外と連携や交渉を行う際の責任者です。
担当しているデジタル分野でのプライオリティはAI、デジタルインフラ、サイバーセキュリティ、インフォメーションインテグリティの4つです。インフォメーションインテグリティは聞き慣れない言葉ですが、偽・誤情報やフェイクニュースなどにどのように対処するかというものです。この中でも、生成AIが世に出てからAIに対する関心が世界的に高まっており、AIが現在の最優先テーマとなっています。
ーやはり近年の生成AIの発展とともに、AI分野での海外交渉が多くなっているのでしょうか。
実はAIはこの1~2年で急速に浮上したテーマではなく、歴史あるテーマなんです。総務省は約10年前の2016年にAIを議論する会議を立ち上げて、社会的、経済的、倫理的なメリットやリスク、法的課題などを議論してきました。
また、2016年にG7香川・高松情報通信大臣会合があり、高市早苗大臣(当時)が、AIが社会経済に与える影響を国際連携により分析し、AIの開発原則のようなルールの議論につなげていくことを提案されました。その提案以降、日本が国際社会におけるAIのルールづくりの議論を牽引しています。
それらの議論をOECD(経済協力開発機構)にインプットし、OECDの中でも専門家グループによる議論が進みました。その際に、日本側からも多くの人材を派遣しています。その結果、2019年に世界で初めてAIに関する民主主義的な価値に基づく多国間の政府合意である「OECDのAI原則」が作られました。
その流れの中で、2023年に広島で行われたG7では、議長国・日本の提案で、安心安全で信頼できるAIを目指すためのルールづくりとして「広島AIプロセス」が立ち上がりました。
ーAIに対する歴史的な経緯もある中で、𫝆川総務審議官から見て、AIの方向性としては規制の方向に動いているのか、イノベーションを加速する仕組みを前に進めようとしているのか、どちらの方向にあると感じていますか。
AIは急速に発展しており、非常にメリットがある一方でリスクもあり、リスクを軽減しながらイノベーションの成果を最大限活用することが大切です。
つまり、イノベーションの促進とリスク対応の規律をうまくバランスさせる必要があり、新しい技術を先走って規制するとイノベーションを妨げてしまいます。リスク対応の規律は、大まかに言うと、規制的なハードローと事業者による自主的な対応を促すソフトローの2つのアプローチがあります。現在、EUではAI法という法律を作って規制的なアプローチを取っています。一方、日本が主導する「広島AIプロセス」では、規制ではなく自主的な取組を促すボランタリーコミットメントの考え方を採っています。AI開発に取り組む方々が、ユーザーに向けて自らリスク対応の透明性や説明責任を高めることで、AIによるサービスを提供する企業が顧客の信頼を得て競争力を高める、それを後押しする仕組みを志向しています。
ー自主的な規制の場合、国により考え方やリスクの捉え方が異なるなどの難しさがあると思うのですが、実際のところはいかがでしょうか。
やはり国により考え方が異なったり、同じリスクでも受け止め方が違ったりすることがあります。その辺りはワーキンググループのような形で、専門家がひざ詰めで一生懸命議論するプロセスが必要です。
総務省でAIの議論を最初にスタートしたのは約10年前になるので、かなり時間をかけて議論を積み重ねているんですよね。その成果も活用しつつ、「広島AIプロセス」では、「国際行動指針」と「国際行動規範」を包括的なフレームワークとしてまとめることができました。現在は、それらの理念をどう実践していくかという段階に進んでいます。
ー理念を実践するための仕組み作りはどのように進んでいるのでしょうか。
一昨年はG7議長国の日本が主導して「広島AIプロセス」を策定しましたが、イタリアが議長国となった昨年のG7では、日本も引き続き貢献する中で、「広島AIプロセス」を早期に実践するための枠組について昨年の12月末に合意しました。
この枠組は「レポーティングフレームワーク」と言いますが、OECDが事務局となって標準化された手続に従ってAI開発者からの報告を受け、これを公表することにより「広島AIプロセス」による「行動規範」を実行してもらおうとするものです。今年2月にパリのOECDで本フレームワークのローンチイベントが行われ、私も参加しました。その時点で産業界からGoogle。Amazon、Microsoft、OpenAI、NTT、ソフトバンク、KDDI、楽天、NEC、富士通など13社が参加し、5 月末時点には20社まで増えています。各社が、AIに関する共通の質問票に従って、リスクの特定や評価、情報セキュリティ、透明性等の取組をOECDに報告し、オープンにしています。
事業者の自主的な取組ではあるものの、ユーザーから見たAIのブラックボックス性に対する透明性や説明責任を担保できる画期的な仕組みだと思います。このような取組が普及することにより、サービスの信頼性が高まり、それが企業の競争力強化にも繋がるといった形で企業が参加するインセンティブを確保しながら、イノベーション促進とリスク対応を両立させる、ということを期待しています。
国内AI利用の現状 慎重論と高まる関心の狭間で
ー海外で議論を行う中で、各国の状況も意識されているかと思います。日本は中国やアメリカに比べ、生成AIを利用する人や企業の割合が低いと報じられることも多いのですが、国内のAI利用状況についてどのようにお考えでしょうか。
恐らく各報道の出典元の多くは総務省の『情報通信白書』ではないかと思います。この種の調査をすると、日本では、AIに限らず新しい技術に対して大変慎重な答えが出る傾向にあるとの指摘があります。
AIについては「使い方が分からない」「必要性を感じない」という回答に加えて、「個人情報の流出が怖い」など、特に情報流出やプライバシーなどについて、日本人は保守的な傾向があるようです。そのような中で、日本は生成AIの利用率は欧米や中国に比べて低い傾向が出ている反面、AIに関心を持つ人の割合が6~7割あるのも事実です。
使ってみて便利と分かる、慣れる、利用者のリテラシーを高めるなどすれば、利用は拡大するのではないかと考えています。現在は既にスマホでも簡単にAIが使えるので、まずはスマホで実際に使っていただきながらリスク面の透明性などの情報提供も行うことで、日本のAI利用率も国際的に遜色のないレベルに高まっていくのではないでしょうか。特に、個人や中小企業でのAI利用が高まることが重要と考えています。
私もできるだけ積極的にAIを使うようにしています。仕事柄、英語のスピーチをすることが多く、翻訳や添削などに使っていますが、非常に有益なツールだと思います。総務省の省内LANの中で閉じた形で使える生成AIも導入されており、業務においても既に生成AIが利用できるようになりました。
ー個別企業のサービスも含めてAIの環境が急速に変化していますが、𫝆川総務審議官はどのようにキャッチアップされていますか。
やはり自分で使ってみることが大切ではないでしょうか。使ってみないことには分かりませんし、具体的な話もできません。とにかく新しい技術を使ってみて、使い勝手や利便性、リスクなどを実感することが鍵だと思います。
ーAIの利用という観点では、国際会議などで海外の方とお話する中で、国のカルチャーがAI利用の妨げとなっている部分を感じることはありますか。
社会受容性などのカルチャーの面もありますが、制度面もあると思います。たとえば自動運転では、中国や米国西海岸の一部では、すでにレベル4の自動運転の完全無人タクシーの商用化が進んでいますが、日本は事故発生時の責任の所在や自動運転システムの安全基準など、さらなる制度整備が必要との指摘があります。日本は社会受容性や制度の面で、もう少し思い切った後押しが必要だろうと思います。
日本のAI戦略、次の一手
ー国内のAI政策は総務省をはじめ、各省庁が進めていますが、どのような分担で進めているのでしょうか。
国内のAI政策は、内閣府や経産省、デジタル庁、さらに教育は文科省、医療は厚労省と様々な省庁にまたがっています。各担当分野でそれぞれの省庁がAI政策を手がけていますが、各省の連携について政府の中に司令塔を作る動きがあり、AIの包括的な法案が内閣府から国会に提出され、5月末に成立しました。
この新たなAI法はAI戦略本部という総理大臣をトップとする司令塔を作ることに加えて、AIの活用や安全性などの包括的な内容を含む法律です。本法も先程申し上げたように、規制ということではなく、AIの活用推進とリスク対応の両立を後押しする内容です。本法の施行後には、AI戦略本部を司令塔として、様々な省庁が連携を強化する場ができます。これまでは、「広島AIプロセス」も含めAIの国際的なガバナンスは総務省が主導してきましたが、AI戦略本部の下では関係府省との連携をさらに深めながら進める形になると思います。AI政策についての各府省の連携はどんどん進むのではないでしょうか。
ーAIに関するガイドラインや法整備も進みつつありますが、AI全体としては欧米や中国などと比べて、日本の状況は進んでいると思われますか。
生成AIの技術そのものは米国や中国が先行していますが、日本にも自動車や組み込み系、日本語など独自の強みがあり、特定領域に分野を絞ればまだ世界で戦える力があるいう意味で、必ずしも日本が遅れているとは思いません。
ただし、先程も触れたとおり、個人や中小企業も含めユーザー側のAI利用が米国や中国に比べ遅れている部分もあるため、AIのユーザー側の不安も含めた具体的な需要と最新技術による顧客重視のきめ細かい供給がうまくマッチするよう、利用の促進をすることが重要ではないでしょうか。
ー最後に、読者にメッセージをお願いします。
我々はAIについてソフトロー的なアプローチを重視しており、企業が何か新しい開発やサービスをすることに対して、先回りして規制をかけるようなことはありません。どんどん新しいことにチャレンジしていただき、ユーザーもできるだけ新しいサービスにトライしていただきたいと思っています。
様々なリスクや不具合や不便もあるでしょうが、それらも含めユーザーが積極的に発信することで課題を克服する対応が進み、新しいサービスが更に進化するという循環が活発なエコシステムがよいと考えています。そのためにはやはり使っていただくことが大切です。個人の方や中小企業も含めて、まずはAIを敬遠せずに使っていただきたいですね。