「金融庁 AI官民フォーラム」(第4回)議事要旨

  1. 日時:令和7年12月23日(火曜)15時00分~17時00分
  2. 場所:オンライン

事務局説明

  • 本日は生成AIの利活用に際してのAIガバナンスに関する論点について取り上げる。
  • 適切なAIガバナンスの確立によって、AIに関連する様々なリスクに適切に対応しつつAIを効果的に活用することで、新たな金融サービスの創出やビジネスモデルの変革など、利用者利便の向上と業務の効率化を進めていくことが重要と考えられる。
  • AIガバナンスにおいては、事前に固定化した手続きやルールを設けるのではなく、運用と評価のサイクルを回すと同時に継続的な改善を行うアジャイル・ガバナンスの重要性が指摘されている。
  • これまでのフォーラムでは、AIガバナンスについて、攻めの利活用と守りのガバナンスをうまく両立させることの重要性やリスクベースのアプローチの必要性、継続的なモニタリングと改善の必要性や経営の主体的な関与の重要性等についてご意見を頂いている。
  • 本日は、AIガバナンスにかかる取組みや今後の動向について説明をいただいた上で、パネルディスカッションを行う。

プレゼンテーション

保険業界におけるAI安全性とSOMPOの取り組みについて(村上氏)

  • AIを活用した効率化・競争力強化はビジネスの必須条件になっている一方、AIによる間違いも心配される。AIの誤謬性を考慮すると、技術的な安全性を担保し、リスクを共有する「安全」という状態であるとともに、不安を解消した「安心」という状態でなければ社会におけるAIの導入は進まない。「安全」を客観的に示し、「安心」につなげることがキーフレーズになる。
  • リスクには、技術的なリスクと社会的なリスクがある。技術的なリスクとは、バイアス・ハルシネーション・セキュリティなどを指す。社会的なリスクとは、プライバシー侵害・財産権の侵害・環境負荷・法的リスク・レピュテーションリスクなどである。AIガバナンスとは、こうしたリスクを受容可能な水準に抑えつつ、AIがもたらす価値を最大化することを目的とするものである。
  • 当社を例に挙げると、社内にAI推進委員会を設置し、AIに関する経営層の意識改革、AI推進に関するグループ全体の方針の検討、投資予算及び経営リソースの最適配分に取り組んでいる。AI推進委員会の下に、テーマごとに独立したタスクフォースを設置しており、例えばリスク・ガバナンスに関するタスクフォースでは、AI利用のガイドラインの策定やグループ会社への展開を行っている。
  • AIセーフティ・インスティテュート(AISI)は、AIの安全・安心な活用が促進されるよう、官民の取組みを支援することを目的に作られた組織である。具体的には、安心・安全なAIを技術的にどのように担保するのかという調査・研究や、情報発信を行っている。大きく3つのミッションがあり、1点目は、安全性の評価手法の検討や基準の作成、各種調査・研究等を通じた政府への支援である。2点目は、産学における関連動向の集約や国内・海外との連携など、日本におけるAIセーフティの情報のハブとしての役割である。3点目は、国立研究開発法人等の関連研究機関との連携である。
  • AISIが設立されてからの2年弱で、AIのシステムやモデルの安全性に関する一般的な議論を深めてきた。今後業界ごとのリスクについても議論を深めるため、産業ごとの「縦」のワーキンググループと、データ品質など産業横断的な「横」のワーキンググループからなる事業実証ワーキンググループを設置した。産業ごとのワーキンググループとして、本年度はヘルスケアとロボティクスから始めているが、将来的には、金融に関しても、民間が主導しAISIがサポートするワーキンググループを立ち上げたいと考えている。
  • AIの最大のリスクは恐れて使わないこと。AIを恐れて使用しない企業は効率化できずに競争力を失い、イノベーションの推進も困難になる。安全性やガバナンスを考慮しAIを積極的に活用することが肝要である。

AIガバナンスをめぐる経営・実務の現状と課題(佐久間氏)

  • AIは技術的な不確実性が高く、インシデントとされるような事象が増加している中で、企業がAIに関するリスクと向き合う必要性も高まっている。
  • AIは、統計的に出力を行うことや学習等による継続的な挙動の変化、出力のブラックボックス性などの技術特性がある。また、特に近年普及している生成AIは、エンジニア等の技術的知見がない方々も扱えることと、用途・目的を限定せずに活用できることという「2つの汎用性」を持つ。これらにより、従来のソフトウェア・システムとは異なるリスクを抱えていると言える。AIガバナンス協会では、新しい技術を踏まえたリスクも反映しながら、「行動目標」という自主標準の策定・改定を行っている。
  • よくアジャイル・ガバナンスと言われるように、AIガバナンスは、外部の環境変化に応じて柔軟にガバナンスの形態を変えることが基本にあるが、その中には、経営や組織レベルでのコミットメントやルール整備といった「外ループ」と、個別のAIシステムがもたらすリスク・影響の事前評価や対策といった「内ループ」があり、経営レベルと現場レベルの双方の取組みを連携させることがポイントになる。
  • まず、経営レベルの観点では、本年11月に「AI時代の経営意思決定とガバナンス ~攻めのAIガバナンス実現のための戦略レポート ver1.0」を公表した。AIにはリスクがある一方で、競争力の源泉となるAIを活用しないわけにはいかない中で、AIの活用とリスク管理の両立を模索することが求められている。資本市場からも、企業に対してAIリスクへの対処を求める動きが高まっていると認識している。他方で、日本の企業は海外に比べて生成AIを積極活用している企業が少なく、改善が必要な状況にある。日本ではスモールスタートが好まれるが、その成果をどのように全社に展開するかという経営目標・戦略を欠いていると指摘されている。
  • 「戦略レポート」では、こうした中で経営に求められる基本姿勢を提言している。1点目は、経営として意思決定を行う上で、利活用に必要な基礎的なAIリテラシーを身に着けること。2点目は、AIと企業価値のつながりを理解し、経営層が主体的にAI活用と向き合うこと。3点目は、AIの活用・ガバナンスの推進を企業変革プロジェクトと捉えることである。
  • こうした基本姿勢を基に、どのように経営意思決定を行うべきかというフレームワークも提言している。まずは、AI時代における自社の目指すべき像を設定することが必要となる。次に、社内のAI活用の状況の現状把握を行う必要がある。そして、目指すべき像と現状とのギャップを埋めるため、どのような場面でAIを活用できるかという具体的な活用可能性を検討し、AI活用によるベネフィットとリスクを定性・定量の両面から評価することが重要となる。その上で、一度行ったベネフィットとリスクの評価は社会・技術の変化に応じて変わりうるので、継続的にアップデートしていくことが必要となる。なお、ベネフィットとリスクの評価にあたっては、様々な経営指標が考えられると思うが、一例として、AIリスクや対策コストを踏まえたROIC(投下資本利益率)の算出にAIリスクを組み込む方策を提示している。
  • より実務に近いレベルでは、実際のガバナンス構築の進め方や構築状況のモニタリングに資するツールとして「AIガバナンスナビ」を提供している。半年に一度、会員企業がナビに基づいて自己診断を行い、自社の取組みの振り返りや、他社と比較した場合の立ち位置について認識を深めてもらっている。
  • 直近9月に実施した自己診断には、多様な業種から37社の参加があった。全体の傾向としては、ルールや組織作りは相対的に進んでいる一方、透明性の確保やアカウンタビリティについてはまだ進んでいないことがうかがえた。リスクへの対応としては、個人情報や知的財産の関係は一定の整理・対策が進んでいるが、出力のバイアスへの対応やセキュリティなどの技術的な対応はまだ弱いという結果が出ている。

AI技術の到達点と金融セクターへの実装可能性(伊藤氏)

  • 当社は、AI開発を基礎開発から手掛けるとともに、金融セクターに比重を置いて具体的なアプリケーション開発を進めている。今日は、AIの技術進展の状況と金融セクターへの実装についてお話しする。
  • MITが今夏にまとめたレポートによれば、世界中で生成AIをビジネスに実装するためのPoC(Proof of Concept)の実に95%が失敗に終わっているとされている。これは、「良質なモデルを作ってデータを入力しさえすれば優れた答えが出る」という単純な発想は成り立たないことを示している。更に、これまでのAIモデルの発展を振り返ると、バージョンアップするにつれて性能は確かに向上しているものの、その向上の幅、すなわち限界効用は低下している。従来のような性能向上のペースが続けば、単純に良質なモデルにデータを入れればよい世界になるのかもしれないが、現実はそうではない。
  • モデルが万能であることを前提とする考え方では、モデルさえ良くしていけばAGI(Artificial General Intelligence)にどんどん近づいていき、汎用的に何にでも使えるようになるという発想になるが、95%のPoCが失敗しているという分析は、現実はそうではないことを物語っている。5%の成功事例は、モデルだけに頼るのではなく、用途ごとに細かいカスタマイゼーションを行っているもの。このことから我々は、モデルのレイヤー4と具体的なアプリケーションのレイヤー3の間にある「3.5番目のレイヤー」が重要であると考えている。このレイヤーにおいて重要な点は2点ある。1点目はモデルを組み合わせること。モデルによって得意分野は異なるので、様々なモデルを用途に応じて組み合わせていくことで、パフォーマンスの向上にもコストの最適化にもなる。2点目として、「暗黙知」の吸い上げも重要。例えば、融資業務に関する100ページのマニュアルがあるとして、新入行員がマニュアルを丸暗記して融資判断しても、先輩行員と同じパフォーマンスは出ないだろう。マニュアル化しきれない暗黙知を膨大なデータから吸い上げ、回答の精度を高めていくことが必要。
  • 実務の現場で使えるAIであるためには、何にAIを使うかというアイデアよりも、どのくらいの正確性・精度まで高められるかが非常に重要。例えば、融資業務や営業・戦略の提案資料の作成にAIを活用するというアイデア自体はさほど目新しいものではないが、融資に必要な情報の収集や過去の判断を踏まえた稟議書作成を精度高くやり切れれば、融資業務の自動化に近づいていく。営業・戦略の提案についても、企業・銀行のノウハウなどを取り込み、顧客に寄り添った形で現状分析を行い、戦略の提案を精緻化していくことが重要になる。海外の金融機関からは、自分たちが何年やっても十分な精度を出すことが難しかったのに対し、日本の金融機関が精度高くやり切りつつある状況を見て羨ましいとの声も聞いている。
  • 現時点でAIの導入が増えているユースケースは、融資の自動化や営業の効率化といったコスト削減につながる事例。2026年にフォーカスされるのは、AIを活用したビジネス変革や新規ビジネスの創出など、トップラインを上げる活用事例ではないか。例えば、資産運用やウェルスマネジメント、リテール向けのデジタル銀行サービスなど、AIによるベネフィットを感じてもらえるようなユースケースを創出することが課題。
  • 2026年のもう1つの課題は、中小の金融機関への展開。海外の大手金融機関には、サービスプロバイダーとして自らのシステムを外販することに興味を持つところも多い。例えば、欧州の大手の金融機関には、マクロ市場のリサーチ・分析業務をAIで自動化するシステムを作り、中小の金融機関に外販するビジネスに関心を持っているところがある。同様に、規制対応・コンプライアンス対応の確認には多くの作業と人手が必要となるが、その確認をAIで自動化し、不足部分があれば推奨アクションを提示するといったシステムを外販したいという話も聞く。

パネルディスカッション

島崎参事官(モデレーター)

  • 伊藤氏のプレゼンテーションでは、AIの技術進展の動向、実務への落とし込みの難しさ、新たなビジネス・付加価値の創出への期待等のお話があった。AIを活用する立場の金融機関の皆様は、どのように感じられたか。

磯和氏

  • ご指摘があったようにAIに「暗黙知」を入れていくようになってきた。当社では、顧客への提案内容を相談できるAI上司のようなものを作っているが、まだ無味乾燥な反応にとどまるので、インタビューやヒアリングなどを学習させてバージョンアップしているところ。
  • 新規事業、新規ビジネスを創出できるかは、生成AIをうまく使えるかにかかっているという点もご指摘のとおり。当社では、各事業部門が新しいビジネスを見据えながら、ボトムアップでAIの活用を考えている。それに対し、横串を入れる部署(AIトランスフォーメーション推進室)が、どのような技術・業者を活用することが考えられるかなどをアドバイスしながら進めている。

江見氏

  • 技術そのものではなく、ユースケースを意欲的に追求している。様々なユースケースを試行する中で、結果として新しい技術に挑戦することにつながる。技術の開発・見極めを自前で行うことは現実的ではないと考えており、専門の事業者等との連携・協業しながら進めている。
  • AIを実装しようとすると、業務プロセスのデジタル化やデータ基盤の整備が必要になるが、多くの日本企業で課題がある。AI導入を梃子に、DXや企業カルチャーの変革を進める意識で取り組んでいる。

生田目氏

  • AI活用に際しては、人の部分にスポットライトを当てることが成功の要件だと思う。特に、AIガバナンスの観点では、経営者の認識・主体性が問われる。生成AIは挙動が事前に予測できるものではないので、生成AIの行動特性に対して経営者が持つアカウンタビリティが重要である。

島崎参事官(モデレーター)

  • AI活用が、新規ビジネスの創出よりも業務効率化・コスト削減で先行しているとのご指摘だったが、その理由・背景は何だとお考えか。

江見氏

  • 業務の自動化は、AIのユースケースとして事例が多く、また実装の敷居が低いと思われたので、取り組みやすかった。ただし、実際にはまだ十分な精度が出ておらず、自動化を実現するには至っていない状況。むしろ、足元では、顧客への営業活動の高度化などの付加価値の創出に関するユースケースの方が成果になりつつある。

磯和氏

  • 極めて近い状況。最初はRPAの延長でコールセンターやミドルバック部門へのAI導入が多かった。これによりある程度の効果は出ているが、もっとこんなことが出来るのではないかということで、各事業部門からボトムアップでユースケースが出始めている。

生田目氏

  • 同じような状況。保険業は事務が殊更に煩雑かつ人手がかかるので、AIによる効率化の余地は誰の目にも明らかだった。一方、新しい価値創造の領域は、試行しながら一定の時間をかけて効果・リターンを評価する必要があり、効率化とは異なる時間軸で進んできたのだと考えている。

島崎参事官(モデレーター)

  • 効率化であれ価値創造であれ、AIの導入が上手くいく企業とそうではない企業との違いはどのような部分に表れると思うか。

佐久間氏

  • 3点指摘したい。1点目は、現場レベルの気づきをユースケースにつなげ、それを経営が全社展開する仕組みを整えているかどうか。2点目は、AI活用にはデータの整備が不可欠となることから、データマネジメントとAIガバナンスの連動が進んでいるかどうか。3点目は、既存のガバナンス体制や標準の活用を進められているかどうか。いわゆる規制業種ほどAI活用が進んでいる面があるとの指摘があるが、金融業界は、もともとリスク管理の考え方が根付いており、しっかりした統制プロセスを作ってきた業態なので、AIの管理・活用にそのノウハウを活かすことができているのではないか。

村上氏

  • AI活用の前提となるデータマネジメントが出来ていないという点はご指摘のとおり。
  • 既存のビジネスプロセスの一部にAIを導入しても、財務に表れるような効果はなかなか出ない。ビジネスプロセスそのものをAIの時代にあわせて変えていくことが必要。DXという言葉が広がって数年経つが、効率化から抜け出してビジネスプロセスの変革にまで至れていない。
  • AIは使うこと自体が目的ではないはず。業務効率化や新規事業を創出することが目的であって、AIはその手段なのだが、この点を履き違えてしまうと成果は出ないだろう。AIで何が出来るのか業界横断で認識を共有し、適切な理解の上に新規事業等を検討すべきだと感じる。

伊藤氏

  • 業務効率化にせよ新規ビジネスの創出にせよ、AIを導入するためには、社員のAI リテラシーの向上やデータの整備といった「準備運動」が必要になる。そうした準備を整え、業務プロセスの変革やカルチャーの改善につなげていくためには、まずは裾野の広い業務効率化からAI導入を始め、企業の中でAIを導入する素地を作っていくことが合理的ではないか。
  • AIの活用を考える際、人にどのような役割を残すかが重要な視点。モデル開発に際しても、人からのフィードバックをうまく反映させて「暗黙知」を取り込んでいかないと、95%の失敗事例になってしまう。モデル開発のみならず、顧客へのサービス提供や新規事業の創出などの場面でヒューマン・イン・ザ・ループが重要となる。AIの活用を考えていくと、人間の関与のあり方や役割の再定義につながっていくと思う。

村上氏

  • 先ほど既存のビジネスプロセスを前提にAIを導入しても効果が表れにくいと申し上げたが、まさに、人間の役割を考えなければならないということ。人手不足は大きな課題で、小幅な改善を繰り返していても解決につながらない。業務の中で人間がやるべきこと、AIに任せるべきことをとことん議論する必要がある。

生田目氏

  • 先ほど経営者のアカウンタビリティについて申し上げたが、挙動が予測しがたいAIに対して、人間がどのような統制を及ぼすかは重要な論点。また、産業革命によって大量生産が可能となった結果、使い捨ての文化や公害の問題が生じた歴史と同じように、AIが社会に浸透すれば、人間の社会・文化や生活も一定の影響を受けるだろう。AIによる大量生成時代が生活・文化やビジネスに及ぼす影響、そこで形作られる金融ビジネスのあり方、顧客との接点のあり方などに意識を及ぼしていかねばならない。

磯和氏

  • キーワードは「ネガティブ・ケイパビリティ」。簡単に答えを出すAIに人間全体が引っ張られ、安易に答えを求めがちな世の中になるからこそ、変化し続ける環境下にあって性急に結論を出そうとせず、一息入れてしっかり考え続けられる能力(ネガティブ・ケイパビリティ)が、最も人間に求められるようになるだろう。

島崎参事官(モデレーター)

  • 人間の関与も含め、AIの活用に当たってのガバナンス・安全性については、評価の在り方が難しいとされる。AIセーフティ・インスティテュート (AISI)やAIガバナンス協会が評価の拠り所となるような活動をなさっているが、金融機関として、両者の活動をどのようにご覧になっているか。協調できる点やより掘り下げてほしい点などはあるか。

江見氏

  • AISIが提供するAIの安全性に関するガイドラインは実務的で参考になる。また、国内外の動向について質の高い情報を英語でも発信されており、海外の関係者を含めてタイムリーに目線合わせを行えている。引き続き、実務に根差したサポートをお願いしたい。
  • AIガバナンス協会は、正解が確立していない様々な課題について議論できるコミュニティとして機能している。今後、AIの利活用が本格化する中でAIに起因するリスクがより意識されるようになるので、そうしたコミュニティはありがたい。

生田目氏

  • AIガバナンス協会の活動に携わる立場としては、AIには様々なリスクがあり、産業ごとにリスクの大きさも変わりうるが、他産業との比較を含め、様々なリスク要因や対応の指針を網羅的に集約することは非常に重要だと考えている。考え方を整理するに際して、経営のAIに対する価値判断も浮き彫りになってくる。
  • 米国ではAIに関する訴訟が多数起こっており、裁判を通じて考え方が整理されている面があると思う。日本はそうした状況にはないので、海外とも密接な連携を持つAISIが政策立案の過程で知見を提供することは有意義だと考える。

磯和氏

  • AIの技術・活用事例は日々変化している。変化のスピードに対応する形で、ガイドライン等の守備範囲を広げたり、内容のアップデートを頻度高く行ったりといった取組みが必要になる。

村上氏

  • 全ての文書を英語でも同時に公開するのがAISIのポリシー。その点を評価いただけるのは大変ありがたい。今後は、インダストリーごとにAIの安全性に関するベンチマークのようなものを作りたいと思っている。一定の目線を示すことが出来る一方、そこで安心してしまってより深い取組みが進まないという危険性もあり、認証制度にすべきかは難しいところがあるが、リスクを業界ごとにディスカッションする場は重要。現在はヘルスケアとロボティクスの2業界だが、金融にも広げていきたい。

佐久間氏

  • 技術的な変化が非常に速いので、リスクが顕在化する前に、新しい問題を正確に捉え機動的に対策を検討しなければいけない。新しいリスクは活用の現場から見つかるものなので、現場の声を含めた知見共有を引き続き密に行っていきたい。
  • 価値判断やリスクについての考え方の相場観の整理も進めていく必要がある。その際には、企業はもちろんのこと、影響を受ける消費者・顧客や取引先となるユーザー企業など、様々なステークホルダーの声を聞きながら価値判断の議論をしなければならないと考えている。

島崎参事官(モデレーター)

  • 最後に、今後のAIの進展を見据えた時に、企業活動に限らず、人間の役割のあり方などを含め、社会がどのように変わっていくとお考えかお伺いしたい。

江見氏

  • やはり人の役割が大きなテーマになるだろう。銀行には様々な事務処理があり、それが安定的に行われることは非常に重要だが、従業員一人一人の個性が表れにくい業務でもある。こうした業務をAIに任せることができれば、より個人個人としての付加価値が重要になるだろう。そして、人の役割が変われば、これまでの業種の概念も変わり、新たな産業が生まれることも考えられる。

佐久間氏

  • AIによる社会的分断が起きないかに関心を持っている。AIが「誰にどのような利益をもたらすのか」と同時に、「誰にどのようなリスクをもたらすのか」もあわせて議論できるかが、社会としてAIをうまく受容できるかどうかの分水嶺の1つになるのではないか。

伊藤氏

  • AIは過去にもブームになっていたが、今回こそそれを一過性のものとせず、社会に根付かせる必要があると思っている。AIの技術進展がどこに向かうにせよ、金融業の変革につなげていくことが重要。2026年は人、データなどの要素をしっかり整備し、AIを「導入しきっていかなければならない」ステージになると捉えている。
  • AIガバナンスの観点では、プライバシーやデータ保全に加え、「どのデータが使いやすいのか」を明確にする必要がある。使いやすいデータの活用が先行するものなので、どういったデータが高い付加価値を生むのか見極め、個別具体的にデータの使い勝手を設計することにも、様々な機関と連携して取り組んでいきたい。

村上氏

  • 人間がやるべきことは何かを真剣に議論する必要がある。決められた仕事をこなすホワイトワーカーがいなくなる時代が到来しうるという前提で、人間がイニシアチブを取るべき領域を今考えなければ、極端に言って人間がAIに乗っ取られるような事態になりうる。
  • データ整備のあり方も考える必要がある。AIで何をしたいかという目的もなくデータを整備しても、そのコストは無駄になってしまうので、よく考えて取り組まねばならない。AIは入力するデータの質が高くなければ、出力される回答も使えるものにはならず、質の高いデータはAIの安全性にもつながる問題である。
  • AIは技術としては本来中立的であり、利用方法次第で善にも悪にもなる。AIの利用を良い方向性へシフトさせるべく、ガードレールの設計が重要になる。特に、金融は人々の生活に直結するインフラなので、安全性の担保が不可欠である。

磯和氏

  • AIの文脈で「人」というと、一般的には自然人が意識されるが、私は法人が一番変わると思っている。AIは知的労働の分解・再結合のコストを大幅に下げるので、固定的な組織よりも目的別に集合・解散するような集団が増えると思う。結果、責任の所在が曖昧になることなどが想定されるが、そのガバナンスを論ずるにあたっては、既存の法人組織を前提とするのではなく、エンティティの形が変わっていくことを踏まえた議論が必要である。

生田目氏

  • 良質なデータがAIによる価値創出の前提という意見に共感する。この良質なデータは所与のものではなく、人間が目的意識をもって収集しなければ集まらない。これは人間の創造性を高めるプロセスにもつながるもので、AIへの投資は人への投資と言えると思う。

島崎参事官(モデレーター)

  • これまで4回にわたってAI官民フォーラムを開催し、当座年内を予定してきた議論も今回が最終回。皆様からの意義深いお話をいただき感謝申し上げる。

(参考)開催実績

問合せ先
  • 電話受付
    • 受付時間:平日10時00分~17時00分

    • 電話番号:0570-016811(IP電話からは03-5251-6811)

  • ウェブサイト受付

(注)金融行政等に関する一般的なご質問等は金融サービス利用者相談室で承ります。

所管

総合政策局リスク分析総括課 暗号資産・ブロックチェーン・イノベーション参事官室/イノベーション推進室 (庁内用2277)

サイトマップ

ページの先頭に戻る