AIガバナンスプロジェクト AIサービスとリスクコーディネーション研究会

人工知能(AI)サービスや製品の社会実装が拡大する一方で、AIの信頼性や透明性に関する問題が課題となっており、各国・企業においてガイドライン策定やツール開発などの様々なアプローチが開発されています。しかし多くのケースにおいて、下記のような課題から各アプローチを十分に実践できていない状況があります。

  • AIサービス毎に重要なリスクが異なる
  • AIモデルだけではリスクを十分に対応し続けることができない可能性がある
  • ユーザーを含む人間がリスク要因になる可能性がある

これらの課題を解決するためには、AIサービスや製品にとって重要なリスクは何なのか、誰がそのリスクに責任を持つのか、どのような評価指標やツールを使っていくのかを考えるためのフレームワークが必要です。
本研究会は、東京大学とデロイトトーマツリスクサービス株式会社の共同研究プロジェクトとして運営され、東京大学の研究グループが開発したリスクチェーンモデル(RCModel)などを用いて、具体的な事例の調査・研究を実施します。

また日本電気株式会社の「AIの倫理・法制度に関する研究」やAIビジネス推進コンソーシアムの「AI倫理WG」をはじめとする様々な組織や企業から事例提供等の協力をいただき遂行しており、AIの企画・開発・提供・利用に関するリスクを関係者間で考えるため、誰でもが使えるプラットフォームの形成を目指しております。
なお本研究会は、公益財団法人トヨタ財団D18-ST-0008「人工知能の倫理・ガバナンスに関するプラットフォーム形成」の一環として実施するものです。

リスクチェーンモデルの使い方

リスクチェーンモデル(RCModel)ガイド Ver1.0

ケース事例

※あくまでサンプルとしてのケース検討例であり、特定の企業のAIサービスに対して問題提起を行うものや保証を与えるものではないことにご留意ください。

Case01.採用AI (2021/07)

Case02.無人コンビニ(2021/07)

Case03.送電線の外観検査ドローン (2021/07)

Case04.不良品検知AI (2021/07)

Case05.道案内ロボット(2021/07)

Case06.再犯可能性の検証AI (2021/07)

 

お知らせ