AIガバナンスプロジェクト AIサービスとリスクコーディネーション研究会

リスクチェーンモデル

AIを使ったシステムやサービスは、信頼性や透明性の確保が重要とされていますが、具体的にどのようにすればよいのでしょうか。世界各国では様々な原則やガイドライン作り、チェックリストなどが作成されています。その原則を実践に落とし込んでいく方法として、東京大学の研究グループが開発したリスクチェーンモデル(RCModel)を紹介します。

リスクチェーンモデルの使い方

リスクチェーンモデル(RCModel)ガイド Ver1.0
※RCModelは、クリエイティブコモンズライセンスCC-BY4.0で公開しています(ガイドp8「RCModelの利用について」)

政策提言「AIサービスのリスク低減を検討するリスクチェーンモデルの提案

実践編:リスクチェーンモデルと採用AI


オンラインイベント「AIサービスに対するリスクベースアプローチ:リスクチェーンモデルと採用AI」(2021/7/15)

イベント動画(前半)


イベント動画(後半)


リスクチェーンモデルの応用事例ウェビナー
Risk Chain Model to Practice

ケース事例

※あくまでサンプルとしてのケース検討例であり、特定の企業のAIサービスに対して問題提起を行うものや保証を与えるものではないことにご留意ください。

Case01.採用AI (2021/07)

Case02.無人コンビニ(2021/07)

Case03.送電線の外観検査ドローン (2021/07)

Case04.不良品検知AI (2021/07)

Case05.道案内ロボット(2021/07)

Case06.再犯可能性の検証AI (2021/07)

Case07.ローン審査AI (2022/02)

Case08.がん診断AI(2022/02)

Case09.スマート家電の最適化AI(2022/02)

Case10.無人バス(2022/02)

Case11.プラント運転における制御ガイドAI(2022/02)
※本ケースは、AIビジネス推進コンソーシアム「倫理ワーキンググループ成果物」ユースケース1で取扱われており、千代田化工建設㈱より助言をいただきながら一般的な事例として検討を行った。(注:千代田化工建設㈱での実ケースを直接評価したものではない)。参考URL:https://aibpc.org/?p=1523

リスクチェーンモデル活用事例

AI公平性ツールキット


AIサービスや製品にとって重要なリスクの一つに公平性があります。AIが不公平な判断を下さないためには、公平性の評価指標やツールを正しく理解して利用することが必要です。
本研究会では、AI公平性に関するツールの調査を行いました。

Fairness-Aware Machine Learning Toolbox(ダウンロード)

本調査結果は、2022年度 人工知能学会全国大会(第36回)の発表資料です。