リスクチェーンモデル
AIを使ったシステムやサービスは、信頼性や透明性の確保が重要とされていますが、具体的にどのようにすればよいのでしょうか。世界各国では様々な原則やガイドライン作り、チェックリストなどが作成されています。その原則を実践に落とし込んでいく方法として、東京大学の研究グループが開発したリスクチェーンモデル(RCModel)を紹介します。
リスクチェーンモデルの使い方
リスクチェーンモデル(RCModel)ガイド Ver1.0
※RCModelは、クリエイティブコモンズライセンスCC-BY4.0で公開しています(ガイドp8「RCModelの利用について」)
政策提言「AIサービスのリスク低減を検討するリスクチェーンモデルの提案」
実践編:リスクチェーンモデルと採用AI
オンラインイベント「AIサービスに対するリスクベースアプローチ:リスクチェーンモデルと採用AI」(2021/7/15)
イベント動画(前半)
イベント動画(後半)
リスクチェーンモデルの応用事例ウェビナー Risk Chain Model to Practice
- 「富士通AI倫理影響評価(AIEIA)との合同ケース検討」 (2022/10/7)
- 「NECアカデミー for AIでの人材育成プログラム」 (2022/12/6)
- 「柏の葉アーバンデザインセンター(UDCK)での市民とのまちづくりワークショップへの活用」(2023/3/6)
ケース事例
※あくまでサンプルとしてのケース検討例であり、特定の企業のAIサービスに対して問題提起を行うものや保証を与えるものではないことにご留意ください。
Case11.プラント運転における制御ガイドAI(2022/02)
※本ケースは、AIビジネス推進コンソーシアム「倫理ワーキンググループ成果物」ユースケース1で取扱われており、千代田化工建設㈱より助言をいただきながら一般的な事例として検討を行った。(注:千代田化工建設㈱での実ケースを直接評価したものではない)。参考URL:https://aibpc.org/?p=1523
リスクチェーンモデル活用事例
- 「東京大学×NECが文理融合で考えるAIの社会実装」(NEC, 2021/6/9)
- 「倫理ワーキンググループ成果物の一般公開について」(AIビジネス推進コンソーシアム, 2021/8/31)
- 「AIのリスクを考える! 対応する! RCModelを使ったAIリスクマネジメント」(NEC, 2021/9/8)
- (レポート)みんスタ「AIカメラ編」DAY2 街の課題の可視化と解決のためのアイデア創出(UDCK、2022/6/7)
- (レポート)みんスタ「AIカメラ編」DAY3 リスクチェーンモデルでAIカメラの「リスク」と「対策」を考える(UDCK、2022/7/14)
AI公平性ツールキット
AIサービスや製品にとって重要なリスクの一つに公平性があります。AIが不公平な判断を下さないためには、公平性の評価指標やツールを正しく理解して利用することが必要です。
本研究会では、AI公平性に関するツールの調査を行いました。
Fairness-Aware Machine Learning Toolbox(ダウンロード)
本調査結果は、2022年度 人工知能学会全国大会(第36回)の発表資料です。
- 「日本の産業構造を踏まえたAIの公平性に関する企業の役割の考察」(原嶋瞭、江間有沙、井上彰、神嶌敏弘、松本敬史、木畑登樹夫)
- オンラインイベント「AI公平性のガバナンス―日本企業が直面する課題とその対策―」開催(2022/7/19)