人工知能(AI)サービスや製品の社会実装が拡大する一方で、AIの信頼性や透明性に関する問題が課題となっており、各国・企業においてガイドライン策定やツール開発などの様々なアプローチが開発されています。しかし多くのケースにおいて、下記のような課題から各アプローチを十分に実践できていない状況があります。
- AIサービス毎に重要なリスクが異なる
- AIモデルだけではリスクを十分に対応し続けることができない可能性がある
- ユーザーを含む人間がリスク要因になる可能性がある
これらの課題を解決するためには、AIサービスや製品にとって重要なリスクは何なのか、誰がそのリスクに責任を持つのか、どのような評価指標やツールを使っていくのかを考えるためのフレームワークが必要です。
本研究会は、東京大学とデロイトトーマツリスクサービス株式会社の共同研究プロジェクトとして運営され、東京大学の研究グループが開発したリスクチェーンモデル(RCModel)などを用いて、具体的な事例の調査・研究を実施します。
また日本電気株式会社の「AIの倫理・法制度に関する研究」やAIビジネス推進コンソーシアムの「AI倫理WG」をはじめとする様々な組織や企業から事例提供等の協力をいただき遂行しており、AIの企画・開発・提供・利用に関するリスクを関係者間で考えるため、誰でもが使えるプラットフォームの形成を目指しております。
なお本研究会は、公益財団法人トヨタ財団D18-ST-0008「人工知能の倫理・ガバナンスに関するプラットフォーム形成」の一環として実施するものです。
リスクチェーンモデルの使い方
政策提言「AIサービスのリスク低減を検討するリスクチェーンモデルの提案」
実践編:リスクチェーンモデルと採用AI
イベント動画(前半)
イベント動画(後半)
オンラインイベント「AIサービスに対するリスクベースアプローチ:リスクチェーンモデルと採用AI」開催(2021年7月15日)
ケース事例
※あくまでサンプルとしてのケース検討例であり、特定の企業のAIサービスに対して問題提起を行うものや保証を与えるものではないことにご留意ください。
Case11.プラント運転における制御ガイドAI(2022/02)
※本ケースは、AIビジネス推進コンソーシアム「倫理ワーキンググループ成果物」ユースケース1で取扱われており、千代田化工建設㈱より助言をいただきながら一般的な事例として検討を行った。(注:千代田化工建設㈱での実ケースを直接評価したものではない)。参考URL:https://aibpc.org/?p=1523
RCM活用事例
「東京大学×NECが文理融合で考えるAIの社会実装」(NEC, 2021/6/9)
「倫理ワーキンググループ成果物の一般公開について」(AIビジネス推進コンソーシアム, 2021/8/31)
「AIのリスクを考える! 対応する! RCModelを使ったAIリスクマネジメント」(NEC, 2021/9/8)
AI公平性ツールキット
AIサービスや製品にとって重要なリスクの一つに公平性があります。AIが不公平な判断を下さないためには、公平性の評価指標やツールを正しく理解して利用することが必要です。
本研究会では、AI公平性に関するツールの調査を行いました。
Fairness-Aware Machine Learning Toolbox(ダウンロード)
本調査結果は、2022年度 人工知能学会全国大会(第36回)の発表資料です。
「日本の産業構造を踏まえたAIの公平性に関する企業の役割の考察」(原嶋瞭、江間有沙、井上彰、神嶌敏弘、松本敬史、木畑登樹夫)