人工知能(AI)サービスや製品の社会実装が拡大する一方で、AIの信頼性や透明性に関する問題が課題となっており、各国・企業においてガイドライン策定やツール開発などの様々なアプローチが開発されています。しかし多くのケースにおいて、下記のような課題から各アプローチを十分に実践できていない状況があります。
- AIサービス毎に重要なリスクが異なる
- AIモデルだけではリスクを十分に対応し続けることができない可能性がある
- ユーザーを含む人間がリスク要因になる可能性がある
これらの課題を解決するためには、AIサービスや製品にとって重要なリスクは何なのか、誰がそのリスクに責任を持つのか、どのような評価指標やツールを使っていくのかを考えるためのフレームワークが必要です。
本研究会は、東京大学とデロイトトーマツリスクサービス株式会社の共同研究プロジェクトとして運営され、東京大学の研究グループが開発したリスクチェーンモデル(RCModel)などを用いて、具体的な事例の調査・研究を実施します。
また日本電気株式会社の「AIの倫理・法制度に関する研究」やAIビジネス推進コンソーシアムの「AI倫理WG」をはじめとする様々な組織や企業から事例提供等の協力をいただき遂行しており、AIの企画・開発・提供・利用に関するリスクを関係者間で考えるため、誰でもが使えるプラットフォームの形成を目指しております。
なお本研究会は、公益財団法人トヨタ財団D18-ST-0008「人工知能の倫理・ガバナンスに関するプラットフォーム形成」の一環として実施するものです。
リスクチェーンモデル(RCModel)
AIを使ったシステムやサービスは、信頼性や透明性の確保が重要とされています。
世界各国では様々な原則やガイドライン作り、チェックリストなどが作成されています。その原則を実践に落とし込んでいく方法として、開発したAIガバナンスのためのフレームワークです。
AI公平性ツールキット
AIサービスや製品にとって重要なリスクの一つに公平性があります。AIが不公平な判断を下さないためには、公平性の評価指標やツールを正しく理解して利用することが必要です。AI公平性に関するツールの調査を行った資料を公開しています。
お知らせ