-
No.37
技術ガバナンス研究ユニット
透明性を起点としたAIの適正性確保に向けた提言
No.37
技術ガバナンス研究ユニット
エグゼクティブサマリー
透明性は、AIガバナンスにおける基盤的構想であり、その適正性を確保するために必要不可欠です。AI透明性を促進する仕組みとして、法規制型アプローチとインセンティブ型アプローチの2つがありますが、主要国でAIガバナンスに関する姿勢が異なり、法規制の国際的整合性を図ることが短期的には難しい現状を背景に、より柔軟なインセンティブ型アプローチが注目されています。そして、法規制の観点からは見落とされがちですが、機関投資家もAI透明性について重要な役割を担っています。2023年以降にAI透明性に関する株主提案が増加したことはその例です。
インセンティブ型アプローチの観点からAI透明性に関する施策について整理すると、ビジネスユーザー向けの限定開示と規制当局向けの限定開示だけでなく、機関投資家などが取得可能な一般公開情報も重要であることがわかります。そのため、企業が自主的に一般公開している「透明性レポート」の取組みをさらに促進すべきであると考えます。
この点において、2023年の先進国首脳会議(G7)において日本が議長国として立ち上げた国際枠組み「広島AIプロセス (HAIP: Hiroshima AI Process)」における報告枠組み(Reporting Framework)は注目に値します。
こうした検討結果を踏まえて、日本政府に対して、以下の7点を提言します。
1. AI透明性に関する既存法令の解釈明確化と「法の欠缺」の調査推進
AIの透明性に関する多くの問題には現行法で一定の対応が可能だが、AI固有の状況への解釈が不明確な場合がある。そこで、解釈適用の明確化を提案する。また、現行法では対応しきれない新たなリスクにより法制度的空白も生じ得る。そのため、AI推進法に基づく調査を推進し、制度整備を行うことを提案する。
2. 政府調査の適正手続きに関する指針策定
日本政府がAI事業者などに調査協力を求める際、法の支配や適正手続きといった基本原則を守り、恣意的な権限行使を避けるべきである。そこで、ガバメントアクセスに関する国際的なガイドラインなどを参照しながら、政府自身の透明性を高める指針を策定することを提案する。
3. AI透明性を進展させる経済的インセンティブの強化に向けた制度構築
AI透明性に関する事業者の取組みを促進すべく、経済的インセンティブを強化することを提案する。具体的には、ESG投資などの非財務評価にAI透明性について反映する仕組みの構築、「AIトラスト銘柄」の創設、公共調達における加点、消費者一般に対するAIリテラシー教育の支援などが考えられる。
4. 企業の自己宣言に対する履行確保メカニズムの導入に関する検討
企業が自主的に公開する透明性レポートなどを「社会への自己宣言」と位置づけ、その履行状況を第三者機関が確認するメカニズムの導入を提案する。虚偽や欺瞞があれば是正対象とすることで、透明性を装った不誠実な行為を防ぎつつ、企業の自由を尊重した実効的な説明責任を確保できる。
5. 広島AIプロセス報告枠組みの活用による相互運用性確保
国際的な整合性を確保するため、海外の主要なAI事業者が既に参加する広島AIプロセス報告枠組みを国内制度として活用することを提案する。これにより、国外事業者にも透明性確保を求めやすくなり、国内企業との不公平を防ぎながら、実効性を高められる。既存の質問票を日本語化することを基軸としつつ、日本の実情に合わせた補足質問を加えることも検討すべきである。
6. 国内利用者のアクセス性を高める透明性レポートの統合プラットフォーム整備
AI事業者が公開する透明性レポートを集約し、検索・閲覧できるプラットフォームを整備することを提案する。機関投資家や市民社会による分析が容易になり、HAIP不参加企業も含めた包摂的なエコシステムを構築できる。また、AI透明性に関する知見共有のためのコミュニティ形成を支援すべきである。さらに、国内外のベストプラクティスを周知・顕彰するイベントを開催することも提案する。
7. AI透明性に関する国際的「クロスウォーク」と相互承認の推進
国際的な相互運用性を高めるべく、各国の透明性基準を比較し対応関係を整理する「クロスウォーク」を行うことを提案する。これにより、AI事業者が複数の基準に沿って対応しやすくなることが期待できる。さらに、HAIP報告枠組みでの透明性レポートを各国規制当局への報告として相互承認する仕組みを検討することも推奨する。
この政策提言は、東京大学未来ビジョン研究センター 技術ガバナンス研究ユニットの研究成果の一つです。全文は以下よりダウンロードいただけます。