• 政策提言

    No.23

    技術ガバナンス研究ユニット

AI の責任ある展開に向けて
広島AIプロセスへの政策提言

エグゼクティブサマリー

機械学習技術を中心とする人工知能(AI)技術が普及してきたことに加え、様々なコンテンツを生成する生成AIが、多くの人に広く利用されることにより、生活や働き方に改善やイノベーションの期待が高まった一方、AIの適切な設計、開発、提供、利用の必要性が再確認された。AIは社会の中で学習し展開されるため、開発者、提供者、利用者、公的機関や社会全般を含む包括的なAIガバナンスの構築が必要である。透明かつ公平な規律に基づくことで、イノベーションの促進とリスクの緩和を両立する枠組みの共有が求められている。

広島AIプロセスの基本方針の提案

1. AIの責任ある展開のための議論の場の形成

基本的人権や民主的価値といった共通する価値を遵守するため、生成AIがもたらす様々な可能性と課題を踏まえ、迅速かつ継続的にマルチステークホルダーで議論する場の形成を支援するべきである。

2. 枠組み間の「相互運用性」推進とAI規律の相互尊重

G7広島サミットで議論された「相互運用性」は、「標準」と「枠組み間の相互運用性」の二側面で考えられる。枠組み間の相互運用性とは、異なる国・地域や組織、分野のAIに関する規律を尊重しながらも、共通の目標を達成するための考え方である。規律には様々な分類があり、新技術にすべて新しい規律が必ずしも必要ではない。しかしAIサービスと既存法の適用関係が不明確な時や、社会的弱者を保護する等の目的のためには、各国・地域や分野において新立法を含めた対応を必要に応じて検討するべきである。

3. AIの展開における責任主体と対応策

AIの責任ある展開を推進するには責任主体を明確化し、各々に適切な対応策を整理すべきである。特にAI設計から利用に至る一連のプロセスにおいて、異なる組織や個人が関与する場合、責任の所在が不明瞭になりかねない。そのため、AIの開発から提供に関わる事業者間取引では、契約による適切性確保が重要である。また、適切な取引が確保されるような監視する仕組みも構築するべきである。一方、AI提供者と消費者間の取引では、提供者が適切な事前・事後対策を取るほか、AI 利用者も適切なリテラシーを身に着けることによって、法規制とは別の規律(市場・投資・評判等)によるガバナンスを利かせることも可能となる。また補償制度の構築等の救済措置を必要に応じて構築するべきである。AIライフサイクルが国や組織を超えて展開することを踏まえ、このような各主体の責任と対応策の透明性を高める議論を推進していくべきである。

この政策提言は、東京大学未来ビジョン研究センター 技術ガバナンス研究ユニットの研究成果の一つです。全文は以下よりダウンロードいただけます。