• 政策提言

    No.21

    技術ガバナンス研究ユニット

AIガバナンス協調への道筋 : G7サミットに向けた政策提言

エグゼクティブサマリー

人工知能(AI)は、私たちの生活や働き方に多大な影響をもたらす。イノベーションが大きく期待される一方、AIの開発や利活用に伴うリスクは無視できない。

2016年、日本はG7伊勢志摩サミット議長国として、香川・高松情報通信大臣会合でAI研究開発の原則となるガイドライン案を提案した。この案はAIガバナンスの必要性に関する国際的な議論につながった。その後のG7サミットでも議論は継続され 、OECDのAI原則をはじめとして国際機関、各国・地域、企業、業界団体や市民団体といった組織も現在、AIに関する原則を策定している。

現在、AI原則を実践に落とし込むため、数多くのリスク評価ツールに加え、いくつかの主要国や地域ではAI利用の規制法案が提案されている。AIを利活用する国や地域、応用分野が拡大する中、各国や地域、応用先の文脈に沿った形でこれらのツール及び規制の枠組みを展開できるような国際的な協調が求められている。

2023年に再び日本でG7サミットが開催される。2016年に日本が提案したガイドライン案が、その後の国際的な議論につながったように、今回のサミットもAIガバナンスの今後の展望を描き、国際協調への道筋をつける重要な役割が期待される。近年話題となっている生成AIも含め、AIの利活用の拡大が法的、倫理的な議論を喚起しているなか、国家的、地球的なレジリエンスの実現のためのガバナンスが求められている。また、人と社会へのリスクを低減しつつも、AIによるイノベーションを促進するガバナンスへの在り方に対する社会的な関心も高い。

そこで本稿は、G7が尊重すべきAIガバナンスに関する基本的な2つの方針と、国際的に協調を進めるべき4つの具体的な活動を提案する。

基本方針

  1. 共有する基本的価値の遵守:AI技術の開発と利用にあたっては、AI原則で共有している基本的人権や民主主義的価値を遵守するべきである
  2. 応用先の文脈の尊重:AI原則を実践に落とし込むにあたっては、共通性を可能な限り担保しつつも、AI技術が利用される分野や地域など応用先の制度的、社会的、文化的な文脈を尊重するべきである

国際的な協調を進めるべき活動

i. 国際標準の策定と採用:国や地域、組織を超えて責任ある安全なAIの設計、開発、利用や運用を促進するためにベストプラクティス及びインシデント事例を共有することに加え、AIのライフサイクルにおけるリスク評価やマネジメントの枠組みに関する国際標準を策定し、可能な限り採用していくべきである

ii. 人間-AI協調の研究、政策と実践の推進:AI技術が急速に進展し人間とAIの協調作業領域が広がる中、人間と機械の協調作業における特性に関する研究、政策と実践を推進していくべきである

iii. AIガバナンスと利用のリテラシーの向上:責任あるAIの開発と利活用、AIガバナンスの議論と実践に必要なスキルを持つ人々を教育、訓練するとともに、利用者のリテラシー向上を図るべきである

iv. 議論の場の形成:AI技術が急速に進展するなか、情報共有や協調的な行動のためのマルチステークホルダーによる議論をアジャイル(迅速)に反映できる場の形成を支援するべきである

この政策提言は、東京大学未来ビジョン研究センター 技術ガバナンス研究ユニットの研究成果の一つです。全文は以下よりダウンロードいただけます。