国際シンポジウム:AIガバナンスとセキュリティ
-
日程:2019年12月06日(金)
-
時間:14:00-16:00
-
会場:東京大学 情報学環・ダイワユビキタス学術研究館 大和ハウス石橋信夫記念ホール(3階)
地図 -
主催:
東京大学未来ビジョン研究センター
-
共催:
東京大学科学技術イノベーション政策の科学教育・研究ユニット(STIG)
東京大学次世代知能科学研究センター -
言語:
日本語・英語(日英同時通訳あり)
-
定員:
100名
現在、人工知能(AI)をはじめとする情報技術のネットワークが、医療、金融、戦争などのクリティカルな場面において、意思決定支援として用いられはじめています。その時、人と機械の役割や責任はどのようになっているのでしょうか、またどのようであるべきなのでしょうか。
また技術はグローバルに展開をするため、現在、OECDなどの国際的なレベルでAIをどのようにガバナンスするかの議論を開始しています。日本も内閣府が「人間中心のAI社会原則」を発表しましたが、国際的な議論において日本の政府、産業、そして大学はどのような取り組みができるでしょうか。
本イベントでは、国際政治学の立場から戦争などにおける人と機械の責任について論じられているトニ・アースキン教授(オーストラリア国立大学・ケンブリッジ大学)と、経済協力開発機構(OECD)の、AIに関する専門家会合(AIGO: AI expert Group at the OECD)の専門会員も務めるDr. テイラー・レイノズル(MIT)をお招きして話題提供を行っていただいたのち、本学の教員も交えてAIガバナンスとセキュリティの課題と展望について議論します。
-
14:00開会挨拶
城山英明教授(東京大学公共政策大学院/未来ビジョン研究センター)
-
14:05講演1:トニ・アースキン教授(オーストラリア国立大学)
「失われた責任?戦争におけるAI、制約、意思決定のアウトソーシングの結果」
-
14:35講演2:Dr. テイラー・レイノルズ(MIT)
「AIのセキュリティとガバナンス-あらゆる開発段階における各国の挑戦」
-
15:05パネルディスカッションと質疑応答
-パネリスト:トニ・アースキン教授、Dr.テイラー・レイノルズ、國吉康夫教授、城山英明教授
-司会:江間有沙特任講師(東京大学未来ビジョン研究センター) -
15:50閉会挨拶
國吉康夫教授(東京大学情報理工学系研究科/次世代知能科学研究センター)
トニ・アースキン教授
人間の介入なしに誰を標的にして殺すかを決定することができる武器―いわゆる 「自立型致死兵器」 、あるいは「殺人ロボット」 ―の可能性は、政策関係者と研究者の間で大きな注目を集めている。先進的な人工知能システムは壊滅的な被害や失敗をもたらす可能性が非常に高く、それを制御したり修正したりするには、国家や人類一般の力では不可能だとよく言われている。解決策としては、完全に自律的な兵器開発の一時停止と、その使用を先制的に禁止する国際的な取り決めがある。潜在的な将来の脅威について何をすべきかの議論は広範囲で重要である。しかし残念なことに、この 「殺人ロボット」 という単語に注目が集まってしまうことで、現在の人工知能がもたらす、より差し迫ったリスク―倫理的、政治的、さらには地政学的にも深い意味を持つリスク―を覆い隠してしまうという問題がある。
今回の話題提供の議論は、既存のAI主導の軍事的兵器(特に人間が意思決定に関与しつつもターゲットの設定支援をする自動化兵器)が、「われわれがどのように計画し、どのように行動し、自分たちを責任あるエージェントと見なすか」の認識を変えてしまうことで、現在、国際的に支持されている武力行使の際の寛容の原則を損なう恐れがあるという懸念に端を発している。戦争時に人工知能に依存することが、私たちが個人的にも集団的にも、抑制の責任をどのように理解し、実行するかにどのように影響するかを問う必要がある。この問題は、学術、軍事、公共政策、メディアの世界では議論されていないが、重要である。
Dr. テイラー・レイノルズ
世界の経済システムは対照的だ。我々は、貧困率の上昇、貿易摩擦、世界的な投資の減速などの数十億の人々の生活水準を脅かすような重大な経済リスクに直面している。同時に、機械学習やロボット工学のような分野における技術の飛躍的進歩は、高効率低コストに改善されたサービスを消費者に提供する。しかし、これらの技術は、破壊的な経済的・社会的変化や、新たなセキュリティやプライバシーの問題も引き起こす。こうした対抗勢力の中で、政策立案者は最終的に、より多くの人々により良い経済成長と社会的利益をもたらしたいと考えている。
このため、政策立案者は、すべての人々の経済成長を支え、社会福祉を向上させるために、コンピューティング技術の利点をどう社会として活用できるかという疑問を投げかける。先進国と開発途上国の両方の政策立案者は、新たな規制に機敏に対処するための十分な準備ができているだろうか。これらの新しいシステムを構築する際に、技術者は長期的な影響を十分に考慮できていると確信できるだろうか。これらの目標を達成するために、政府、技術者、研究者はどのように協力できるだろうか。
トニ・アースキン教授
オーストラリア国立大学(ANU)国際政治学教授、コーラルベルアジア太平洋問題大学院長。またケンブリッジ大学リバーヒューム知的未来センター(Leverhulme Centre for the Future of Intelligence)アソシエート・フェロー。専門は国際関係理論、科学技術の特に戦争における責任論。さらに詳細は英語サイト を参照。
Dr. テイラー・レイノルズ
マサチューセッツ工科大学(MIT)コンピュータ科学と人工知能研究室(CSAIL)教授、インターネット政策研究イニシアチブの技術政策ディレクター。経済協力開発機構(OECD)の、AIに関する専門家会合(AIGO: AI expert Group at the OECD)の専門会員も務める。専門は国際AI政策やサイバーリスク。さらに詳細は英語サイトを参照。
2019年12月6日(金)、大和ハウス石橋信夫記念ホールにて「国際シンポジウム:AIガバナンスとセキュリティ」が開催されました。現在、人工知能(AI)をはじめとする情報技術のネットワークが、医療、金融、戦争などのクリティカルな場面において、意思決定支援として用いられはじめています。その時、人と機械の役割や責任はどのようになっているのでしょうか、またどのようであるべきなのでしょうか。また技術はグローバルに展開をするため、現在、OECDなどの国際的なレベルでAIをどのようにガバナンスするかの議論が開始されています。日本も内閣府が「人間中心のAI社会原則」を発表しましたが、国際的な議論において日本の政府、産業、そして大学はどのような取り組みができるでしょうか。
本イベントでは、国際政治学の立場から戦争などにおける人と機械の責任について論じられているトニ・アースキン氏(オーストラリア国立大学・ケンブリッジ大学)と、経済協力開発機構(OECD)の、AIに関する専門家会合(AIGO: AI expert Group at the OECD)の専門会員も務めるテイラー・レイノズル(MIT)氏をお招きして話題提供を行っていただきました。最後には、本学の教員も交えてAIガバナンスとセキュリティの課題と展望について議論しました。
最初に、アースキン氏が「失われた責任?戦争におけるAI、制約、意思決定のアウトソーシングの結果」と題して発表されました。現在、人間の介入なしに誰を標的にして殺すかを決定することができる兵器、いわゆる 「自立型致死兵器」 、あるいは「殺人ロボット」 が、大きな注目を集めています。しかし将来的に出てくるだろう技術の議論がある一方で、人間が意思決定に関与しつつも、ターゲットの設定などの支援をする自動化兵器はすでに使われています。そのような兵器を用いることは、我々自身の意思決定や行動にどのような影響をもたらすのか、人の責任の考え方にどのような変化をもたらすのかについて懸念を提示しました。
アースキン氏は戦争における道徳的な責任を持つ主体(エージェント)として、(1) 人間、(2) 国や国際機関などの組織、そして(3) AIなどを搭載した知的な人工物の3種類で論点を整理しました。話題提供では特に3番目の知的な人工物が戦争に用いられることによって「誤った責任観念」が醸成されてしまわないかを問題提起しました。問題には、技術の意思決定がブラックボックスであるというリスク、機械が意思決定を行うことによって戦争の抑制力を引き下げてしまうリスクのほか、人間自身が機械を擬人化して機械そのものが人間のような責任を取れるとみなしてしまう「誤った責任の在り方」を取ってしまうというリスクなど、様々なリスクがあります。
特にアースキン氏は人間がAIやロボットを擬人化する、ロボットに共感してしまうことに懸念を示しています。ある軍事実験において、地雷撤去ロボットが、手足をもがれながらも進んでいく様子を見ていた大佐が、その光景が「非人道的である」という理由で実験の中止を呼びかけたという事例を紹介しました。軍事ロボットに共感をしてしまう、機械に配慮してしまうことは、戦場においてはリスクでしかありません。このような観点から、戦場におけるAI利用の道徳的行為者と責任の在り方について、哲学的な観点からの論考が重要であるとして発表を締めくくりました。
二人目の話題提供者であるレイノルズ氏は、現在MITでAIを含む技術と政策の境界領域において学際的な研究を推進しています。MITには技術研究者以外にも、技術政策に関心を持っている人が集まっており、現在はAIのもたらす恩恵と、それがもたらすリスクや課題についての議論が行われています。現在の社会は少子高齢化、貿易摩擦や貧困、所得の不平等など様々な課題があります。AIはその問題を解決するために用いられます。例えば、AIは効率改善に役立てることができます。レイノルズ氏は以前パリに住んでいたことがありましたが、タクシー乗り場で2時間待つということがよくあったそうです。それがUberのようなライドシェアリングサービスの登場により、待ち時間が激減したというエピソードを紹介されました。またヘルスケア領域でもAIの貢献は目覚ましいものがあります。
一方で、AIにも課題があります。AIがもたらす結果に説明可能性がない場合もありますが、説明可能ではなくても、正確性の方がより重視される場合もあるでしょう。例えばレイノルズ氏は、「理由は説明できないけれど、ガンかどうかが確実にわかる」というのであれば、説明可能性よりも正確性のほうを重視するだろうし、一方で入学試験においては、説明可能性の方が重視されるだろうと説明しました。
そのほかにはバイアスの問題があります。AIモデルのトレーニング時にどのようなデータを使うかで、結果にバイアスが生じます。例えば、世界には様々な結婚式のスタイルがあります。西洋の人はウェディングドレスを着ていれば結婚式だとわかりますが、他文化の結婚式の衣装や慣習がタグ付けされていなければ、結婚式だと判断ができません。また、顔認識システムでは特定の肌の色やトーンの人たちが認識されなかった事例もあります。
そのほかプライバシーやセキュリティなど様々な課題を乗り越えながら、AI実装を推進していくことが重要になります。レイノルズ氏は特に、AIの利活用において先進国だけではなく開発途上国の支援にも使っていくべきだと指摘しました。
パネルディスカッションでは東京大学の城山英明氏と國吉康夫氏を交えて、人と機械からなる複雑なシステムの責任配分の在り方や、AIがもたらす技術的、法的、倫理的な課題について対応できる人材の育成について議論が展開しました。東京大学にも國吉氏がセンター長を務める次世代知能科学研究センターや、城山氏が副センター長を務める未来ビジョン研究センターが、AIのもたらす社会的な課題を研究しています。簡単に答えが出る問題ではないため、異分野、異業種のステークホルダーを交えながら議論をしていくことが重要となります。今後、オーストラリア国立大学やMITとも連携をしながら、この課題について取り組んでいきたいとの話でパネルディスカッションは締めくくられました。
司会・文責:未来ビジョン研究センター 江間有沙