国際シンポジウム:AIと民主主義

  • 日程:
    2021年03月25日(木)
  • 時間:
    18:00-20:00 JST / 10:00-12:00 CET
  • 会場:
    オンライン開催(Zoomウェビナー)
  • 言語:

    日本語・英語(同時通訳あり)

  • 主催:

    東京大学未来ビジョン研究センター
    フランス国立社会科学高等研究院・日仏財団

  • 参加費:

    無料

  • 参加申込み:

    要事前申込み。参加をご希望の方は、下記の専用ウェブサイトよりお申込みください。
    ※外部サイトのイベント情報ページにリンクしております。

概要

社会的な分断や格差が問題となる中、人工知能(AI)をはじめとする情報技術はその溝を大きくする原因ともなれば、あるいは逆に民主主義に資するツールとなる可能性もあります。
AIが意思決定を支援するだけではなく、倫理的、政治的な判断にまで介入をするような設計となったとき、民主主義における人権や持続可能な社会といった価値はどのように拡張されるのでしょうか。本シンポジウムではフランスと日本の研究者らの議論を通じて、AIと民主主義をテーマに問題を提起し、論点を深堀していきます。

問合せ先

東京大学未来ビジョン研究センター
技術ガバナンス研究ユニット事務局
ifi_tg★ifi.u-tokyo.ac.jp (★→@)

はじめに


2021年3月25日、東京大学未来ビジョン研究センターとフランス国立社会科学高等研究院・日仏財団の共催で「国際シンポジウム:AIと民主主義」をオンライン開催しました。
社会的な分断や格差が問題となる中、人工知能(AI)をはじめとする情報技術はその溝を大きくする原因ともなれば、あるいは逆に民主主義に資するツールとなる可能性もあります。AIが意思決定を支援するだけではなく、倫理的、政治的な判断にまで介入するような設計となったとき、民主主義における人権や持続可能な社会といった価値はどのように拡張されるのでしょうか。本シンポジウムでは冒頭で東京大学の江間が挨拶を行い、話題提供者であるフランスと日本の研究者との議論を通じて、AIと民主主義について考えていきたいと全体の概要を紹介しました。

 

話題提供


「民主主義におけるAIと人権」-ヴァネッサ・ヌロック氏
パリ第八大学准教授でありユネスコの人工物と生物の倫理会議議長でもあるヌロック氏は、最初にフランスにおける民主主義の根幹である1789年の「人間と市民の権利宣言(人権宣言)」を紹介しました。この人権宣言は、専制的な政治的支配を防ぐこと、差別を防ぐこと、そして代表制民主主義的を可能にすること、という3つの主要な考え方を定着させるものです。この人権宣言を端緒に、第二世界大戦後には人権の国際化が始まり、言論の自由、結社の自由、宗教の自由、信教の自由など様々な自由の宣言がされてきました。

AIやサイバー空間を考える上でも人権は重要です。AIは果たして人権に対する意識を改善させるものなのか悪化させるものなのか。AIを用いることで、感情ではなく情報を基にしたより公平な意思決定につながれば、人権は改善される可能性があります。一方、データバイアスによって、マイノリティや貧しい人たち、ジェンダーや人種に対してバイアスがかかることはAIによる人権への脅威です。クロス・レファレンシングに使われるなどプライバシーが守られていないことも重要な問題です。しかし、AIが人権意識を向上させるのか、悪化させるのかという問題を超えて、私たちは考えなければならないでしょう。

AIが刑事司法や与信判断、雇用判断に使われている国もあります。生活や仕事などにかかわる重要な判断にバイアスがかかったAIが使われると、少なくとも以下の3つの観点から問題となるとヌロック氏は指摘します。バイアスがあること自体が問題なのではなく、(1)バイアスがかかったデータを材料にしてAIが出した結果を客観的と勘違いしてしまうこと、(2)客観的だから公平だと思い込んでしまうこと、(3)公平だから倫理的だと勘違いしてしまうことです。つまり、事実を規範とし、客観を公平とし、公平を倫理とするのです。

事実を規範に還元することは、「自然主義的誤謬(naturalistic fallacy)」と呼ばれています。この言葉は、20世紀初頭にイギリスの哲学者ジョージ・エドワード・ムーアが著書『倫理学原理(PRINCIPIA ETHICA)』で紹介し、フランスの社会学者ピエール・ブルデューが著書『男性支配(Masculine Domination)』で発展させたものです。ブルデューはその著書の中で、男性の支配のように、ある種の支配関係が社会的なものであっても、それが自然であると言ってしまうことを指摘しています。

これと同じ現象が、AIでも起きています。AIのバイアスは人工的に作られたものであり、社会的な構造によって生じます。これは自然に起きていることではありません。ヌロック氏は自然主義的誤謬を参照して人工的な誤謬という言葉を提案しました。私たちはそれに気が付かないだけではなく、人工的な事実が道徳的な規範や権利になると思い込んでしまうのです。

ヌロック氏はこの考えに基づく事例を二つ紹介しました。一つは日本での事例です。2018年の多摩市長選挙でAIが「候補者」として出てきました。その際、「このAIはより公平であろう」という議論がありました。政治は、公平性に頼ることもありますが、人の生活を理解することや共感など、他の根拠に頼ることもあります。この例は、政治にAIを導入することで、政治とは何か、政治はどうあるべきかを密かに再定義することにつながる可能性を指摘しています。

もう一つの事例は自動運転に関する道徳的なジレンマがでてきてしまうことです。MITの「モラル・マシーン」という調査があります。自動運転車が右にハンドルを切れば5人、左に切れば2人を轢く状況になったとき、どちらにAIはハンドルを切るべきかというトロッコ問題を扱っています。この調査には問題が二つあります。一つは倫理性をジレンマまで還元してしまっていることです。もう一つの問題は、「モラル・マシーン」をプログラミングすることで、倫理がアルゴリズムに還元されるかもしれないと考えてしまうことです。これは先ほどの自然主義的誤謬で指摘した、事実が規範となってしまうのと同じ構図です。

しかしアメリカの哲学者ジョン・ロールズが言っているように、倫理や政治を考えるときには、理屈が通っていて合理性(rational)なだけでは判断できません。理にかなっていて納得ができるか(reasonable)が重要です。ラショナルとリーズナブル、両方をもって政治と倫理を考える必要があるとヌロック氏は指摘します。両方を持つためには注意深くある必要があり、そのためには人間を意思決定の輪の中に入れておく必要があります(human-in-the-loop)。しかしこれだけでは不十分かもしれません。

ここでヌロック氏の話は、最初のフランス人権宣言に戻ります。フランス革命時に出された人権宣言は、自分の運命、政治や倫理について自分自身が考えなければならないと提唱しました。ここから、私たちの人生の意思決定、つまりは政治をAIに権限移譲することは有用でもなく、また倫理性があるとも言えないとヌロック氏は述べます。もし権限移譲をするのであれば、倫理や政治を再考する必要があります。

では、果たして政治や倫理にAIを関与、特にAIが意思決定することに関与させるべきでしょうか。これを考えるにあたって、私たちは未来世代に対して責任を持っていることを自覚すべきだとヌロック氏は提案します。そしてアメリカの哲学者ジョアン・トロントが提唱するケアリング・デモクラシーを紹介しました。ケアの要素はいくつかありますが、注意深さが重要です。政治や倫理に絡む分野でAI開発するときは注意深くあるべきです。人とAI、社会は相互作用しており、私たちの決断が未来社会に多いに影響するからです。

ヌロック氏は最後に、AIを嫌ったり恐れたりする必要はないが、AIを盲目的に信じて、技術的にAIがすべてを解決してくれると信じるべきでもない-特に倫理的、政治的な分野では-と述べました。どちらが良いか悪いかという白黒のつけることはできませんし、AIがそれ自体、民主主義を脅かすものであるということもありません。しかし、AIが人間に取って代わることはないので、AIとどのように共存していくかをよく考えることが重要である、というのが本日のメッセージであるとして講演を締めくくりました。

質疑応答では、AIのバイアスに関していくつか議論が行われました。ヌロック氏は、バイアスは常に悪いものではなく、また国によって価値観や社会システムが異なれば、受け入れられるバイアスも変わってくるだろうと指摘しました。そのためどのようなバイアスを社会として受け入れるかの討議が必要です。また、ある国がほかの国の文化や慣習に対して、自国と違うというだけでバイアスがかかっていると言ってはならず、文化的な多様性に尊敬の念を持つことが重要だと述べました。一方で、明らかに差別などにつながる分野にはAIを使ってはいけないと指摘されました。

 

「民主主義に対する真のAIの脅威とはなにか?概念的な整理」-井上 彰氏
続く東京大学の井上彰准教授の講演では、民主主義に対する真のAIの脅威を明らかにすべく、3つの類型、すなわち民主的道具主義、認識的民主主義と関係論的平等に基づく民主主義、が検討されました。

民主主義とは、セルフガバナンス、つまり自治です。民主主義では集団で意思決定することと、われわれが政治的決定に関わっていることが重要になります。何より、投票の平等によって民主主義の正統性が保証されます。

今回の話題提供をするにあたって2つの前提を井上氏は置きました。最初の前提は価値の多元主義です。AIを社会的な意思決定に用いる場合、政治的な手続きの正統性の問題と切り離して考えることはできません。価値が多元的である場合、そうした手続きをめぐる学術的議論が必要になります。

第二に、AIが適切に用いられるという前提を置きました。この前提に関しては異論のある人もいるかもしれません。ヌロック氏がすでに指摘されたように、AIはバイアスがかかった情報処理を行います。しかし、本前提を置くことでAIの民主主義に対する真の脅威がはっきりすると井上氏は述べました。

この二つの前提をもとに民主主義の3つの類型を考えていきます。最初の民主的道具主義は、基本的人権を充足するのが民主主義の役目だとする考え方です。基本的人権とは言論・移動・結社の自由などです。AIを使うことで人々の権利がより守られるのか、あるいは損なわれるのかが民主的道具主義では重要になります。つまり、AIを使うことによって、より多くの人の権利の充足が行えるのであればAIを使うべし、との結論になります。

例えば、現在日本では法案に虚偽の規定が入る問題が生じています。内閣法制局が、法案の中身を十分にチェックできていなかったのです。これに対して、民主的道具主義の立場に立てば、人間が全てチェックするには限界があるからAIを使えばよい、という話が出てきます。しかし一方で、AIによるデータ収集がプライバシーという基本的人権を侵害してしまうという点からは、民主的道具主義はAIを脅威と捉えます。

次の認識的民主主義の目的は真なる政治的決定を追求することです。これには二つの考え方があります。一つは正しさ理論(コレクトネス・セオリー)であり、手続き的に独立な真実を追求している限り、民主主義は正統であると考えます。もう一つは手続き的理論です。これは投票をはじめとする手続きの正しさ(真理らしさ)を重視する考え方です。手続き的理論に立つと、多元的社会において理にかなったあらゆる観点から、手続き的に納得できる決定に至るという点に、民主主義の価値があると考えます。

認識的民主主義は、専門家が中心となって動くシステムとも言えます。この考え方に基づくと、AIを用いて情報が足りていない人達に適切な情報を届けることで彼らの助けになることがあるかもしれません。しかしこれに関連して、アメリカの哲学者リチャード・アーネソンの有名な反論があります。彼は、私たちは実証的な証拠がなければ、専門家に支配を任せることはダメだとする判断を覆すことができない、と指摘しました。つまりAIがある特定の人たちに有利な情報を集めることに使われたら、それは専門家支配を勢いづけます。要するにAIは民主主義よりもエピストクラシー(専門家支配)に与するかもしれない、と井上氏は指摘しました。

最後の関係論的平等に基づく民主主義の観点からは、人は自分と他者の関係を平等にコントロールできることが重要になります。この考え方によると民主主義とは、政治的決定において誰も他の誰に対しても大きな支配力を持たないという点に基づいて、正当化されます。ヒエラルキーは関係的平等という理念に基づくべきだ、ということになります。この関係論的平等に基づく民主主義の考えに立つと、AIを用いたコミュニケーション技術によってマイノリティグループが政治活動に参加する助けになる場合、AIは有用と言えます。

また、日々の政治の中にマイノリティの人たちに関するトピックを入れることで、マジョリティの人たちの目に留まるようにもできるかもしれません。これは現在でもSNSにおけるマイクロターゲティング技術として使われています。関係論的平等に基づく民主主義にとっては、情報の非対称性が民主主義の脅威となる可能性があります。

最後に、井上氏は本日の話題提供は政治哲学的な観点からであり、現実の問題というよりは概念的な論点整理であると注釈をつけました。これらをもとに、どういったAIの脅威が道徳的に関係してくるのか、実用的に応用できるのかということを今後も考えていくことが重要だと述べて話を締めくくりました。

質疑応答では、AIが民主主義において危険なのかどうなのかという質問に対して、民主主義にもどのような理論的な立場に立つか、また道徳的実践をおこなうかによるところがあるので、一刀両断に応えることはできないと返答されました。また、認識的民主主義はポスト・トゥルースの時代ではどう考えればよいのかという質問に対しては、AIが民主主義を危機に陥れるかという問題定義以前に、民主主義そのものを正当化できるのか自体を現在考えなければならないと答えました。

 

アレクサンドル・ゲフェン氏からのコメント
パネルディスカッションに入る前に、CNRSのアレクサンドル・ゲフェン氏から二つの話題提供に対してコメントをいただきました。ゲフェン氏は、AIは民主化を支援する道具になる一方、権威主義の国に使われると人権侵害につながったり、非人間的な政府を作ってしまったりすることに懸念を示しました。

ゲフェン氏はこれに対して「人間のためのAI」という観点からの研究が始まっていると紹介しました。AIの基本的な原理原則を押さえたうえで、機械に何を意思決定させるかを考え、その意思決定の中に人間を入れておくことが重要です。そのためには、学際的な観点から、AIを何に使うことで意思決定がよりよくなるのかを考えていかなければなりません。

 

パネルディスカッション

話題提供者の強調点の違い

休憩をはさんだのち、東京大学の城山英明氏の司会のもと、パネルディスカッションが行われました。城山氏からはまずヌロック氏に対し、最初は基本的人権の話から始まったが、最後は対話や他文化への尊重が重要という話になっていたことに言及し、多元主義的な後半の話と前半の基本的人権の話の結びつきについて質問がありました。

ヌロック氏は、人権宣言はチェックリストではなく、なぜ人権を望むのか、その背後にある問題意識を人間が決めなければならないことを強調するために人権宣言の話から始めたと説明されました。自分自身で自分の運命を決める。その時に平等や無差別を重要な価値とする。この精神がフランス革命の中心でした。井上氏が指摘していたように民主主義にもいくつかの見方がある、とヌロック氏は指摘します。それを踏まえたうえで、大事なのは自分自身で重要だと考える権利を選んで決めること、そして未来世代についても考えていくことが大事であると返答しました。

城山氏は続いて井上氏に、ヌロック氏と井上氏の強調点の違いを質問しました。ヌロック氏はAIに埋め込まれたバイアスに問題があることを指摘しましたが、井上氏はAIが機能しているとの前提を置いたうえでAIの脅威を明らかにしようとしました。この点から、井上氏がAIのバイアス問題をどう考えているか質問しました。

井上氏は、バイアスの問題にあえて触れなかったのは、どのバイアスが実質的に問題になるかは、どのような視点から見るかに依存しているからだと答えました。バイアスはいつも悪いわけではなく、一元的には評価できません。今回、バイアスを議論する時の根本となる民主主義の類型に焦点を当てて議論したと説明されました。

これに対してヌロック氏も、政治的な理由でバイアスを持った方がいい場合もあると議論に加わりました。たとえば、恵まれない子供たちに奨学金を与えるのは、バイアスがかかっているといえますが、このような傾斜は必要とされる場合もあるでしょう。ただ、AIのバイアスはインプットデータ自体に問題があります。そのバイアスが増幅してしまう懸念があるので注意深くAIの開発は見ていかなければならないと指摘しました。

機械に何を権限委譲できるか
次の質問として城山氏は、何を機械に任せてはいけないかを質問しました。これに対し、井上氏はどのような権限委譲、官僚の分業が民主主義の形態にあっているのかが行政学や公共政策論において議論されてきたと指摘しました。これはAIに対しても同様であり、何がAIに委譲できるかは、ゲフェン氏が指摘するように学際的な研究が重要になるだろうと答えました。

ヌロック氏も何をAIに委譲できるかについては文化的な差があると留意したうえで、国際的な議論が重要であると指摘しました。また愛情をAIに権限移譲してはいけない、と去年の2月に日本に来た時に見たLOVOTというロボットの話を引き合いに出しながらしました。LOVOT自体はかわいらしく、子供も大好きになります。しかし、子供はLOVOTが好きでもLOVOTは子供を愛しているわけではないことに注意すべきだと指摘します。ヌロック氏はLOVOTを作ってはいけないとはいわないが、注意深く設計や表現すべきであり、たとえばAIが愛情を持てるといった表現をしてはいけないと述べました。

また政治や倫理の問題はAIには権限委譲はできないとも指摘しました。人間は完璧ではなく失敗もしますが、議論をしたり思いやりを持ったりすることができます。しかしAIは市民に対して思いやりを示すこと、議論をすることも参加することもできません。
ゲフェン氏は、このような議論に誰がかかわるかが重要であると述べました。現在、AIの開発に関わっているのは大企業だけではなく中小企業やスタートアップ企業もいます。AIが民主化され、潜在的に危険な目的に使えるAIが誰でも簡単に作れるツールやフレームワークを私たちは手に入れています。これを民主主義国家はどのように統治するのか、どのような国際法や国内法に頼るのかといった問題があると指摘しました。

ポストトルゥースとAI
最後に、城山氏は先ほど井上氏に質問されたポストトルゥースの話を振り返りました。AIは個人にターゲティングして情報を送ることができます。これは見たい情報だけを見る状態を引き起こし、異なる意見に耳を傾ける機会が減ります。このような状態はコミュニティを分断させます。
ヌロック氏は、自分で自分の運命を決めるときに様々情報を探るが、現在は情報が溢れすぎており、ポストトルゥースが民主主義に悪影響を与えていると指摘しました。しかし、間違った判断をしたら是正するのが科学的な考え方であり民主主義もそのようであるべきだと述べました。SNSの特徴を理解したうえで、問題を認識して多元主義を尊重しないと、ポストトルゥースから脱却することはできません。

井上氏もアメリカの理論家ロバート・タリスの言葉を引用して、私たちはSNSから政治的な問題を話すべきではないのかもしれないと述べました。その一方で、異なる意見を受け入れること自体にAIを使う可能性についても言及しました。ゲフェン氏も同様に、AIを使ってフェイクユースが作られる場合もある一方で、フェイクビデオの探知をAIがしていると指摘し、技術に両面性があると述べました。

おわりに


最後に日仏財団のルシュヴァリエ氏が閉会の挨拶をしました。ルシュヴァリエ氏は、全体の議論を振り返り、技術のもたらす影響を人間はコントロールできるというのが今日の大事なメッセージだったと指摘しました。そして、そのためには学際的な研究を行っていくことが大事であると、今日の対話から感じたと述べてシンポジウムを締めくくりました。
(文責:江間有沙)