国際シンポジウムから変更「犯罪防止と法執行のためのAI:ベネフィットとリスク」研究会

  • 日程:
    2020年03月13日(金)
  • 時間:
    16:00-17:30
  • 会場:
    東京大学伊藤国際学術研究センター特別会議室
  • 主催:

    東京大学未来ビジョン研究センター

  • 講師:

    イラクリ・ベリゼ氏(国連地域間犯罪司法研究所(UNICRI)所長)

新型コロナウイルスの感染拡大を受け、「国際シンポジウム:AIと司法」は開催中止しました。代わりに国連地域間犯罪司法研究所(UNICRI)AIとロボティクスセンター所長のイラクリ・ベリゼ氏のみを招いた少人数かつクローズドの研究会を2020年3月13日(金)に開催しました。現在、世界では人工知能(AI)をはじめとする情報技術やロボット技術が、警察や司法などの法執行機関で利用されつつあります。また、犯罪者によるAI利用が問題となる中、法執行関係者はAIがもたらす変化や課題を理解する必要があります。本イベントでは、ベリゼ氏から犯罪防止と法執行におけるAI利用の現状と課題の話題提供を行っていただき、今後の連携の在り方について議論しました。

ベリゼ氏はAIを理解するためには3+1の要素が重要だと指摘しました。3とは(1)データの豊富さ、(2)アルゴリズムの発展、(3)計算能力の向上です。これらの3要素を支える+1が、「投資」です。AI関連の市場は飛躍的に伸び、2025年までに5千億ユーロ(およそ60兆円)になると見積もられています。
民間におけるAI開発が推進される中、現在40か国以上がAI戦略を制定しています。国連でもAIの議論が行われています。ベリゼ氏がセンター長を務める国連地域間犯罪司法研究所(UNICRI)AIとロボティクスセンターは2017年にオランダのハーグに設立されました。センターでは、犯罪防止や人権などに関連してAIやロボットの在り方を議論し、法執行機関がAIやロボティクスの理解を推進するための教育プログラムや情報発信を行っています。そのネットワークは広く、国際連合人権高等弁務官事務所、国連テロ対策事務所など国連関連部署だけではなく、インターポール、ユーロポール、世界経済フォーラムなどの国際機関、そのほか各国政府や産業、学術団体とも連携しています。

法執行機関におけるAIを議論は2つの方向から議論が行われます。1つは犯罪者がどのようにAIを使うかを理解することです。現在、3つの観点から議論が行われています。一つは「デジタル犯罪(digital crime)」です。サイバー空間における犯罪はすでに問題となっています。現在は人間のハッカーが行って金銭や安全保障を脅かしていますが、機械にそれが代替されつつあります。機械は24時間稼働し、コストも抑えられ、さらに自己学習します。さらには、データ量が膨大になっていくため、人間では対応に手が回っていかなくなると予想されています。
次に問題となるのが「物理的犯罪(physical crime)」です。例えばドローンに画像認識ができるAIアプリケーションを付けて飛ばし、ターゲットに攻撃を行うことができるようになっています。画像認識の精度もあがってきていることも、このような犯罪のリスクを高めます。

最後の問題が「政治的犯罪(Political crime)」です。デマ情報やフェイクニュースそのものは、新しい問題ではありません。しかし今までは「文字情報」でした。現在は動画や音声も偽の情報を作ることができます。政治家や企業CEOの偽情報を作り、イメージダウンさせることもできます。あるいは極端な話、偽情報を使って戦争を引き起こすことも可能になるのです。このような偽情報(disinformation)の政治的利用が現在懸念されています。
法執行機関の人たちはAIを用いた犯罪利用に対して、トレーニングを受ける必要があります。具体的には、現在どのような技術があり、それがどのくらい現実に使われているのか、それに対抗するためにはどうすればいいのかに関するシナリオを考えることが必要です。

一方、法執行機関がAIを活用して課題を解決することも進められています。具体的には音声処理、画像処理、最適化、自然言語処理といった4つの技術分野が、課題はありつつも様々なシーンで使われ始めています。
現在、欧米諸国では顔認証技術はプライバシーの問題もあって、どこまでどのように使えるかの議論が行われています。既存の体制を強化/擁護したり、基本的な人権を侵害したりしないようにしつつも、使うための方法論を模索する必要があります。例えばノルウェイでは、警察が見る画面には漫画のようなキャラクターがかぶせられて個人の顔情報は見られない匿名加工処理を自動で行う非侵害的な監視(non-intrusive surveillance)システムが導入されているそうです。法執行機関がAIを監視や管理に使うためには、人権や自由だけではなく、公平性(Fairness)や説明責任(Accountability)、透明性(Transparency)や説明可能性(Explainability)の保障が重要です(これらの頭文字を合わせてFATEと総称されます)。それによって人々の信頼(Trust)を得ることできます。

警察だけではなく司法でのAI活用も課題です。現在、司法の判断にAIを使う試みが世界では始まっており、研究所では去年、ドバイで裁判官に対するトレーニングプログラムを行いました。さらに、警察や司法などの法執行機関が扱うデータ量は、今後ますます増えていきます。膨大なデータ処理はAIの助けなしにはできません。そのため遅かれ早かれ、法執行機関でのAI利活用は進んでいくと考えられています。とはいえ、AIの判断も人間の判断も完全ではありません。そのためAIを完全に人間に置き換えるのではなく、人と機械の協調の在り方を考えていく必要があります。

現在、国連地域間犯罪司法研究所(UNICRI)はインターポールや各国機関とともに法執行機関の人たちのためのツールキットを作成しています。AIに関する新たな原則を作るのではなく、実際にその原則や価値を運用するガイドブックやベストプラクティスを作っています。国際機関が整理、集約した方法論は、今後、各国の事情に合わせて実装していくステップに移ります。AI技術の利用には必ず不確実性やリスクを伴います。また国によって、リスクの許容度の範囲や何が犯罪かのグレーゾーンが異なる場合も想定されます。だからこそ、多様な職業、業種、立場の人たちが議論に参加する対話の場が必要である、とベリゼ氏は強調しました。

法執行機関におけるAIの利活用、というと警察や司法のみに焦点があたった議論になりがちかと思われます。しかし、ベリゼ氏は逆に社会的あるいは経済的な観点も巻き込んだ幅広い視点で議論をしていくべきだと強調しました。犯罪がそもそも社会や経済的な観点からは切り離すことはできません。例えば欧州で現在問題となっている失業率や移民政策、地球温暖化問題、さらにはコロナウイルスの感染拡大といった様々な論点は、犯罪率の増減と無関係ではありません。さらには犯罪の防止策にも教育や福祉政策、投資などの観点が重要です。状況は複雑に絡まっており、そのためにもリスクのシナリオを多様な人たちを巻き込んだ議論で作成する必要があります。

犯罪の在り方が多様になり、かつ技術の進展が早い現在、問題設定や対応を、既存の垣根や概念を超えて多様な人たちと議論をしていくことが求められます。ベリゼ氏がセンター長を務めるAIとロボティクスセンターは、国連地域間犯罪司法研究所(UNICRI)の傘下にありますが、プロジェクトベースで産学官民の多様な機関との柔軟な連携が可能な組織です。今後、東京大学としてもベリゼ氏や国内外の機関と共同して、法執行機関はじめ公共分野におけるAIの利活用についての議論形成の場を構築していくことを研究会では確認しました。

(文責:東京大学未来ビジョン研究センター 江間有沙)