2021年度スケジュール

 

4月8日 担当教員によるイントロダクション 「人工知能が浸透する社会について考える」
4月15日 佐倉統 (情報学環 教授) 「ロボットは敵か味方か?」
4月22日 國吉康夫 (情報理工学系研究科 教授/次世代知能科学研究センター長) 「人工知能の将来と人間・社会」
5月6日 日置巴美(弁護士法人三浦法律事務所 弁護士)「人工知能技術に関連する法的課題~規制・政策動向からビジネスでの法的取組みまで~」
5月13日 松原仁(次世代知能科学研究センター 教授)「信頼される人工知能研究」
5月20日 小泉秀樹先端科学技術研究センター 教授) 「都市・地域のスマート化と人工知能
5月27日 城山英明 (公共政策大学院 教授) 「人工知能と政治」
6月3日 中野公彦(生産技術研究所 教授)「自動運転の社会実装」
6月10日 学生WS: 最終レポート課題に向けたディスカッション
6月17日 林香里(情報学環 教授)「AI時代におけるジェンダー平等社会の実現」
6月24日 大橋弘(経済学研究科 教授)「デジタルプラットフォームを巡る競争政策上の論点」
7月1日 田中久美子(先端科学技術研究センター 教授)「言語の観点からAIが苦手なこと」
7月8日 江間有沙(未来ビジョンセンター 准教授) 「AI社会の課題と未来ビジョンの描き方」

講義レポート

講義レポートは受講学生による(1) 講義まとめと(2) コメントや感想(2名程度)で構成されています(第2回より)。 

4月8日
担当教員によるイントロダクション 「人工知能が浸透する社会について考える」

第1回目の初回の講義は江間先生の司会のもと、担当教員によるイントロダクション 「人工知能が浸透する社会について考える」というテーマで座談会が行われました。

まず、佐倉先生からAIが出した差別的な疑いのある判断に対し、人間はその結果を差別だと感じるのかという調査の枠組みと結果が提示されました。本調査は佐倉研の学生で本授業のTAである前田が主体的に行ったものです。佐倉先生やAIによる差別の研究をしている前田は、AIの差別的な疑いのある判断は、人間も差別的だと感じるだろうと考えていましたが、ディスカッションでは異なる観点からの指摘がありました。

國吉先生は開発者としての視点から、AIによる差別という現象に多くの要素が絡んでくることを指摘されました。例えば、正式リリース後に正確に判断できないといった現象は、ただの修正すべきバグだと捉えることも可能です。まして正式リリース前の実験室では様々なことが起こっているでしょう。そのうちで差別にかかわるものとして重視されるのは、人間の意図ではないかというお答えでした。

城山先生も、意図の重要性については同意見でした。ただしその前提は國吉先生とは異なっていました。リリース後の製品でバグが起こってしまうということは、事前テストが不十分だったのではないか、という指摘でした。つまり、事前テストが不十分なまま製品版を売り出したことは、「バグを放置した」という意図的な作為(=行為)としても解釈できるということです。

その上で佐倉先生は、ここでの事例が実在事例としてニュースになっていることを述べたうえで、調査票で差別的だと思われる可能性がある事例が与えられることと、ニュースで聞いたときの感覚の違いについて述べられました。どちらも実在の文脈からある程度切り離して伝達される現象ですが、どこがどう切り取られるかはかなり変わってきます。國吉先生の言葉を借りると、双方の違いは、前者は背後に人がいること(=意図があること)が切れてしまっていることです。

人の知覚は一枚岩ではありません。何を差別だと感じるか、その上で差別だと思う際に何を重要視するかも人によって違うでしょう。ちなみに、上で挙げられた意図は哲学的差別論では必須の要件とされないのも面白いところです。本調査は、その知覚の違いを知ることを一つの目的として行われましたが、はからずもここで先生方からいただいた言葉からも、知覚の違いを感じることになりました。

最後に授業を通して学んでほしいこととして各先生からのコメントがありました。國吉先生は、この授業では活発なディスカッションを行うという前置きののち、理工系の学生は、こういった社会的、倫理的な側面を考えることは技術者にこそ大事だと認識し、積極的に参加してほしいと述べました。また、情報系以外の人には、AIというものの技術的な仕組みや、どういう利用法が生まれているかということを知った上で議論すること──すなわちAIに何ができて、何が入っていないかが大事であると指摘されました。佐倉先生は、今の時代は、文系・理系の垣根がない時代なので、自分が詳しくないからと他方の分野を「専門でないからわからない」と排他的に扱うのではなく、積極的に知識を広げることが重要とコメントされました。城山先生は、この授業の特徴でもある多様性について言及し、様々な講師がいるだけではなく多様な学生が集まる場を楽しんでもらいたいし、社会の基本的な課題は常に変わらないが、新しい技術に伴って問題も出てくるため、その問題の変容をみてもらいたいとコメントされました。最後に、江間先生は授業で準備する多様なテーマやディスカッションした内容によって学んだことを、授業内でとどめず、家族や友人などの周辺まで議論を展開していってほしいとコメントしてディスカッションを締めくくりました。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

4月15日
佐倉統 (情報学環 教授) 「ロボットは敵か味方か?」

第2回目の講義は、情報学環の佐倉先生にご担当いただきました。テーマは、「ロボットは敵か味方か?」です。

講義前に読んだ二つの文献は、ロボットに対する考え方の東洋と西洋での違いを扱ったものと、母子関係の(編集者注:母子が同一の方向を見る共視現象に着目した)東洋と西洋での違いを扱ったものでした。これらが授業にどう関係するのか疑問でした。しかし、枠の外の世界を想定しているかどうかという画像の特徴としての違いが存在し、これが我々のロボットに対する考え方にも影響しているかもしれないということを授業で学び、興味深かったです。ディスカッションで、東洋と西洋では、ロボットに対する理想の違いが影響しているのではないかという考えに共感しました。ロボットに対する理想の形成には、その人が属する社会においてロボットがどれほど活用されているかといった社会的側面が強く関与しているのではないかと考えました(要約、感想は情報理工学系研究科のAさんのより改変引用)。

この前半パートに関してはAさんをはじめ、多くの人が他にも要因があるのではと感じたようです。公共政策大学院のCさんは、共視という現象はあくまで人間の親子同士にみられるもので、それが日本でのロボットと人間の画像にもみられるからといって人間とロボットの関係にすぐに適用するとするのは納得できないと話します。学際情報学府のHさんはロボット全般に対する受容が文化的に異なるというよりはむしろ、アウトプットとしてのロボットの形態がそもそも文化的に異なる可能性を指摘しています。日本における代表的なロボットに対して、アメリカで急成長するBoston DynamicsのATLASやSPOTはそもそも共視が可能な頭部を持ちません。また、欧米がロボットを真っ向から見据える構図が多いことに、別の意味を見出す人もいました。学際情報学府のIさんは、ロボットをパートナーとして捉えるというより、何か変なことをしないか監視しているのかもしれないと解釈されていました。

授業の後半パートは、個人と公衆衛生の対立についてでした。コロナ対策は全体主義的であり個人主義と相性が悪く、もしかしたら社会を大きく変えようという野望がある者にとって今は大きなチャンスかもしれないという意見がありました。これを受けて改めてこのコロナの時代は人類社会、人類史にとって重大な局面であるということを認識させられたといいます(要約、感想は上のAさんによる)。

個人と社会の対立は特に自由に関して鮮明に現れますが、公共政策大学院のCさんは、情報漏洩の不安・政府に対する不信感も挙げられると指摘します。もう一つの壁として、未知のAIやロボットに個人情報を預けることの不安もあるといいます。

また、学際情報学府のHさんが考えていたのは、公共の福祉と個人のバランス自体文化的に異なるということです。いろいろな監視手段が導入されている中国と日本でも、公共の監視にたいする不安感はまったく異なることでしょう。

学際情報学府のIさんは、AIが活用される分野があまりにも多岐にわたるため、国民に説明しながら、ルール作りを進めていくほかはないと考えていました。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

4月22日
國吉康夫 (情報理工学系研究科 教授/次世代知能科学研究センター長) 「人工知能の将来と人間・社会」

第3回目の講義は、情報理工学系研究科の國吉康夫先生がご担当くださりました。人工知能の将来と人間・社会というテーマで講義してくださいました。

まず、本講義はAIの種類であるニューラルネットワークおよびディープラーニングの基本的な仕組みを説明した上で、IBMのWatsonなどのAI機械の事例を紹介し、AI開発が直面している倫理的な問題や将来の課題について述べられました。AIに関して、「強いAI」と「弱いAI」の二つの立場があります。前者は、AIが中身まで人間のような心を持つべきだと考え、後者は機械学習で限られた課題(例えば将棋)だけできるだけでよく、心を持つかどうかは関係ないと考えています。中国語の部屋の例を用いて哲学者サールが、機械は人間と違い、自分の行動を理解しないので、機能要素を組み合わせても、人間のような脳、心にならないと指摘し、その後これについて賛否両論がありました。現在のAIの問題としては、実世界の過去のデータを学習していることが故に、実世界にある性差別、人種差別を再現してしまう点、想定外のことに対応できない点、人間の意図を無視し人間からすると非常識な行動をしてしまう点などが取り上げられました。入力される情報に形を与えること(Embodiment)が重要です。ロボットに人間に近い心を持たせる一つの試みとして、ヒト胎児発達における学習の過程から学ぶ、ベビーロボットの学習があります。(要約は、情報学環・学際情報学府のDさんによる)

講義では、AIの説明の後、國吉先生の「ロボットにも心を持たせるべきである」という意見に対し、受講生の皆さんがコメントしていました。

情報理工学系研究科のOさんは、この意見に一部同意するようになったとおっしゃっていました。ただしその心の範囲は、情報の出力と入力の関係を説明できるという限りでです。完全な模倣については、数値的処理に近い部分もある一方で、化学物質(アドレナリンなど)の分泌により励起の閾値が変動した結果「心」が生じている気もするので難しいのではと、心の持つ範囲を定義づけした上で生物/無生物学的観点を比較して述べられていました。

公共政策大学院のOさんはなぜ常識でなく心なのかという疑問を持ったそうです。AIが実用社会において臨機応変に対応することをそもそも人間は求めているのか、人間的な心を持ったAIがいてもなお人間中心のAI社会は本当に実現可能なのか、そしてそもそも人間性は信頼できるものなのか、と。将来、「心を持つべき/持つべきでない」のどちらかの意見が蔑ろにされたAIが社会に普及されないよう、入念に議論するべきだとしています。意見が分かれそうなトピックなので、他の研究者の考えも知りたいと思われたそうです。

情報理工学系研究科のMさんはAIが心を持つとしても、与えられる周囲の環境=データが悪意を持った偏ったものであれば、心を持たないAIとはまた違った危険性が生じるのではないかとおっしゃっています。人間の知能の発達過程でも同様ですが、AI相手の方が周囲の環境を制御しやすい分、間違った模倣の危険性が高まると考えられます。人間的心を持たないAIと間違った心を持つAIを比較してどちらがより危険かを断言することはできないかもしれませんが、AIを開発する人間側の倫理が非常に重要なため、今後何らかのルールが必要なのではないかと述べられていました。

確かに、人間の良心や倫理観に対する意識の涵養や構築がAI開発には必要です。それがあれば、公共政策大学院のOさんが指摘する悪といえるような人間性も、表現される機会が少なくなり、少しは解決されるのではないでしょうか。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

5月6日
日置巴美(弁護士法人三浦法律事務所 弁護士)「人工知能技術に関連する法的課題~規制・政策動向からビジネスでの法的取組みまで~」

第3回目の講義は、弁護士の日置先生に「人工知能技術に関連する法的課題」というテーマで講義いただきました。

今回の授業では、近時のAIに関する政策・法制の動向及びAIの社会実装に関する企業の実務の紹介がありました。まず地域別でAIに関する政策・法制の動向を紹介されました。例えば、欧州は「人間中心のAI」の理念の下、AI倫理原則、人工知能、ロボットおよび関連技術の倫理的側面のフレームワーク・人工知能の民事責任レジーム・人工知能の知的財産に関する報告書が公表されてきましたが、本年4月「AI規則案」が公表されています。これは、人間の生命や基本的な権利に与える影響の大きさを踏まえて、リスクの大きさ・重要度に応じて4つに分類し、それぞれに応じた措置を求めるものであるとのことです。アメリカは、連邦レベルの法令制定の動きは見受けられず、技術、公的機関ごとの検討が進められていくつかの公表文書があるとのことです。また、中国は2015年「中国製造2025」以降、2030年頃までの世界最先端のAI先進国となる目標の下、人材育成、基礎研究強化、研究成果の迅速な産業化が進められる一方で「次世代AIガバナンス原則」が公表されるなど、一定のAI倫理等への配慮がみられるとのことです。以上の諸外国の動向からは、各国のAIに関する技術力、産業競争力や、文化の相違が読み取れるとのコメントがありました。日本の場合、「人間中心のAI社会原則」の下、関係府省庁がガイドライン等を公表しているとのことでした。例えば、開発者・事業者向けの総務省の「AI利活用ガイドライン」や、消費者向けに活用したサービスのタイプ別でそれぞれを使うためのチェックポイントを提示した「AI利活用ハンドブック」があります。また、経済産業省は、開発、ビジネスへの実装時の知財・契約に関する「AI・データの利用に関する契約ガイドライン」を公表しており、契約の方式も変化し、ステップ・バイ・ステップの契約形式を用いるようになっているなどの特徴が示されました。また、その他の日本の取り組みとして、OECD、G20への働きかけや二国間、地域との対話によって、ルールメイクを図ろうとしているとのことでした。

次に、AIの社会実装に関する企業の実務について説明がありました。主たる関係主体が整理され、技術開発側のベンダーと技術を使ってサービスを提供するプロバイダー(しばしば両者は一体になっている)、そしてサービスを使うユーザーがいるとされました。これらの主体によって、研究、開発そしてサービス・商品へのAI技術の実装と利活用が進められ、さらにサービス・商品の利用データ等を用いてAI技術とそれが実装されたサービス等の改善につながっているとの前提が設定されました。このAIの社会実装の一連の流れの中、権利関係の処理、トラブル・インシデント抑止・対応、責任分配等の課題について、実態に即して、ソフトローを含むルールによる統制、契約による当事者間での対応等、課題解決のアプローチと現在の実務の紹介がありました。一つの企業動向の例として、単独の企業による取り組みであって、かつ、ユーザーへの情報提供と判断を求めるものとして、Facebookのポリシーが挙げられました。顔認識機能のために使うデータが利用者の国の法律に基づいて保護されることを前提として、一部のサービス、利用に関して、同社が利用者に技術使用の選択を与えている条項の説明がありました。授業の最後では、AIの社会実装と利用を進めるにあたり、実応用におけるトラブルの回避とトラブルへの対応について、どのようなアプローチが有効かにつき具体例を検討しました。(要約は情報理工学系研究科のLさんによる)

そもそも対策はうまくいくのでしょうか? 工学系研究科のMさんは、この点について問題提起します。というのは、国ごとに産業の成長のさせ方が違っており、特に成長を重視するような米国にある、しかも超国家的な企業(例えばGoogle)にたいする規制は困難なのではないかと述べています。よって、プロバイダーとユーザーの間にもう一つのアクターを挟んで、ユーザーが直接プロバイダーを訴えることを避けようという議論もあったようです。

プロバイダーやユーザーの他にも、開発者を重要なアクターとして数えることができます。学際情報学府のSさんは開発者としての立場から、倫理を踏まえた実装がなされ、その後も問題を起こさないことが理想的ではあるが、オーバーテクノロジーとなりつつあるものに対して永劫に無害を保証することは難しいと考えています。このような状況下では、もちろんプロバイダーがある程度責任を負うことも必要ですが、エンドユーザーも同様にリテラシーを高める必要があると言っていました。

同様に総合文化研究科のNさんは、個別のトラブルを防ぐ前に、ユーザーにたいする倫理教育が必要だと述べています。日進月歩の技術に対応するためには、学校教育ではとても足りません。さらに、倫理的な問題は法律で判定できるものではないため、市民が主体的に意見を出すことが必要だと書いています。このような問題を判定するための教育を施してはじめて、技術を利用するか否かを判断できるようになるのではないでしょうか。

一つのサービスを取り上げて論じようとしてもさまざまなアクターが関与してきます。これまではサービスを「単に」利用するだけだったユーザーも、その関与の色を濃くしているために、自然と開発者にたいしても存在感を示すようになっているようです。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

5月20日
小泉秀樹(先端科学技術研究センター 教授) 「都市・地域のスマート化と人工知能」

第5回目の講義は、東京大学まちづくり研究室・先端科学技術研究センター所属の小泉先生です。「都市・地域のスマート化を考える」というタイトルで講義していただきました。

授業を通してスマートシティの定義から、各国の取り組み、今後のスマートシティ のあり方や、空間、都市の価値について理解が深められました。政府行政の効率化を図るものから、効率的なエネルギーシステムの導入など、現在の人材集積の都市、AIやIoTを中心とした「スマートシティ」の概念まで至ったのはつい近年ICTが発展してきたからのことだとわかりました。現存の取り組みとして各国の都市、ニューヨークからリオンやトロント(頓挫中)などにおいて、都市のインフラ整備から、都市にある様々なビッグデータの活用、また官民共創の企画や実際のプロジェクトが行われています。日本でも地域の見守りカメラの整備やMaaS、またトヨタのウーブンシティ、柏の葉などの実証実験が行われており、スマート化したシティによる市民の生活の安全性、利便性の向上、また多様でオープンな文化と人によるさらなるイノベーションの創造が期待されています。授業の後半ではポストコロナ時代における都市のあり方、都市の価値と本質について議論が行われ、住まう場所と働く場が分離し、仕事は都心部で、住む場所は自然の豊かさが味わえる郊外という田園都市の思想も紹介されました。またV Rによって、物理的な都市の価値が下がるという不安はありますが、都市部の各空間にV Rを付加価値として取り入れ、それをリアルな空間で活かす「バーチャル渋谷」の例はとても面白かったと感じました。(要約、感想は公共政策のYさんによる)

このように全世界で取り組みが進んでいるときには、その受容に政治体制の違いや文化の違いが影響することがあります。公共政策大学院のMさんは、日本には、政府の政治そのものに加えて、政府のITリテラシーに対して不信があると指摘し、導入時の反発が大きいと想定される一方で、民主主義でない例えば中国のような国ではスムーズに導入が可能だろうと考えています。また、データ保有数の観点からも、中国のような政治主導の国に開発の利があると考えられます。

日本ではそもそもITを使った都市計画が浸透していないという指摘もあります。日本における両者を「水と油のよう」と形容するのは情報理工学研究科のMさんです。公共政策大学院のMさんは政府へのITリテラシーへの不信を挙げていましたが、情報理工学研究科のMさんはそもそも日本人自身がITにたいして過剰な不信感を持っているのではないかと述べています。また、そもそも大部分の日本人はスマートシティ構想に馴染みがなく、それによってさらなる恐怖感を生んでいるといいます。

ITを都市計画に使用するならば、その影響はどうなるのでしょうか。学際情報学府のTさんは、いま住まう人と歴史がその都市に個性を与えているのではないかといいます。スマートシティ計画はむしろ、その個別具体的な都市を均一なものにしてしまうのではないか、と。その一方で、街という具体的な場所を舞台にするならば、街や道といった物質的な存在物が案内板になるような発展が期待できるのではないか、と危惧とともに期待も述べていました。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

5月20日
城山英明 (公共政策大学院 教授) 「人工知能と政治」

Coming soon…

6月3日
中野公彦(生産技術研究所 教授)「自動運転の社会実装」

第7回目の講義は、生産技術研究所の中野公彦先生にご担当いただき、自動運転の社会実装というテーマで講義してくださいました。

今回の講義では、自動運転に関する技術開発の現状や社会実装に伴う倫理的問題などを扱いました。前半では、5段階の運転の自動化レベルのうち実用化は現在レベル3までであり、各レベルにおいてもそれらが完全に達成されたわけではないことを学びました。特に、低いレベルの自動運転車を扱う際は人間も機械の特性を理解した上で運転をする必要があります。また、レベル4の自動運転技術では例えばトラックの隊列走行などの実現により、ドライバーの人手不足の問題の解消などが期待されています。後半では自動運転に関わる倫理的な問題について考えました。例えば、高齢者の事故の割合が多いことが社会問題として指摘される中、現在多くの車に搭載されている自動ブレーキ機能などは確実に交通事故を減らしています。この延長で、自動運転を含めた機械の性能向上により人間が全て運転するよりも事故率を減らすことが期待されますが、それが社会的に受け入れられるかは別問題であるという指摘がありました。さらに、自動運転車が事故を起こした際の責任の所在が未だ明白でなかったり、自動運転導入のリスクと社会的な便益を照らし合わせた上での安全性基準の作成が必要であったりと、技術以外にも導入に向けたハードルがあることを学びました。(要約は情報理工学研究科のAさんによる)

受講者からは、自動運転の受容を進めるためのさまざまな手法が意見されました。例えば学際情報学府のMさんは自動運転の受容にあたって、前回の授業で講義されたリスクアセスメントやリスク管理が有意義なのではないかと指摘しています。言い換えれば、人々がどの程度のリスクまで受け入れることができるのかを明らかにし、受容のために役立てる、ということです。しかし同時に、技術導入における「遠い」影響まで理解する必要があります。自動運転は確かに事故率を低くするかもしれませんが、人々が自動運転に頼ることや、電力などの資源の浪費が新たな問題として浮上するかもしれません。

「遠い」影響といえば、発売者・制作者たる企業はどうでしょうか。学際情報学府のKさんは、自動運転は「運転している」という感覚に乏しいため、将来的な車好きの顧客を失うのではないか、と考えています。他にも世界で新しい安全装置が導入されるなど状況が刻々と移り変わる中で、メーカーとしてのバランスのとり方が難しくなっているといいます。

地方における公共交通機関を足がかりにすべきではないかと提案したのは公共政策大学院のKさんです。自動運転のレベル4は特定領域内での権限移譲なしの自動運転を示すのであれば、その性質上決まったコースを走行する公共交通機関の方がより妥当なステップだろうといいます。地方であればニーズもより大きく事故リスクが低い、利用主体が自治体になるため監視がやりやすい、引責させるのが容易、などの理由が挙げられます。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

6月17日
林香里(情報学環 教授)「AI時代におけるジェンダー平等社会の実現」

第8回目の講義は、情報学環の林香里先生が「AI時代におけるジェンダー平等社会に向けて」というテーマで講義してくださいました。

まず、授業冒頭ではAIとジェンダーをめぐる懸念についての紹介がありました。採用AIによる、データの歪みから来る女性差別、女性を性的に消費するために使われるディープフェイク、パートタイムを代表とする低賃金労働に従事する女性たちの失業リスク、女性への性的ステレオタイプの押し付け等、課題は山積みです。これらの問題への対処には、個人・組織・政府・トランスナショナルという複数のレベルからの多角的な取り組みが必要です。例えば、政府レベルの取組みでは、総務省AIネットワーク社会推進会議による「AI利活用ガイドライン」、内閣府「第5次男女共同参画基本計画」などがありますが、とくに総務省のガイドラインではジェンダー視点が欠落しています。また、長年積み重なってきた科学の発展過程に埋め込まれたマスキュリニティという課題は残ります。

AIは人間社会を反映するため、人間の頭の中に根深く残るステレオタイプや偏見の問題にも向き合う必要があります。日本は、世界的に見てジェンダー意識が低い一方でAIの利活用については楽観的・肯定的に考える人が多いという調査結果もあります。したがって、現時点で存在する社会的課題を無視したままAIの利用を進めれば、それらの差別が増幅される可能性もあり、また、問題の所在が曖昧のままに技術開発が進む可能性もあります。教育、メディア、研究といった多方面からのアプローチが必要になってくるでしょう。 (要約は、公共政策大学院のNさんによる)

さらに、ディスカッションのちに、エンパワーメントに関する質疑応答で盛り上がりました。情報学環・学際情報学府のIさんはディスカッションのネタであったAIに受験生の性別や学歴などの背景から合否の評価をさせるかと言うことに問題意識を持っています。ディスカッションではジェンダーの視点があまり出てこなかった(それ自体、問題ですが)ため、「いずれはAIが入り込むかもしれないが、現状では導入しない」という議論の流れでしたが、もっと議論のしようがあった、とのことです。もしAIが「社会の鏡」であるなら、双方を正すための一つの方策として思いつくのは、各組織の男女比をすべて同等にするルールをつくることです。いろいろな反論はあるでしょうが、ほとんどの原理や規範(指摘があったジャーナリズムを取り巻く価値観なども)は男性性が基礎であるのは事実なのだから、質と量のどちらも変えるべきだと述べていました。

情報学環・学際情報学府のLさんは中国と比較して議論していました。日本ではエンパワーメントが中国よりも行われているそうで、Lさんは中国の現状を憂えていました。女性が差別されている現状を打開するために性差別問題に向き合うこと、マイノリティ(この場合は女性)をサポートすることは男性への差別を意味するものではないということ、差別というマイノリティの方々の問題に直面して、その問題の存在を明言し、社会の注目を喚起することが、AIの多様性ないし社会の多様性の達成のために重要だと考えるとのことでした。

公共政策大学院のYさんは今回のトピックは新鮮で、男性が主導となった業界で見逃しやすい課題だと感じていました。林先生が身の回りの現象から、AIによる女性の差別視を抽出されていて、とても勉強になったそうです。AIの性差別は実生活から形成したので、私たちが日常生活で反省しなければならないとコメントしていました。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

6月24日
大橋弘(経済学研究科 教授)「デジタルプラットフォームを巡る競争政策上の論点」

第9回目授業は、大橋弘先生が「デジタルプラットフォームを巡る 競争政策上の観点」というテーマで講義してくださいました。

本講義では、デジタルプラットフォーム(DPF)を巡って競争政策の観点から、どのような利点・問題点が現在生じているかについて紹介がありました。それを検討するために、まず産業組織論について紹介がありました。この学問分野は、大企業が誕生・組織化し経済を支配するに至った経緯を明らかにするもので、本講義のDPFを検討する上で欠かせない観点です。 まずなぜDPFが大きくなるに至ったかについて解説がありました。大橋先生によると、利用者と店舗が相乗的に増加していく現象((間接的な)ネットワーク効果という)が起きることによって、DPFは規模を拡大しているとのことでした。そしてネットワークが生き残るためには、ネットワークの規模がある程度の大きさ(閾値)を超える必要があるため、DPFの初期には略奪的な価格づけをするなど、様々な行為が見られがちである点が指摘されました。こうしたDPFの特徴を有する独占市場が起こりやすい現象として、コンピュータキーボードを例にしてロックインやExcess Inertiaなどという概念を紹介いただきました。 このような独占はデータのつながり(集約)による付加価値や効率性上昇などのメリットもありますが、それと同時に情報が営利性にのみ使われたりプライバシーの侵害につながったりする可能性もあるというデメリットもあります。 以上を踏まえて、本講義の最後でDPFの持つイノベーション性を潰さず、デメリットも最大限抑える手法について、様々な規制方式から検討を行いました。(要約は、情報理工学系研究科のMさんによる)

公共政策大学院のYさんは、プラットフォーム規制の手段として、その有効性を認めながらも共同規制の問題点を指摘しました(編集者注:共同規制とは、規制の詳細を事業者の自主規制に委ねる取り組みのこと)。例えば、プラットフォーマーと政府が結託したら、両者ともに中央集権的な性質を持っているため、第三者による監視や抑止は難しいでしょう。そのため、共同規制が成り立つ前提には「プラットフォーマーおよび政府の倫理」が不可欠だといえます。しかし、とりわけ個人情報を保有するプラットフォーマーにとって、その「倫理性」をどのように保証できるかというのは今後考えるべき問題ではないのでしょうか。

情報理工学系研究科のAさんは、これまではDPFのメリットを多く認識していましたが、DPF企業による情報搾取や店舗の差別、製品の模倣など、悪い点が見えてきたと言います。ディスカッションでのAさんの意見は、一定の規模以上になったDPFは公営にするというものでしたが、他のメンバーからは、メディアや他の企業との牽制による圧力で、DPF企業の節度ある取り組みを引き出すという意見がありました。他にも、DPFにも政府にも頼らず、一般市民の声を拡大して企業にぶつける装置があれば有効かもしれない、と書かれていました。

最後に情報学環・学際情報学府のTさんは、ITプラットフォーム企業は革命家の顔をしていると指摘します。彼らはDPFを拡大しデータを集めることで、結果的に経済や政治への支配力(間接的に選挙結果に影響を与えるなど)を強めています。このような場合、DPFが大きくなりすぎることの何が問題なのかが自体が見えにくいでしょう。かといって、大きくなりすぎたからという理由だけで、正当な競争まで規制するわけにもいきません。授業で提案された市民の団結は希望ではありますが、何を搾取されているのか見えにくい市民には、団結は簡単ではないのではないでしょうか。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

7月1日
田中久美子(先端科学技術研究センター 教授)「言語の観点からAIが苦手なこと」

第12回目の講義は、先端科学技術研究センターの田中久美子先生が「言語の観点からAIが苦手なこと」というテーマで講義してくださいました。

言語学には様々なサブジャンルが存在し、音韻論など音素を対象とする近視的なものもあればコーパスを対象とする類型学のように巨視的なものもあります。ソシュールに代表される言語学における構造主義は、言語を全体論的システムと見做し、言語システムの解明には個別の項ではなく有機的つながりを持つ全体を端緒にするべきであると主張しました。個別要素から全体の振る舞いの予測・理解が難しい系を対象とする複雑系科学の枠組みの中で言語を捉えて研究する分野があり、そこでは大きく語彙の開放性と系列の塊現象という性質を説明する幾つかの法則が見つかっています(Zipf則やTaylor則)。ただしその法則が成立する理由に関して詳細はわかっていません。10年前の自然言語処理は言語学の大きな流れを組んでおり、言語学における蓄積が当時の自然言語処理に大きく寄与しました。しかし昨今の自然言語処理はその課題や手法の性質を鑑みると、10年前の自然言語処理とは分断されていると言えます。その中でも言語モデル構築は、先端的な深層学習を用いて構築されたモデルが幾つかの法則を充足するなど、従来AIが不得手と評される領域にも到達し始めている状況にあります。(要約は公共政策大学院のTさんによる)

多くの受講者がディスカッションで言及したのは「自然言語に普遍的にみられる規則であるZipf則とTaylor則がみたされれば、AIや深層学習によって生成された文章が自然言語に近づいたといえるのか」というものです。学際情報学府のTさんのグループで話し合われたのは、どうすれば人間の文章に近づくかというものでした。一つの提案は、話し方やスピードやリズムといった人に協調するような要素を取り入れることです。これは人間が持つ共感によって生み出される特徴なのではないでしょうか。もう一つは、間違いを評価することでより自然言語に近づくのではないかという意見がありました。AIにも間違いを学習させれば、より人間らしい、「完璧でない」文章を作り上げることができるでしょう。最後は、どのような文章を目標とするかで必要な要素が変わってくるのではないか、との意見があったとのことでした。

この論点を発展させているのが学際情報学府のSさんのコメントです。例えばエンターテインメント分野であれば人の心を動かせれば問題がないように思える一方で、瑕疵があった問題になる文章については生成後に十分に検証・テストされる必要があるでしょう。ただ、このエラー検出込みでエラー率を最小化できるのであれば、人の書く文章をほとんど代替できてしまうのではないでしょうか。またそこから導かれる発展的な関心として、代替後には文章の持つ価値はどう変わっていくのか、という論点もあります。私たちはAIが作った文章にも、人と同じように感情を感じるのでしょうか。もし区別がつかないならば、人にとっての文章の価値・心的な信頼度は徐々に下がるのではないか、と指摘しています。

最後に、情報理工学研究科のMさんによる「言語におけるブラックボックスの問題は画像認識におけるそれより一層深刻なのではないか」という指摘を挙げておきます。言語は私達の思考のプロセスを形作ったり、自身の頭の中にあるものを外界に伝えたり、外界の情報を取り入れる一番の手段です。よって、言語の処理系に何か問題が生じた際の影響も画像処理より大きいのではないかとのことです。さらには、言語については未解明で言語を使用している人間にも説明がつかないことが数多くありそうなので、自然言語処理に問題が生じてもその原因を解明できない可能性があるから、いずれ取り返しのつかないことになるのではないか、という懸念が指摘されました。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

7月8日
江間有沙(未来ビジョンセンター 准教授) 「AI社会の課題と未来ビジョンの描き方」

第11回目の講義は、東京大学未来ビジョン研究センターの江間有沙先生が「AI社会の課題と未来ビジョンの描き方」というテーマで講義してくださいました。

講義は3部構成でAIと社会の関係における課題や、AIを用いる未来の社会のビジョンについて解説されました。

第1部ではAIの問題点について、差別や偏見の再生産を行ってしまうことや、またその背景にはデータの偏りの修正が難しいことなどが問題として指摘されました。それらを解消していくためには、社会での公平性や平等を担保するためにシステムを設計する必要があるとの言及がありました。またスポーツの種別によっては、機械判定が重視されるか人間の判定が重視されるかが異なるように、社会で行われる意思決定ではAIがどのような立場で関わるかについても議論の余地があるとおっしゃっていました。

第2部では働き方・生き方の多様化をトピックに、科学技術が社会に受容される際の認識やビジョンには地理的な差異があることや、AIがもたらす社会の変化にはトレードオフが伴うことが述べられました。また、機械はタスクの代替による効率化しかできないため、労働環境においてその効率化の結果をどう生かすかは人側のタスクマネジメントにかかっているとのことです。

第3部では、まず未来社会のシナリオについてSF作品や各機関が作成した映像を事例に考察し、ビジョンを設定する上で、どのような手段で達成するかも含めて具体的に検討することの必要性を考えました。技術の普及では、普及の影響の予測は難しい一方、普及した技術は制御することが難しくなるという「コリングリッジのジレンマ」があり、社会や個人がビジョンや責任を持つことの重要性が説かれました。(要約は、情報学環・学際情報学府のUさんによる)

公共政策大学院のEさんは日本政府によるSociety 5.0の動画をみて「既視感のあるものだ」と評価した英哲学者ルチアーノ・フロリディ氏のツイートに言及していました。どうAIを進歩させても、日本の既存の価値観や固定観念などが組み込まれてしまったり、未来の人々である国民の視点が欠けがちであったりして、人間が予め考えておかなければならないことは山ほどあることを改めて考えさせられたそうです。また、Eさんは「人間がやるべきことは人間がやるべきまま」という先生のご指摘から、手段だったはずのAIや機械が目的としてすり替わってしまうことに、政策に携わる者は十分注意しなければならないし、単なるユーザーも日常的にこれから意識していかなければならないと書いていました。

フロリディ氏が言及したそのデジャヴも含めて、情報学環・学際情報学府のSさんは、他国の後追いをするのではなく日本のオリジナリティをいかに武器として戦略を作れるか考えなければならないと指摘します。ジョブの代替ではなく(やるべき)タスクの代替という考え方が非常に理にかなっていて、この考え方に基づいて各職種や業界でのガイドラインや指標を政府主導で作り、関係者に明示していくことで早期のAIの採用につながっていくのではないかといいます。

国という意味では、民主主義に焦点を当てた方もいます。情報理工学系研究科のMさんが述べたのは主体となることの必要性です。AIというのは人によって大いに使い方が変わるもので、ただ恩恵を享受するという意識でいるならば特定の権力者のみが喜び、私にとっては望まない未来になりかねないでしょう。また、現状の日本でもディストピア状態になっていることも多々あると感じます。それは、ゴールばかりに焦点が当てられており、なぜそのようにしているか・なぜそのようになっているかという原理的なものが蔑ろにされているからではないでしょうか。だからこそ何時の時代も、どんなときでさえも、なぜという原理の部分は大切にしていこうと決心したそうです。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)