2020年度スケジュール

4月9日 江間有沙 (総合文化研究科/未来ビジョンセンター 特任講師) 「人工知能社会の歩き方」
4月16日 担当教員によるイントロダクション 「人工知能が浸透する社会について考える」
4月23日 佐倉統 (情報学環 教授) 「ロボットは敵か味方か?」
4月30日 川口大司(経済学研究科 教授) 「ロボットと雇用」
5月14日 原田達也(先端科学技術研究センター 教授) 「機械学習による実世界理解」
5月21日 唐沢かおり(人文社会系研究科 教授) 「人工知能の心を読むことをめぐって」
5月28日 城山英明 (公共政策大学院 教授) 「人工知能と政治」
6月4日 後藤大 (晴海パートナーズ法律事務所 弁護士) 「人工知能利活用時の法的課題」
6月11日 学生WS: 最終レポート課題に向けたディスカッション
6月18日 小泉秀樹先端科学技術研究センター 教授) 「都市・地域のスマート化と人工知能
6月25日 井上悠輔(医科学研究所 准教授) 「医療におけるAIと臨床での倫理問題」
7月2日 國吉康夫 (情報理工学系研究科 教授/次世代知能科学研究センター長) 「人工知能の将来と人間・社会」
7月9日 井上雄支(日本放送協会 チーフディレクター) 「「AIでよみがえる美空ひばり」を通じた議論形成」

講義レポート

講義レポートは受講学生による(1) 講義まとめと(2) コメントや感想(2名程度)で構成されています(第2回より)。

4月16日
担当教員によるイントロダクション 「人工知能が浸透する社会について考える」

第二回目の授業では、「信頼されるAIとは」というテーマで、江間先生を主催に、國吉先生(知能システム)、佐倉先生(科学技術社会論)、城山先生(科学技術政策)をメンバーとした座談会が開かれました。

最初に、江間先生から前提の話題提供が行われました。近年技術的進歩によって、人工知能(ここでは機械学習)に可能なことは増えてきました。現在は大きく分けて、認識、予測、単純なタスクなら実行をも任せることができる一方、課題も多くあります。例えば誤認識によって、安全性や頑健性への脅威となることがあります。さらに、人為的に誤認識を引き起こすことも可能ですし、誤認識が深刻な社会的問題になる場合も指摘されています。

このような問題にアプローチする一つの手段として、判断の根拠を説明させるというものがあります。システムの修正などは、誤認識の原因がわかれば対処できる場合もあります。技術的対策以外にも、学会や企業などによって倫理指針が作られるなどの取り組みが広く行われていますが、これらの動きは「信頼される高品質なAI」を作ろうという動きとしてまとめることができます。ここで欠かせない問いが、信頼されるAIとは何なのか、というものです。

國吉先生は信頼の要素のいくつかを提示されました。信頼は説明によっても支えられますし、確実に動作することや危険な結果を出さない、などの要素もあります。中でも重要なのは、ロボットを自分に引き寄せて感じる人間の共感です。したがって人間の信頼についての理解も必要であると述べられました。

佐倉先生は、國吉先生の共感や共感の基盤となる身体性が重要だという意見に同意しつつも、同じような機能を持っていても、デザインを変えるだけで人間のイメージが変わってしまう危険性について言及されました。このことはロボットが人間を騙す可能性にもつながるため、技術をデザインする側にも、使う側にも注意が必要だといいます。

城山先生からは、信頼される主体と客体の観点からお話しいただきました。この場合信頼の対象にはシステムとしてのAI、もしくはAIの背後の人や制度を挙げることができます。先端技術が導入されるときには、車や原子力技術のように、その危険性の埋め合わせをする保険や安全規制がセットになることが必要です。最終的には理想的な統制のメカニズムが作れるかどうかも信頼の要因となるでしょう。その際には誰にとって理想的なのかという論点も捨て去ることができません。

以上を踏まえてディスカッションでは、引き続き人とAIの関係性の中で重要な役割を果たすであろう「共感」に焦点が当てられました。共感を実装することの反論の中には、ロボットの人間への共感は軍事などの分野によっては目的の遂行の邪魔になってしまうというものがあります。國吉先生は、むしろロボットに再現された人間性のようなものを実装することにより、行動が制約されることを期待されています。

佐倉先生は、分野と文化によって、AIやロボットの実際の使い方や、どのような使い方が望ましいかはかなり異なると指摘されました。さらに技術は製作者の意図と違う形で利用され、それを受けて技術自体が変化する場合があります。よって、「使用者がその技術によって何がしたいのか」ということも重要であると述べられました。

城山先生は共感の中身に着目されました。そもそもここでいう共感とは、人間がロボットに共感することなのか、それともロボットが人間に共感することなのでしょうか? また、後者であるとすれば、現在使用されているモデルよりももっと複雑なものが必要になるのではないでしょうか。

現在、学会では人間の情動系を模した複雑なモデルが提案されるに至っています。そのようなモデルを個々人の特性を考慮して使用することよって、人間を騙すことも可能になるでしょう。人間が機械の表面的なところだけを見て機械に感情移入してしまう例も指摘されており、しかもその傾向を規制することはできません。このことから深いモデルを製作することの危険性も存在しますが、その傾向には限度もあることを考えれば、その技術を良いものにすることができる可能性もあります。私たちは結局、どのようなものを望んでいるのでしょう?

最後に各先生から受講者へメッセージが送られました。國吉先生からは、AIについての議論は人間についての議論にすぐつながるため、技術開発を担う学生と社会制度について考える学生が共通理解の上に議論し作業する必要があることをお話しいただきました。佐倉先生は、昔の事例と同じところと違うところがあるが、その見極め自体が文化の影響を受けるため、様々な分野の人が様々な分野の知見を持ち寄る必要があるとおっしゃっていました。城山先生は、これからの人口の減少を見込んだときにより踏み込んだAI技術が必要になる可能性を指摘され、いろいろなことをつなげて考えるようメッセージがありました。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

4月23日
佐倉統 (情報学環 教授) 「ロボットは敵か味方か?」

第3回の授業を担当されたのは情報学環の佐倉統先生です。人工知能と文化の関係と、4月現在、世界で流行しているCOVID-19と社会の関係について科学技術社会論の立場からお話されました。

はじめに、人工知能と文化の関係についての講義では、日本と西洋の母子像の関係を参考に話されていました。日本の母子は、第三の事象をともにみる共視論を重視しているのに対し、西洋の母子は、閉鎖空間の中で1対1に向き合っているということを指摘した上で、その母子の関係性をロボットと人間の関係に応用されました。日本での人とロボットとの関係は共通の第三項を共有できる対等の仲間である一方、西洋では、閉じた世界を構成する要素としてロボットがいる。かつ、西洋ではロボットと人の優劣関係がわからず、ロボットの能力が上がると脅威として扱われやすいのではないかとおっしゃっていました。これらのことから、科学技術は普遍的か、地域によって異なるのかという議論を投げかけられました。

講義を受けて、受講者は以下のようなコメントをしていました。

情報理工学系研究科のRさんは文化差が及ぼす影響はあまりないのではと考えています。なぜなら、科学技術は「人類に利すること」という世界で共通の目的のために発展しており、そこに地域ごとの個別の文化の要素が介在する余地は少ないように思えるからです。

また、学際情報学府のHさんは、将来的に自身が研究開発する身に立って、本当に欧米の人の思想を理解できるのかということに不安を感じたそうです。文化差を乗り越えて思想を根本から理解することは厳しいため、自国の技術の浸透を前進させるためにちょうどいい具合で改良する必要があるが、この理解と改良は非常に難しいのではないかと考えています。

COVID-19と社会の関係についての講義では、 公衆衛生と個人の自由を担保する個人主義は相性が悪いと指摘をされていました。徹底的に検疫をするためには情報技術を使い、行動履歴を把握するなど、監視の必要がありますが、プライバシーの保護は担保できません。これを受けて、公共の福祉と個人の自由についての議論がありました。

情報理工学研究科のNさんが公共の福祉を重視し、早急に法制度を構築した後に、 使用できる団体・目的を限定した上で半強制的に情報の提示を行うのがバランスが取れた政策になると述べていました。さらに、緊急事態時の政策だけに依存するのでなく、日常から市民はより一層ITリテラシーを高め、情報社会とは何か、その利便性と危険性を正しく理解し、民主主義の根源である自己決定権を守る必要があると、総合文化研究科のIさんは述べています。

COVID-19に関して言うと、公共の福祉だけでなく個人の命も関わってくるため、天秤にかけることが難しい議論ではあります。さらに、日頃からの知識収集や、行政によるそのプラットフォーム作りも今回の緊急時に備える一つの手立てかもしれません。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

4月30日
川口大司(経済学研究科 教授) 「ロボットと雇用」

今回の講義は、川口先生(経済学研究科)のご担当です。内容は新技術、特にロボットの導入によって雇用がどのような影響を受けられるかに関しての講義で、前半と後半に分けてされました。

まず先生は前半の講義で、今後の労働人口49%の仕事が人工知能やロボット等に代替されるという研究が紹介されました。しかし、実際どのようになるのかはまだ研究する必要があります。産業用ロボットの導入からみると、国によって影響が異なります。アメリカは東側の地域、特に自動車産業の盛んな地域では産業用ロボットの導入に伴って失業人口が増加しました。さらに、教育レベルの高い人より、低い人が失職する可能性だけではなく、賃金をも下がる可能性が高いと先生はいいます。ドイツの製造業もロボットによって大きな影響を受けましたが、ほかの産業、たとえばサービス業界では雇用が増えたため、全体としては雇用状況はほぼ変化ありませんでした。日本はロボットの導入によって逆に雇用が増加しました。この結果を元に、なぜ各国でロボット導入が雇用に異なった影響を与えたのかディスカッションしました。後半の講義はAIの話に入り、予測AIが雇用にどのような影響を与えるか、予測と決定は(編集者注:主体が)分かれているか、コロナによるリモート化は働き方の今後にどのような影響を与えるかについてディスカッションしました。(要約は工学系研究科のWさんによる)

経済学の文脈では、主に費用と便益といった観点から分析がなされますが、紹介された結果が国際比較であることを踏まえ、受講者の中には文化に着目する人もいました。情報理工学系研究科のTさんは、中でも日本の社会制度について言及しています。日本はドイツやアメリカと比較して、低・中所得者に優しい社会制度設計がなされているため、職が代替されても再分配がうまくいくのではないかと推測しており、社会の仕組みを適切に整えることが重要だと指摘します。

学際情報学府のIさんは、国別に結果が異なることについて、上の論点に加え、相関関係と因果関係の違いを指摘します。相関したデータから因果関係を抽出することはより高度な解釈が必要であるため、それこそが人間が必要な理由であるとも言います。

総合文化研究科のIさんも同様に、人間の必要性について指摘します。とりわけ人間の自律に関わる分野(医療や裁判など)や、変化の可能性が高い分野(教育など)については、人間がその決定を行うべきで、あくまでAIは補助デバイスであるべきだと言います。分野によって予測をAIに任せられるところ、任せられないところがあるからです。

機械による判断は、人間による不合理な判断を解消するという期待を持たれている反面、多くの人は機械の判断に(も)欠点があると考えています。いつAIに判断を任せ、いつAIに判断を任せないかという基準は、AIではなく人間が決定する必要があるでしょう。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

5月14日
原田達也(先端科学技術研究センター 教授) 「機械学習による実世界理解」

第5回目の授業を担当されたのは先端科学技術研究センターの原田達也先生です。機械学習による実世界理解について話してくださいました。

先ず、10年以上前からの実世界認識知能の研究ステップや労苦につき説明がありました。どのようなものが比較的認識が容易で、どのようなものがそうでないか対比しながらの説明や、2次元情報を3次元解釈に置き換えるに当たっての基本的なポイントについての説明もありました。

講義で焦点が当てられたのは予測精度向上です。情報は処理すればするほど破壊されるという傾向があります。また、オリジナルのインプットは人間が行う必要があり、大量に行うにはコストもかかります。したがって、課題になるのはいかに良質のインプットを確保するかです。人間がすべてを伝えつくせるわけではない一方で、伝えられないからといって間違いとは限りません。これをマルチラベルのPU問題といいます。これ以外にも、同一の対象物であっても着目するファンクションによって認識が変わることや、注意のレベルによっても結果が変わること(「文ではない文脈」がある) を捉える必要もあると思われます。

なお、加法性のある性質のデータセット(例えば音源)の場合、データ量に限りがあっても比較的精度を上げやすいと言われます。これをBCラーニングといいます。 (要約は公共政策大学院のNさんのコメントより改変引用)

人間は少数もしくは限られたデータから学習を行い、高い汎化能力を持つように見えます。では計算機にこのような能力を身に着けさせるには、どのようなアルゴリズムや理論、そして概念が必要と考えられるのか、というテーマでディスカッションを行いました。

工学系研究科のM さんは、情報を反転させる方法や、ランダムノイズをわざと与えた情報を使って学習させるやり方が比較的高精度で実施されていることを知り、もっと詳しく学んでみたい。と、テクニカルな側面からのお考えと、実際の事象についてのご興味を示されました。

さらに学際情報学府のKさんは、AI/ロボットとの認識・学習と比較すると、人間が認識・学習する時には「身体性」や「五感」が学習のポイント・優位性になっているという考えに基づき、人間が事物を認識する仕組み(言語の習熟、ものことの理解)を幼児の学習状況を参考に、アルゴリズムを設計することが考えられるとおっしゃっていました。さらに,人間が物事に対して行うような概念化・抽象化をアルゴリズムに取り入れられるのか、可能ならばどう取り入れるのかという疑義を示されました。

また、AIの発想が人間にも思いつくものということを前提とし、AIを人間がどう使いこなすのか、という点が今後の課題であると総合文化研究科のWさんによるご指摘がありました。AIが万が一人間の想像を逸する内容を思いつき、行動し、影響を及ぼした場合を想定し対策することも、「AIを使いこなす」ということの範疇に入るのかもしれません。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

5月21日
唐沢かおり(人文社会系研究科 教授) 「人工知能の心を読むことをめぐって」

第6回目の講義は、人工知能と人間の関係性を心理学の観点から、唐沢かおり先生(人文社会学研究科)にお話しいただきました。

AI/ロボットはもちろんそれ自身が“心”を持っている訳ではありませんが、人間がそれらの存在に心を感じることは少なくありません。心の知覚には2つの機能があり、行為(行動)するための心であるAgencyと、感じる心であるExperienceがあります。人の形をした人工物に関しては、ロボットの外見などの知覚対象が人間らしい特徴を持つほど、人間側が心を知覚しやすくなるという傾向があります。作り手がこの傾向を良い方向に利用している事例として、医療・福祉分野での適用例が紹介されました。特に高齢者向けの介護ロボットであるパロなどをはじめ、心の知覚を促進するAI/ロボットが認知症患者の動揺・抑うつ低減などの効果をもたらしているということが紹介されました。講義後半ではAIBOなどの例が取り上げられました。さらに、AI/ロボットに道徳的地位があるといった考えに基づき、例えばロボットの記憶の消去やハンマーで叩く実験などの加害を見た人間が苦痛を感じることについて触れられました。これは、人間がAI/ロボットをモノとして扱いきれていない現状、そして社会的な相互作用を伴う人間に近い存在になり得る可能性を示唆するものです。その傾向が強まることで、友情や恋愛の対象になる可能性があるという研究結果もあります。(要約は公共政策大学院のMさんによる)

ロボットが友情や恋愛の対象になりうることは、受講生の方々に強い印象を残したようで、この点についてのコメントが多く見られました。情報理工学系研究科のWさんは、「個人的には非常に恐ろしいことだ」と記しています。Wさんが心配しているのは、アニメに依存する人がいるので今に始まったことではないという前置きがありながらも、ある程度決まりきった行動をするロボットと付き合うことによって人間味が失われていくことです。

一方で、このような問題視の妥当性に着目されることもあります。情報理工学系研究科のTさんは、人間には自分で友人や恋人を選ぶ権利があり、それは他人がとやかく言うものではない、ましてロボットと付き合うことを理由に差別されるいわれはないと言います。Tさんはその差別の理由に、異質なものへの生理的・信条的な嫌悪感を指摘し、将来アンドロイドと付き合う人に対しての差別にはそのような感情が起因するのではないか、と指摘しています。

ではこのような問題に対して、人間はいかに向き合うべきなのでしょうか。工学系研究科のNさんは、「子供を育てる感覚で」AIと付き合うことを提案しています。AIの実装にあたっては、社会問題の解決のためのスピードも重要ですが、その問題の内容が読みにくいことを考えると、慎重さや長期的観察も重要です。実装で生じた予想外の問題に適切に対処するため、事態の長期的観察が求められるといえるでしょう。

近年、音声合成ソフトウェアがキャラクター化された初音ミクと結婚式を挙げた人のニュースが話題になりました。ここから言えることは,婚姻関係の多様性とも言えます。「本来結婚すべきでない存在」だと誰か/何かを断ずるとき、何を根拠にしているのでしょう。これまで結婚してきた人はすべて、「結婚すべき/してもよい存在」だったのでしょうか。それは誰が/何が決めてきたのでしょうか。

(編集/文責:ティーチングアシスタント 前田春香、西 千尋)

5月28日
城山英明 (公共政策大学院 教授) 「人工知能と政治」

第7回目の授業を担当されたのは公共政策大学院の城山英明先生です。AIガバナンスとその課題について話してくださいました。

講義前半ではAIのガバナンスをどう作るかについて扱いました。技術は実装段階のみならず、技術研究、施策の段階から社会にどういった影響を与えるのかについての分析や議論を行う必要があります。その手段の一つとしてテクノロジーアセスメントがあります。AIガバナンスにおいては、ソフトロー的側面とハードロー的側面があり、前者には研究開発の原則と利活用の原則が、後者にはリスク管理などがそれぞれ挙げられます。ソフトロー的側面においては、日本が「人間中心」という原則を置いているのに対して、中国では “Harmony and Human friendly”という原則を置いているという違いがあります。また、OECD、G20など国内だけでなく、国際平面での議論も行われています。これを受け、ディスカッションではAIガバナンスとして国際機関や民間団体がどのような役割を担うことが出来るかについて話し合い、国際機関は限界がありながらも普遍的な規範を作成する役割があり、民間団体はニーズの吸い上げなどの役割があるという意見が挙げられました。

後半ではガバナンス・公共政策におけるAIの役割について扱いました。バイアスやアルゴリズムによる判断統制などの課題がある一方で、それを補正する試みもあることが紹介されました。ディスカッションでは、どのような公共サービスにおいてAIやロボットが役割を果たしうるか否かについて話し合いました。そこで、公務員のルーチンワークの代替など多くの業務をAIが担えることが指摘されました。 (要約は公共政策大学院S.K.さんによる)

公共政策大学院のS.N.さんは、“Harmony and Human friendly”という原則と、中国がAIと人間との協調を唱えていた点が印象に残ったといいます。AIは人間が自分たちのために作り出した技術であるため、日本の原則のように人間中心で書かれるのは当たり前だと思っていましたが、そうではない見方もされているということに驚いたそうです。

実装の提案をした学生もいました。情報理工学系研究科のKさんは、この授業が行われた2020年に国会で成立したスーパーシティ法によって、ビッグデータを民間企業の活動や公共サービスに活用していく実験的法制が整いつつあると指摘します。Kさんはまず箱庭的な環境でテクノロジーを積極的に活用した暮らしを試し、そこでのプラスとマイナスの発見を活かして展開していくのが良いのではないかと考えます。さらに、現状では既存の自治体を「スーパーシティ化」していく方向で進んでいますが、既存の住民の合意が難しいので本当は新たな都市を建設して移り住んできてもらうのが理想だと考えられます。

最後に、責任に着目している方をご紹介します。公共政策大学院のQさんはAIガバナンスの主体としての企業などの民間機関がAIに対するガバナンスの構築を行うことに対し、特にAI技術の特性によるガバナンスへの影響が大きいことを考えると、各国共通の議題となっている「公平性」「倫理性」「説明責任」「透明性」について十分な検討を行う必要があるのではないかと指摘しました。

AIの開発から社会に実装するに至るまで、様々な方が関与します。その方がより動きやすくするために、また、より良いAI実装を実現するためにも様々なステークホルダーが共創していくことが大事なのかもしれません。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

6月4日
後藤大 (晴海パートナーズ法律事務所 弁護士) 「人工知能利活用時の法的課題」

第8回目の講義は弁護士の後藤大先生にご担当いただきました。人工知能利活用時の法的課題についてお話しくださいました。

講義では、AIをめぐる法的課題や規制手法に関する論点の他、具体的な学習済みモデルの生成過程、特許、AI開発契約とデータ契約についての説明がありました。前半部分では、ケンブリッジ・アナリティカ事件との関連で、民主主義とAIの利用が議題に上がり、データが操作されることにより違う意見に接する機会が奪われることがあります。それによって、民主主義の正当性が失われる危険性があると指摘していました。他にはAIを用いたサービスを介して、本来であれば誰にも知らせず心の内に閉まっておきたいような事柄がデータの力で暴かれてしまうという問題の紹介がありました。後半部分では、AIに関する政策、倫理指針や自動運転の事故と責任問題、自動運転を用いた上でのトロッコ問題の検証について説明がありました。ドイツでは自動運転実施中に避けられない事故が起きた場合、事故にあった人の個人的な年齢、性別などの個人的特徴などによる評価判断は厳しく禁じられているということをお話しくださりました。また、このことは日本ではまだ十分に議論されていないことが指摘されていました。公立高校の入試にAIによる感情分析を導入することへの是非を問われ、ディスカッションを行いました。そこでは、あくまでも人間もAIも判断をしており、その点では人間の場合でもバイアスがかかっているため面接官を変える際の気づきとしての利用の提案や、感情分析という情報がそもそも必要なのかといった議論が行われました。(要約は総合文化研究科・Nさんによる)

特に面接で感情分析を導入するという話に、受講生の皆さんが興味を示したようです。公共政策大学院のKさんは、学生が面接官に嘘をつくリスクを下げる・面接官のバイアスを取り除くことができると述べています。一方で、学生の個人差や、AIの評価基準が一部の人にだけ知られた際のリスク、さらには学生の「黙る権利」を保証しない可能性について言及しています。技術の導入にはまだ様々なリスクが取り除かれていないというわけです。

このような技術を導入するときに、利用者は十分な同意を行っているのでしょうか。現在、同意の手段に利用規約が用いられていますが、情報理工学系研究科のNさんは、利用規約を利用者にすべて読ませること、つまり利用者に任せてしまうことは現実的でないといいます。さらに、使用目的・使用方法を明文化させる、第三者による監査を義務付けるなどの企業に対する規制が必要なのではないかと述べます。

このような規制を行うために法律は一つの重要な手段となりえます。しかしAIは新しい技術であるため、法規制や司法への落とし込みを同時に進めていく必要がある部分は困難なのではないかと工学系研究科のSさんは述べます。スピードを確保しながら規制を進めていくためには、法律といったハードローをその都度制定するよりも、現行法を改正すること、ソフトローを援用することが現実的でしょう。

技術に国境はありませんが、法律はその国の文化を土台に形成されるものであるため、異なる国の法律や倫理と整合性をいかに取るのかという課題があるのかもしれません。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

6月18日
小泉秀樹先端科学技術研究センター 教授) 「都市・地域のスマート化と人工知能

第10回の授業を担当されたのは工学系研究科の小泉秀樹先生です。テーマは、都市・地域のスマート化と人工知能でした。

前半は、「都市・地域のスマート化と人工知能活用の期待と課題」について考えました。まず、スマートシティの類型は1.0にE-government Smart Government、2.0にSmart Grid からエネルギーマネジメントの流れ、3.0に都市自治体における官民連携によるイノベーション、4.0にスマートないしはイノベーティブ人材の集積する都市があります。類型2.0から3.0への展開に、EU、US、中国などが行っているIoTやAIを活用し、センシングすることによって「ひと、もの、かね、こと」の動きを把握することが日本のスマートシティ展開で課題となっています。さらに多くの事例を通じて、スマートシティをめぐる論点も浮かび上がっています。具体的には、「タンジブルな都市の将来像の問題」・「市民の参加巻き込みや意思形成、ガバナンスの問題」・「マネタイズ、ビジネスモデルの問題」があります。

後半は、「with and after COVID-19 時代における都市・地域像とスマート化のあり方」を考えました。まずCOVID-19が原因の都市ロックダウンなどが、都市の本質的価値である場所(place)と移動(Link)について考え直す契機となりました。また、 ジェイコブスの都市論で「都市イノベーションの条件」・「都市の多様性が確保される要件」を扱いました。(要約は学際情報学府のIさんによる)

この授業を受けてのコメントを以下に紹介します。学際情報学府のIさんは、都市の価値である場所(place)と移動(link)の概念を聞いた時、それらがインターネットと重なったそうです。ディスカッションで議論された「オンライン通話の相手が限定的なコミュニティになる」「偶然良い場所を発見する偶然性がない」などの意見はインターネット上のフィルターバブル現象に似ているかもしれない、とコロナ禍における生活様式とスマートシティの形態をフィルターバブルに当て嵌めました。

また学際情報学府のSさんは以前別の講義で、今回のCOVID-19は来るはずであった10年後の世界に強制的に集団でワープさせられたようなもの、という話を思い出したそうです。我々の生活そのものはデータなどによるスマート化はされていませんが、リモートでの授業や仕事、手続きでの印鑑不要など、生活様式はスマート化した社会に近づいたと感じたとおっしゃっています。

さらに生命や社会階層に関わる重要な指摘もありました。工学系研究科のYさんは自分自身を問題なく守ることのできるように災害時、所在地の被災程度、交通機関の混雑度、避難所の受容状況などのデータを一体化すること、さらにシミュレーションを通じて、個々人に一番合理的な避難動線をデザインできることが一つの手段であると考えます。しかし、この時、携帯端末を持っていない人やうまく使えない人が社会弱者になるのが問題視をすべきところだと指摘していました。

画期的なものを作ることは、ロマンティストの素質が必要です。その観点も大事にしつつ、現実的なものや社会的弱者への眼差しもあればよりいいものを作ることができるでしょう。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

6月25日
井上悠輔(医科学研究所 准教授) 「医療におけるAIと臨床での倫理問題」

第11回目の講義は、医科学研究所の井上悠輔先生に、医療におけるAIと医療における倫理問題というテーマでご担当いただきました。

まずお話されたのは、医療現場におけるAIの導入がどのように進んでいるのか、そしてどのような課題が現状あるのかという点でした。医療にはAIの活用分野として大きな期待が寄せられていますが、実は機械に診断を手伝ってほしいという医師はある程度昔から存在していたそうです。重要なのは、医師の役割、そして国の承認を要する医療機器としてのAIの位置づけです。少なくとも日本の現行の法律の下では、診断の主体はあくまで医師でなければならないということです。また日本における機器の承認制度によれば、承認後に性能が想定を超えて大きく変化するようなソフトウェアを使い続けることは難しく、学習による変容を把握しておくことが重要になります。このように、AIの可能性や長所を生かしつつも、一方で人がどう関与するか、機器の挙動をどのように把握するか、技術レベル以外にも課題が多いのです。

次のAIに対する認識について、厚生労働省の研究班が実施した調査の結果が紹介されました。これによれば医師と患者の間で色々と見解の相違があるようです。一部の医師はAIを用いて、結果に至るプロセスが分からなくても患者のためになるなら利用したほうがよいと思っています。先生はこれをパターナリスティック的だとおっしゃっていました。一方で市民はそういったAIを使うかどうかには、患者の希望を優先すべきだと考えているそうです。また、高齢者の見守りにAIを使うべきかには、どの年代でも人のみの見守りが良いという人はあまりいません。人よりもAIの機能を信頼しているという理由もあれば、人に負担や迷惑をかけたくないのでAIを選択したという高齢者がいることも明らかになりました。「(人の選択範囲を広げるつもりだったはずが)実は技術が人の選択肢を狭めてしまってはいないか」という視点も持って欲しいという先生からお言葉がありました。(要約は公共政策大学院のTさんによる)

AIの実用を議論するときは一般に、AIの導入が可能か、というテーマにフォーカスされることが多いです。しかし、それ以前にAIに頼らざるを得ない状況があるのではないか。と公共政策大学院のOさんは指摘します。もちろんAIの影響を考慮することは重要ですが、患者が医師に求める医療の質は技術・治療はもちろん、インフォームド・コンセントまで多岐にわたっています。そのため、医師にできること、患者が求めることを整理し、そのギャップを埋めるようなAI活用が求められます。

では、患者は何を求めているのでしょう。もしケアを患者が望むのならば、ツールとしてのAIの導入は難しいのではないかと公共政策大学院のKさんはいいます。何より、訴訟リスクによって医療コストが莫大になる可能性も危惧されます。患者が結果志向なのかプロセス志向なのか、他にも病状や治療のタイプにより、AIの導入は進む/進まないに二極化することが考えられます。

そのようなリスクに対応するために、公共政策大学院のSさんは保険制度を提案しています。AIを用いた診療には割増の診察料金を設定し、一部を保険金として積立、AIによる医療事故が起こった際にはその積立から給付を行うというものです。ここでの問題は、AIによる誤診は責任の所在が不明瞭になるという点ですが、この問題を正面から解決するよりも、リスクを適切に分配する保険システムが妥当ではないかと述べています。

少子高齢化が激しい日本においては今後の医療事情が深刻になることが見込まれ、それだけに技術活用による負担の軽減が待たれます。十分な議論を尽くしながらも、早い導入が望ましいと考えられます。

(編集/文責:ティーチングアシスタント 前田春香、西 千尋)

7月2日
國吉康夫 (情報理工学系研究科 教授/次世代知能科学研究センター長) 「人工知能の将来と人間・社会」

第12回目の授業は情報理工学系研究科の國吉康夫先生です。New Normal with Corona by AI/IT、AI時代に問われる人間的資質とその発達的起源:身体性と社会性、感情と創造、人間性というテーマで講義をしてくださいました。

授業では、AI時代に問われる人間的資質とその発達的起源、そしてオンライン化の影響や技術の進歩が社会に与える影響について論じられました。技術の革新は失業や所得格差の拡大などの社会問題を引き起こしえます。そのような状況で生き延びるためには、業務自体の計画設計能力や柔軟性がある職務を重視すべきだと明示されました。また、AIは技術的には検索、推論、計画、最適化というアルゴリズムであり、良い結果を得るためにはデータの質や定義されたタスクの明確性が重要です。一方で、信頼性や安全性などの問題点が存在しています。さらに、生物進化や神経回路の例を挙げられて、身体を使いこなし、情動も喚起するような人間型のロボットの基本原理を紹介されました。最後に、AI・ロボットの利活用によって、人間・社会が変わる方向について議論を行いました。 (要約は公共政策大学院のKさんによる)

この講義を人間は何か、知能とは何かという本質的な質問と捉えた方もいました。情報理工学系研究科のTさんは情動を感じ、理性的に判断を下しているこの判断主体とは何なのか、そもそも本当に存在するのだろうかと問います。確かに人間の理性や意識というものは脳の特定部位での化学反応ではありますが、それだけのものと片付けることに抵抗を覚える人も多いでしょう。ではこれを人工的に実現するためになにが必要なのか、それを考えれば考えるほど自分自身とは何なのかに深く考えさせられるそうです。

作り手の立場から、身体性に着目している方もいました。情報理工学研究科のWさんは、國吉先生が着目するボトムアップな創発というアイデアは、ソフトウェアをつくる研究者にとっても非常に有用であり応用ができるのではないかと述べています。より具体的には、敵対的サンプルの問題や説明可能性の問題はディープラーニングにおける大きな課題となっているが、ここにアフォーダンスといった身体的認知の視点を取り入れモデリングしてみることで改善ができるのではないかとコメントがありました。

今回は、哲学的なところから技術的なところまでありとあらゆる範囲を包括していた講義で、その分受講生の方の抱く考えや感想も多様でした。最後に公共政策大学院のMさんの意見を紹介します。

AIの設計には自由度があり、より適切に問題設定し設計する中で、「人間の在り方として外してはいけないことは何か」「どうあるべきか」「技術にどの方向に進んでほしいか」などを全ての人間が当事者として考え、議論し、自己決定していくべきという意見を先生が述べられたことから、公共政策大学院のMさんは、 全ての人間が当事者として考える重要性は個人的にも賛成だが、どうすれば実現できるのかと疑問を呈します。特に国を超え、複雑な利害関係のある政府間では難しいことも多いため、産学でできることが非常に多い分野なのではないかと指摘がありました。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)

7月9日
井上雄支(日本放送協会 チーフディレクター) 「「AIでよみがえる美空ひばり」を通じた議論形成」

最終回の第13回目の講義はNHK所属の井上雄支先生をお招きし、先生が開発に関わった2019年紅白歌合戦に出場したAI美空ひばりについてお話しいただきました。

AI美空ひばりの開発はNHKのど自慢大会の鐘つきをAIにさせたいとの井上先生の同僚の声がきっかけでした。ここからエンターテイメントにAIを取り入れるという着想を得て、AIの両義性と多義性を見せることを開発のねらいにプロジェクトが進められました。そして約1年後の2019年9月29日、NHKスペシャルでお披露目したところ、反応はおおむね好意的だったそうです。2019年12月31日にはNHK紅白歌合戦にAI美空ひばりが出場し、多くの人の目に触れることとなりました。このAI美空ひばりの紅白出場には2019年9月のお披露目にはなかったような、さまざまな議論や多くの否定的な反応がありました。これらの背景を踏まえ、前半のディスカッションではAI美空ひばりへの賛否両論がなぜ生まれたのかについて議論しました。否定的意見には、セリフや肖像権に本人の同意が取れないことや感情ビジネスに対する反感などがありました。否定的な見方を和らげる方法に、ステークホルダー間での話し合いなどの調整や法整備と、ストーリーを見せて熱意を伝えることが提案されました。後半のディスカッションでは、どのような展示がAIの社会的受容を促すことができるかについて議論し、製作者側のコメントを伝える、逆に受け手側のコメントを可視化する、他のアーティストとデュエットして一体感を出すなどの意見がありました。(要約は公共政策大学院Sさんによる)

NHKでAI美空ひばりが公開されたことから、大衆の反応に焦点を当てるコメントが多く見られました。例えば公共政策大学院のSさんは、「未来はこうもあり得るのではないか」という可能性を提示するデザインの一手法であるスペキュラティブデザインに言及して、紅白を中心に巻き起こった議論をそのまま来場者に提示し、「あなたはどう考えるか」と問いかけることを提案しています。オンラインを活かせば、他の来場者のコメントを見ることやワークショップを開くことも可能でしょう。

公共政策大学院のOさんは、「なんとなく嫌」という視聴者の感情を無視して、社会的受容を推進しても良いというわけでもないと考えます。公共放送であるNHKは、営利企業によって運営されるメディアとは異なる立ち位置を持つものです。だからこそ、NHK自体が賛否両論の中で独自の立ち位置を取ることが可能なのではないでしょうか。賛否両論は、「なんとなく嫌」から、「こういう理由で嫌」という表現を可能にする効果を持つことがあります。このような曖昧な感情を押しつぶすのではなく、視聴者が「なぜ嫌だったのか」「どのような形ならいいのか」と考えるきっかけを提供することが真に有益なのではないか。と締めくくっています。

ところで、これまでの話にはある一つの前提があるように思われると情報理工学系研究科のWさんは指摘します。それは、AI美空ひばりは冒涜ではない(、だから社会的受容を促進してよい)というものです。本当に「冒涜だ」と考える人に対して、いかにAI美空ひばりの素晴らしさを伝えようとしてもあまり意味がないでしょう。もちろん重なっている部分もあるかもしれませんが、なんとなく受け入れがたいと感じる層よりも彼らの抵抗感は強く深いものといえるかもしれません。であれば、このような人たちにとっての「良い展示」とは何でしょうか?

今回の講義はこれまでの学術的な分析や観点からは違い、実際社会に出て働いている方からの現場の声が聞ける機会であったとでも呼べる貴重なものでした。実際に放映されSNSでも話題になり、また賛否が寄せられた例でもあったので、受講者にも「どこか遠い世界のもの」ではなく、より身近に感じられたものと思います。

(編集/文責:ティーチングアシスタント 前田春香、西  千尋)