2017年度スケジュール

4月6日 國吉康夫 (情報理工学系研究科 教授/次世代知能科学研究センター長)
「人工知能が浸透する社会について考える」
4月13日 佐倉統 (情報学環 教授)
「ロボットは敵か味方か?」
4月20日 北澤直 (株式会社お金のデザイン 取締役 COO)
「これからの金融の考え方:ロボアドバイザーとフィンテック」
4月27日 宍戸常寿 (法学政治学研究科 教授)
「人工知能の法的課題」
5月11日 学生ワークショップ1
5月18日 江間有沙 (総合文化研究科・教養学部 特任講師)
「人工知能と社会をめぐる異分野共同研究とコミュニケーション」
5月25日 城山英明 (公共政策大学院 教授)
「テクノロジーアセスメントと人工知能」
6月8日 嘉幡久敬 (朝日新聞科学医療部 専門記者)
「デュアルユース技術と軍事応用」
6月15日 学生ワークショップ2
6月22日 長谷敏司 (SF・ファンタジー小説家)
「SFが現実化した時代における人工知能とイマジネーション」
6月29日 藤田卓仙 (医学系研究科 特任研究員)
「医用人工知能とELSI」
7月6日 小林晋也 (株式会社ファームノートホールディングス 代表取締役)
「人・モノ・技術の”繋がり”が変化を起こす、農業と地方コミュニティの現状とこれから」
7月13日 杉山将 (理研AIPセンター長/新領域創成科学研究科 教授
「限られた情報からの機械学習アルゴリズム」

講義レポート

4月6日
「人工知能が浸透する社会について考える」

國吉康夫(情報理工学系研究科 教授/次世代知能科学研究センター長)

第1回授業の講師は、身体性に基づく認知の創発と発達やヒューマノイドロボットなどの研究に取り組んでいらっしゃる國吉先生です。まず、人工知能技術の中でも深層学習(ディープラーニング)の仕組みを説明されました。例えば物体認識の深層学習では、人が用意した写真とそこに映っている物の名前のペアを大量に(例えば100万組)、機械に学習させます。その後、未学習の写真を機械に見せるとそこに映った物の名前を答えます。この物体認識タスクの性能が飛躍的に上がったことが、現在の人工知能ブームの引き金を引きました。しかしいくらシステム処理の性能が向上しても、入力データがないと機械は期待している結果をもたらしません。そのため実世界から情報をとってきてインタラクションできる機械が必要となります。

國吉先生は、「人間の知能が発生するとき、実世界とどうやり取りしているのか、それが脳神経系にどのように学習されるのかを理解する」研究を行っています。人胎児の医学データを統合して身体モデルをコンピュータ上に作り、子宮内環境で自発的に動かします。そうすることで身体の認知がどのように獲得されるのかを研究しています。人は今まで倫理、価値、人格等を歴史的に作り上げてきました。これから先、人工知能が人間の納得や信頼を得る判断を下すには、「ロボットや人工知能は人間のような心を持たないといけないのではないか」と主張されました。

講義後、本授業の共同開講者である佐倉先生、城山先生、そして江間がパネル討論を行いました。佐倉先生の「人間のような心を持つロボット」とはどういうことかという疑問に対し、國吉先生は「心」には動物と人間、あるいは個体差や個性などグラデーションがあり、それを機械に実装するのはとても難しく、まさにそのような議論をあらゆる分野の人と対話したいのだとお話されました。城山先生はそのような連続的な現象に線引きをするのが法律であると指摘されました。例えば法律はどこからが中絶なのかを線引きします。また、ロボットや人工知能があることで新たな価値や法が創出されることもあります。技術と社会が相互作用している中での線引き作業を社会全体として行っていくことが重要です。

最後に、本授業で学んでほしい視点として全員が対話の重要性を指摘しました。佐倉先生は「作る側と使う側での対話」、城山先生は「作ってる側同士での対話」、國吉先生は「これからの世界をどう作るかの対話」、そして江間は「異文化間・国際間の対話」を挙げました。全13回の授業を通して、受講者の皆さんとともに「人工知能が浸透する社会」を考えていきます。

(文責:江間)

4月13日
「ロボットは敵か味方か?」

佐倉統 (情報学環・学際情報学府 教授)

第2回授業の講師は科学技術社会学、科学コミュニケーションなど情報学に関連する様々な領域を横断的に扱っている佐倉先生です。まず、ロボットは敵か味方か?といった問いを考える上で、社会において製作者の意図とは異なる用途で使われた技術を例にあげ、技術と社会は複雑に絡み合って、技術が社会を変え、社会が技術を変えてきたことを確認しました。社会は新しい技術へ忌避感を抱きがちであるが、人間についての見方を変えてくれる「新しい窓」としての機能をロボットに見出すことが重要ではないかと述べられました。また、そのためには、人間と動物の間の橋渡しをするメディア媒体としてサルやチンパンジーが機能したように、人間と機械の間の橋渡しをロボットがメディアとして機能するという考え方もあるのではないかと主張されました。

講義後、学生同士でディスカッションを行い、後日各自コメントを提出してもらいました。そこでは、ロボットが敵か味方か?という議論自体に意味はあるのか、形状や声など人間に近いものだからこその利点及びそれに付随する脅威、社会問題とロボットの因果関係、日本人特有の思考を取り払う姿勢の重要性など、様々な視点からの意見交換が行われました。ロボット研究者と社会とのギャップを感じた学生、社会がロボットを脅威とする背景を検討する学生、双方が社会とロボットについて研究する私達との間に、情報がもたらした大きな溝があることを認識できたようです。

最後に、非現実的な漠然とした問いであったからこそ、各々感じている技術の有用性や危険性を含めた情報を共有でき、活発な議論を起こすことができたのではないかと思います。

(文責:ティーチングアシスタント 正岡汐里)

4月20日
「これからの金融の考え方:ロボアドバイザーとフィンテック」

北澤直 (株式会社お金のデザイン 取締役 COO)

第3回では、株式会社お金のデザイン取締役COOの北澤さんにお話しいただきました。金融テクノロジーの進歩をめぐる問題やフィンテック(Fintech)と呼ばれる新しい潮流についてお話いただいたのち 、ロボアドバイザーを用いた資産運用の実例について紹介していただきました。

キーワードだったのは、「金融の民主化」。金融と技術の親和性は高く、現在ではアルゴリズムを用いたHigh Frequency Treading(HFT) と呼ばれるミリ秒単位での超高速の取引が行われるまでになっています。しかし大手投資銀行やヘッジファンドなどによるこうした取引手法が不公平であるとして、アメリカ証券取引監視委員会(SEC)をはじめ各国で規制の動きも出始めています。資本や知識を持つ「Big guy」が技術を独占している一方、個人個人の金融リテラシーは決して高いとは言えないという現状がある中で、社会全体の利益になるような金融システムを作り、個人が金融に関わっていくことを可能にすること。この「金融の民主化」を実現させるための手段として、北澤さんは最新の情報技術に期待を寄せています。

「フィンテックFintech 」とは、「金融Finance」と「技術Technology」を合わせた造語で、現代のITを駆使した金融サービスのことを指します。小売りではAmazon、宿泊ではairbnb、配車ではUBERなど、ITによって新参企業が今までにない価値や仕組みを提供する動向が生まれていますが、その金融版というわけです。株式会社お金のデザインでは、誰でも資産運用を始められるサービスとして、ロボットアドバイザーを用いたサービスを昨年から提供しています。これは、いくつかの簡単な設問からユーザーが資産運用に求めるものをアルゴリズムにより分析し、それに応じて投資信託を組み合わせたポートフォリオの配分を決定して、アルゴリズム取引を行うものです。プロファイリング、資産配分、トレーディングの各分野においてAI技術の活用度合いには差があり、AIの活用という面ではまだ実用化の途上にあるものの、その可能性を感じさせてくださるお話でした。

ディスカッションでは様々な論点が出され議論が盛り上がりました。AI取引のリスクや責任、あるいはAIがもたらしうる新たな事態への対処についての問題や、投資先の評価をはじめとするAIの用途の拡大についての論点が出た一方で、金融業の業態そのものやより広い社会構造全体についての意見も出されました。受講者の事前コメントでは「金融やフィンテックにあまり馴染みがない」というものも多かった今回ですが、具体的な事例と「金融の民主化」という大きな流れの話を聞いて、「お金の使い方」について改めて考えると同時に、技術だけではなく、それを使う人たちの教育、すなわち中等・高等教育での金融教育の充実なども必要であろうという感想も多くみられました。

(文責:ティーチングアシスタント 猪口智広)

4月27日
「人工知能の法的課題」

宍戸常寿 (法学政治学研究科 教授)

今回は、東京大学大学院法学政治学研究科の宍戸先生に「人工知能の法的課題」というテーマでお話頂きました。AIが社会に浸透するにつれて、表現の自由という既存の憲法の視点から、情報流通の自由を確保することが必要であるが、プロファイリングが悪用され、社会的な差別が起こらないようにするための、保護とのバランスの方法を宍戸先生は考えていらっしゃいます。

そこで、ベネフィットとリスクのバランスをとっていく際に、気をつけなければいけないことは、早すぎる技術革新と緩やかな社会の変化との間にギャップが必ず生じることです。そのギャップを埋めるための政策を立てるには、法律家だけではなく、自然科学と人文社会科学の対話が必要です。法律家の仕事とは、ベン図においての排他的論理和の出来事に対して、プロポーショナルに解決できるように解釈する作業を行うことであり、特徴値を分析するという点でAIと似ている作業なのかもしれないとおっしゃっていました。社会問題とAIに対する期待のバランスにおいて、課題として個人がAIについて学習していく必要がある点、そして組織は意識決定の在り方の再考や役割を変えていかなければならない点があげられ、応じて政府は、適正化のための有効な再分配やAIのための規制強化に取り組まなければならないのではないか、既存の法的インフラではAIを解決できないのではないかと述べていました。

また、労働法を例に、雇用維持や所得維持、職業訓練の負担、知識労働者に適した環境のような課題が、AIが社会に浸透することによりみえてくる、という論文や、トロッコ問題は、以前からあった道徳哲学の問題であり、現実に顕在化していなかっだけでAIの開発により顕在化してきたものである、という論文をもとに、自動車の自動走行について検討が行われました。AI同士が情報通信ネットワーク上で相互通信する、自動走行車に対し安心している歩行者としていない歩行者が存在する、自動走行車とこれまでの車が存在する、という過渡期では、様々な事案が考えられます。自動走行車の事故でブレーキの故障やシステムのエラーが原因となれば、一見既存の判例で処理できそうであるが、そのとき、その原因の責任は、販売者、メーカー、ソフトのプロバイダー、個人の適切なアップデートなど多様な可能性があるとおっしゃっていました。

これらのお話から、学生たちは、AIの導入によって自己決定がゆらぐ可能性があることに対して、利用する側の問題、反対に、作り手の問題であるという指摘や、開発段階でAIのリスクを減らすことに対し、意味がある、意味がないなど、様々な視点から考えました。その上で、AIが利用できる場を定めたり、社会実験を行ったりして、暫定的に政府がルールを決めておく必要があり、かつその決め方を決めていくことが重要なことだと認識させられました。

(文責:ティーチングアシスタント 正岡汐里)

5月11日
学生ワークショップ1

陣内 佑(東京大学 修士2年)・藤堂健世(東京工業大学 博士1年)

「人工知能」に人がかける期待・恐れは何だろうか?そのような疑問から、学生ワークショップ1では江間先生の司会のもと「タスク分けワークショップ」を行った。

ワークショップのプロセスはシンプルである。4−5人のグループで日常にあるタスク(e.g.料理)を上げ、それを2つの軸、「機械に任せたい/機械に任せたくない」と「10年以内に可能/10年以内には出来なさそう」からなる4つのカテゴリに分類する。もし料理を機械に任せたい人・任せたくない人に分かれたとする。その時はどちらが「正しいか」を議論するのではなく、料理というタスクを細分することによって合意が取れるかを確かめる。例えば料理は「調理する」「食器類の後片付け」に分けることが出来、そのうち前者は機械に任せたくないが、後者は機械に任せたいという形で合意が取れる、ということになるかもしれない。このようにして、他の参加者がどのようなタスクを機械に任せたいと思っているかをお互いに理解することが出来る。

私自身はエンジニアであり、この授業の参加者の半分程度が公共政策などの人文社会寄りの学生であることから、どのような意見が出るか、非常に楽しみにしつつ、どこか怖いもの見たさのような気分であった。蓋を開けてみると大変興味深い結果となった。まず、4つのカテゴリのうち、どのグループでもほとんどのタスクが機械に任せたい、かつ10年以内に可能に分類された。これらのすべてのタスクが実際に自動化されてしまったら、一体人間は何をするのだろうかと思うほどである。10年以内に可能なものばかり上がるのは、AIに対する期待が過大であるのか、あるいは真実自動化されていくのか、あるいは10年で自動化出来ないようなタスクを人間はしていないのか、何故なのだろうか。

最も驚きであったのは、私が比較的瑣末なタスクだと思っていたことに並々ならぬ関心を持っている学生がたくさんいたことだ。例えば私は歯磨きはやりたくてやっている訳ではなく、そうしなければ健康を保てないという理由でやっている。歯磨きそのものにモチベーションがある訳ではない。これは多くの方にとってもそうではないだろうか。ところが今回のワークショップにおいて複数の学生が歯磨きにこだわりを持っており、機械による自動化はしたくないと主張した。多くの人にとっては煩わしい日常の「タスク」だが、それをそれ自体に関心を持っている人がいるのだ。歯磨き以外にも、例えば筋トレなどを自動化したい/したくないという学生もいて、そこには結果を目的としている人と、プロセスも目的としている人の違いを見ることが出来た。

日常的なタスクを自動化する需要は大きく、経済的合理性を持って何かを開発できれば大きなインパクトになるのではないだろうか。しかし人がプロセスそのものを自己目的化していることをなかなか手放さないので、そのようなタスクを自動化することはあまり有意義ではないだろう。人がどのような日常にこだわりを持っているかを知ることがテクノロジーの有効活用に繋がっていくのではないだろうか。(東京大学 陣内佑)

今回のWSでは、受講者が主体的に人工知能と日常のあり方について、幾つかのグループに別れてWSを行いました。はじめに用意したテーマを元もとにタスクわけを行い、その後自分たちでタスクを作りました。様々なタスクが作り出され、受講者の日常や普段考えていることを元に議論をして行くことができました。受講者の中に人工知能を専門で研究している人が少なかったため、「10年以内に可能か」「不可能であるか」という部分についてはおおよその判断で基づき特に議論の中心になることは少なかったのではないかと感じました。しかし「機械に任せたい」「機械に任せたくない」という点については非常にどのグループでも活発な議論が行われました。

第1回目では、タスクが「合意なし」に入ることは少なかったと感じました。第1回目で用意されたタスクは、身近な日常から社会問題まで幅広いものでした。しかし実際議論を進めてみると、「選挙」や「要介護者の排泄物処理」について議論が別れることは少ないと感じました。これは近い考えを持つ人—主に学歴、専攻、社会経験が近い―が多いことに由来すると思います。

第2回目では、身近な日常のタスクについて分割を行いました。ここでは「日常」をもとにタスクを作りました。そのため多く「合意なし」にタスクが分類されました。それは、「日常」というものが同じ文化背景を持っていても全く異なることに由来していることだと感じました。私の班で「歯磨きをする」というタスクが出ました。私にとってはこのタスクは機械化してもらいたいタスクでした。しかし他の人にとっては「歯磨きをする」こと自体がその人の日常であり、機械化してほしくないものした。

「日常」を見つめることは、自分の「こだわり」の再発見することです。その「こだわり」が行動のモチベーションとなり人間は動いていきます。この「こだわり」を機械が奪っても良いのでしょうか。WSはその機会を与えてくれました。日常について立場の異なる人と考える機会は滅多にありません。この違いを理解し合うことも難しいと感じます。それがタスク分類で「合意なし」として表象されたのではないでしょうか。

しかし実はこの合意なしの部分にこそ「選択の自由」が存在し、自分の判断で決定できる何かが存在するのではないかと感じました。なぜなら、完全に機械化された世の中には選択の余地はありません。機械化されたものを使うことに疑いもしません。例えばですが、スマートフォン世代で教育を受けた生徒が、それよりも能力の低い通信手段を使うでしょうか。

今回のWSでは「日常」を見つめることで、自分の日常として残しておきたい「こだわり」も再確認できました。このこだわりがあるからこそ自分として生きていけます。どんなに機械化されてしても、自分のこだわりを捨てない限り、人間は人間として生きていけるのではないかと考えました。またそれと同時に、新しいシーズが生まれる。今までに存在していなかった新しい「仕事」や「活動」はより人間の利益を広げる可能性があります。

人工知能や機械が職業を奪うというときに、壮大な野望を考えるよりも、まず自分の日常をどうしていきたいかと考えたほうが、良いのかもしれません。それを他者と話し合うことで、よりよい方向性に持っていくことができるのではないか、そう考えながら更に研究者同士の議論が活発になればと思います。(東京工業大学 藤堂健世)

5月18日
「人工知能と社会をめぐる異分野共同研究とコミュニケーション」

江間有沙 (総合文化研究科・教養学部 特任講師)

今回は、東京大学大学院総合文化研究科の江間先生に「人工知能と社会をめぐる異分野共同研究とコミュニケーション」というテーマで、倫理分野を主にお話頂きました。

まず、社会科学や歴史学、人類学的なアプローチである、「事実と言われているものを記述していく記述倫理」と、「何に価値を置いているのかではなく、価値そのもの本質的なものを考える規範倫理」の2つに大きく分けた上で、幅広い倫理の種類について紹介していただきました。その中で、研究者の倫理(Research Ethics)のほかにAIの倫理(AI Ethics)と倫理的なAI(Ethical AI)という考え方があげられます。研究者個人が研究を行うにあたってどのように行動・判断をするかというResearch Ethicsのほかに、どのような法政策をつくっていくか、AIについての教育をどうするかなどのAI Ethicsと、道徳的、倫理的にふるまえるような機械の構築を通して、従来の権利や自律観点の再構築を考えているEthical AI。倫理と一口に言っても様々な観点で議論され、現在AIと倫理をめぐる多くの報告書や指針が出されています。

そこで、現在までにどのような技術評価の事例があっただろうか、なぜ様々な分野の人がAIについて考えるのだろうかということに対して、歴史的背景をもとに解説していただきました。前提として、研究者の社会的責任という考えがあります。全ての核兵器の廃絶を訴える科学者による国際会議であるパグウォッシュ会議や、遺伝子編集技術に対しての責任問題の対策について議論した1975年のアシロマ会議などは、技術者の研究に対する社会的責任から生まれた会議です。現在、世界各国で開催されているAI研究のあり方を考える国際会議では、長期的な懸念やコントロールの問題、短期的な「破壊的な」進展を念頭に置き、広い枠組みをもって様々な人を巻き込み学際的に考えていかなければならないとしています。この考え方は原子力や生命科学などで議論されてきた「研究者の社会的責任」や「最先端技術の萌芽段階からの議論」の積み重ねの上にあります。

ディスカッションでは、IEEEのEthically Aligned Design報告書について話し合われました。AIを作る側の視点から規制は研究開発を束縛するものだと思っていたが、反対にこれさえ守っていれば責められないからセーフといったようなセーフティラインになりうる可能性があり、抜け道から規制制作者が好ましく思わないAIが生まれることになるかもしれないといった意見や、学際的に指針を作るのなら初等教育でのAIの浸透が優先的に行われることではないかという意見など、AI会議のような学際的な討議が授業においても繰り広げられました。

(文責:ティーチングアシスタント 正岡汐里)

5月25日
「テクノロジーアセスメントと人工知能」

城山英明 (公共政策大学院 教授)

今回は、東京大学公共政策大学院の城山先生に「テクノロジーアセスメントと人工知能」というテーマでお話頂きました。事前課題から、以前の講義で紹介されたIEEEの報告書と今回の総務省の報告書を比較して考えてきている学生が多くみられたため、城山先生はまずどうして、総務省がAIに関する報告書を作っているかという議題から、解説してくださいました。また、日本以外の国では企業と研究所が主となって報告書を作っていることも多いという現実を知らされました。

ここでまず、テーマにもあるテクノロジー・アセスメント(以下TA)とは、独立した立場で、科学技術の発展が社会に与える影響である便益とリスクを市民や政府に伝え、市民の意思決定や政府の政策決定の支援をするというような、影響や効果の情報を整理する役割のことです。日本は、トータルシステムアプローチが強く、どれがよいか、といった答えを決定させる傾向にあるとのことです。しかし、TAの概念が、日本ではなかったわけではなく、1960年代からありました。海外とは異なり、アドホックな実践や縦割りなどの断片的な視野や、個々の一部についての評価はあるが全体的な評価がないなど方法論的問題や制度化の問題があり広まりませんでした。現在になり、国会や行政府、研究開発機関など、様々な機関で制度化の動きがみられているようです。

TAの中で、リスクアセスメントは重要な要素であり、リスクアセスメントとは、被害という社会的影響に焦点をあてられているもので、安全係数などを踏まえてデータから算出したり、被害の定義の幅を考えたりすることが必要になります。同時に、便益とリスクの多面性も考えなければなりません。原子力発電技術のように、国際関係を交えることや、社会の目的が変化することで技術の評価が変わってくることはよくあり、複合リスク問題として対処していかなければならないことも多いとおっしゃっていました。

そこで、AI影響・リスク評価の課題として、便益とリスクのバランスをとったアセスメントの対象の決め方、消費者の権利利益や機能のリスクなどリスクの類型化、短期的なことではなく将来シナリオを考える点、どの分野でどの技術についてなのかというアセスメントにおけるフレーミングの重要性、があげられると最後にまとめていただきました。

講義後のAIについてどのような議題をどのような場で行えばよいかというテーマのディスカッションでは、議論が明らかになっているのにこれ以上議論する必要があるのだろうか、AIをなにと定義するか、といったそもそも論に興味を抱く学生や、分野単位ではなく個人単位で議論の必要があると内容について考える学生など、「AI議論」の難しさを実感することができたように感じました。

(文責:ティーチングアシスタント 正岡汐里)

6月8日
「デュアルユース技術と軍事応用」

嘉幡久敬 (朝日新聞科学医療部 専門記者)

今回は、朝日新聞科学医療部の嘉幡さんに「デュアルユース技術と軍事応用」というテーマでお話いただきました。理科系のバックグラウンドを持ち、現在は専門記者として記事を執筆していらっしゃる嘉幡さんですが、デスクとして東日本大震災後の福島第一原発をめぐる報道に携わられたという経歴をお持ちの方でもあります。

まず取り上げられたのは、「デュアルユース」という語の持つ背景でした。軍事用と民生用の双方に使える、という定義を鑑みれば、そもそもあらゆる技術はデュアルユース可能だといえますが、この概念が提唱された背景にはクリントン政権下の政治事情があります。冷戦終結後の軍事費削減に抗して軍産複合体を維持するために、軍事技術の民生活用を推進する必要がありました。インターネットの成立やGPSの開発に大きな役割を果たした国防総省高等研究計画局(DARPA)はその典型的な存在だといえるでしょう。日本においても、放射線治療へミサイルシーカーの技術を転用する試みなどが行われています。人工知能技術もまたその進展に比して、戦闘用ロボットなど軍事目的の利用が試みられたり、それに呼応した規制の動きが生じていたりと、デュアルユースが問題となりつつある状況です。

他方には、第二次世界大戦の敗戦を経験し憲法9条を成立させた日本の特殊事情があります。1950年と1967年には日本学術会議が「戦争・軍事目的のための科学研究を行わない」という旨の声明を出し、また宇宙や原子力について、平和利用の決議が国会などでなされるといった動きがありました。しかしその後約30年にわたって議論は低調になり、1998年の北朝鮮によるミサイル発射実験(いわゆる「テポドンショック」)以降になると、宇宙政策を中心に軍事研究推進の機運が作られていきます。2008年の宇宙基本法成立や、2012年の宇宙航空研究開発機構(JAXA)法改正などはその典型例だといえます。また現在では、アメリカ軍の研究助成や、防衛省の安全保障技術研究推進制度など、軍事研究費が防衛産業だけではなく大学にも流入するようになっているのが実情です。

こうした動きに、日本学術会議もようやく2016年5月に「安全保障と学術に関する検討委員会」を立ち上げ、①自衛のための研究は認められるか、②民生研究と軍事研究は区別できるか、③防衛省の制度で学問の自由は守られるか、の3点を軸に議論が行われました。2017年2月までの審議を元にした報告と声明も出されていますが、これらの論点以外にも、研究資金の出処による分類がどこまで可能なのか、規制が研究推進の妨げにならないか、そもそも研究資金全体の枯渇をどうしていくのか、など様々な課題が残されていることを教えていただきました。

ディスカッションも、 「『軍事研究 』を定義した上で、『防衛省の安全保障技術研究推進制度』 『米軍助成』 それぞれへの応募について、東大学長としての立場から賛否を明らかにし、その根拠を述べよ。」という、かなり具体的なテーマで議論が行われました。教員と指導学生という関係があったときに特定の研究を「やる自由」「やらない自由」をいかに担保するかや、東京大学かつその学長という立場が持つ政治性をどう考えるかなど、さまざまな論点が提示され、盛り上がった議論となりました。こうしたガバナンスの問題系を個別具体的な人工知能技術といかに接続していくか、各人が考えさせられる回となりました。

(文責:ティーチングアシスタント 猪口智広)

6月15日
学生ワークショップ2

この日は最終課題提出に向けたブレインストーミングを行いました。

6月22日
「SFが現実化した時代における人工知能とイマジネーション」

長谷敏司 (SF・ファンタジー小説家)

第10回となる今回は、小説家の長谷敏司さんに「SFが現実化した時代におけるイマジネーション」というタイトルでお話しいただきました。主にSF(サイエンス・フィクション)やファンタジー小説を執筆されている長谷さんが強調していたのは、SFの想像力(イマジネーション)は「疑い」にかかわるものであるということでした。SFの起源を19世紀にまで遡ると、当時がダーウィンによる進化論の提起に代表されるような、「神話」解体の時代であったことが見えてきます。そうして科学、社会、文明といったものと人間との関わりに疑いが向けられるようになったことが、SF的なテーマが登場してきた出発点にあったのです。SFにおいてAIは、アイザック・アシモフや手塚治虫の『鉄腕アトム』のようなロボットから『2001年宇宙の旅』のような肉体を持たないものに至るまで、時代性を反映しながら様々に描かれてきましたが、そこで提起されてきたのは知能と世界の関わり合いの問題だといえます。

では、イマジネーションとは具体的にどのようなものなのでしょうか。作家として「今ないもの、とにかく新しいものを作ること」を求められる経験をしてきた長谷さんによれば、イマジネーションは単一の知的能力ではなく、様々な種類のイマジネーションがあるのだそうです。「広い世界に説明する」「よく知られているものに新しい切り口を出す」「ビジョンを提案する」「関係を埋めたり膨らませたりする」……など、これらの個々のイマジネーションはそれぞれ相互に代替できないものであり、どのイマジネーションを扱うのが得意かは人それぞれ異なるといいます。裏を返せば、誰もが何かしらのイマジネーションを持っているのであり、「イマジネーションが必要」という状況は、手持ちのイマジネーションと問題解決に必要なイマジネーションが整合していないだけなのだということになります。取材やブレインストーミングのような他人とのコミュニケーションは、まさに自分の不得意なイマジネーションを補うための作業だといえますが、長谷さんはこうしたイマジネーションの領域も人間の専売特許ではなく、将来的にAIが補助・代替しうるようになるのではないかと指摘します。

そこで焦点が当てられたのは「疑う」ことの意味でした。疑うことは、イマジネーションという道具を向けたくないものや向けることをためらうものに当てて、推論や答えを引き出すことなのだ、と長谷さんは強調していました。疑うことで自分の思考を、ひいては世界を再構築することができるのであり、人間に求められているのはイマジネーションをただ持っているだけではなく、責任をもって自在に使うことなのだといいます。また、主観の問題であるイマジネーションは必ず偏向しているため、それを自覚するために自分のイマジネーションにも疑いを向けることが重要なのだと教えていただきました。

ディスカッションでは、人工知能技術戦略会議の資料を元にイマジネーションと疑いを働かせるという趣旨のもと、「自分たちなら『人工知能の研究開発目標と産業化のロードマップの検討状況』をどう構築するか」をテーマとした議論が行われました。学生からは、ロードマップが何のためのものなのか、ロードマップ通りに技術開発が進むのかといった疑義や、ユーザーの利益に対する視点の欠落などが課題として出されたほか、AIとの協調によってどうイマジネーションを高めていくかという課題についての指摘もありました。先端技術を論じる上での基本的な態度としての想像力の駆使がテーマとなった今回は、様々な個別の技術についての議論とは一味違った印象深いものとなったことが、授業後のコメントからも感じ取られる回でした。

(文責:ティーチングアシスタント 猪口智広)

6月29日
「医用人工知能とELSI」

藤田卓仙 (医学系研究科 特任研究員)

今回は東京大学医学部附属病院の藤田さんをお呼びして、「医用人工知能に関するELSIと政策」をテーマにお話しいただきました。東大医学部卒業ののち先端科学技術研究センターや法学政治学研究科で学ばれ、現在は慶應大の医学部や名古屋大の経済学研究科でもお仕事をされている藤田さん。医療政策や医療経済など、医療の社会的側面に精通していらっしゃる先生です。

医学・医療と人工知能の関係は、1970年代にアメリカのスタンフォードで開発されたエキスパートシステムにまで遡ることができます。伝染性の血液疾患の診断システムとして非専門医よりもよい結果を出しながら、このシステムは当時実用化には至りませんでしたが、現在では同じスタンフォードで開発された皮膚がんの診断ソフトによって専門医と同精度の診断が可能になるまでに至っています。また、こうした診断の場面以外でも、治療計画の立案や実施、創薬、予防医療、新たな医学知識の生成など、AIのさまざまな活用が期待されている現状があります。厚生労働省もICTの活用の一環として大きな期待を寄せており、①ゲノム医療、②画像診断支援、③診断・治療支援、④医薬品開発、⑤介護・認知症、⑥手術支援の6つを重点領域としてAI開発を加速化させようとしています。

こうした背景に続いて、藤田さんが現在関わっている精神科領域の研究の実例を紹介していただきました。認知症の高齢者が安全で自律的に経済活動できるような社会的ネットワーク整備の研究、マルチモーダルデータの収集・解析による精神疾患評価の研究、自然言語処理から精神疾患を予防・早期発見する研究など、実施する上での法政策上の課題と合わせて教えていただきました。

加えて、医学研究とELSI(倫理的・法的・社会的問題およびそれらについての議論)の問題についても取り上げていただきました。とりわけ個人情報の問題について、保護法制の乱立や法律改正などについてお話を伺うことができました。

ディスカッションでは医学・医療におけるAI活用への期待や、社会に浸透するにあたってのELSI上の課題、およびそれらの課題に関して各人の立場から関われることについて議論を行いました。AIがもたらす事態に対して、医者とはそもそも何なのか、人間の医者に求められていることとは何なのかといった議論の必要性についての提起や、セキュリティの面では情報が漏洩するような事態を想定した上での法整備が必要ではないかという意見が出されました。また、医療情報による社会的差別の問題などでは、AI固有の問題というよりも医療そのものの在り方の問題がAIを通じて顕在しているだけではないか、という観点も出されました。楽観的・悲観的双方の未来予測も出されている中で、技術の進展に伴って見えてきた課題にいかに対処できるかが、まさに未来を左右する分岐点となりうることを感じさせられる回でした。

(文責:ティーチングアシスタント 猪口智広)

7月6日
「人・モノ・技術の”繋がり”が変化を起こす、農業と地方コミュニティの現状とこれから」

小林晋也 (株式会社ファームノートホールディングス 代表取締役)

今回は農業におけるAI活用の現状について、株式会社ファームノートの小林晋也さんにお話いただきました。ファームノートが本拠地を置く帯広市とその周辺は北海道の中でも特に酪農が盛んな地域のひとつですが、農家数や牛の飼育頭数は年々減少傾向にあり、特に酪農はここ10年で4割減少するなど、生産供給の不安定化が懸念されています。こうした問題を農業IoTの導入によって解決しようとしているファームノートの事業について、まずは教えていただきました。

例えば「Farmnote Color」は、牛の首につけたウェアラブル端末から牛の行動を測定し、人工知能による分析で発情・疾病等の兆候検知、飼育者の携帯端末へ通知するシステムです。「牛の情報をスマホで表示するだけ」ともいえるこのシステムですが、人工授精で生殖を管理している酪農家にとって、発情の見逃しによる受胎機会の潜在的損失は小さくありません。人力によるチェック作業にAIを導入することで、妊娠率は大きく改善するとともに、酪農家の負担も大きく減ったといいます。ほかにもファームノートでは、LPWAN(Low Power Wide Area Network)とGPSを用いた牛の行動分析や、天候などもあらゆる農業データを統合的に収集・分析しスマートデバイスに通知するシステムなど、データの収集・分析・通知というシンプルなプロセスをさまざまな局面で活用するサービスの開発に向けた研究が行われているそうです。このような生産性の向上を目指した農業への先端技術導入は「AgriTech(アグリテック)」と呼ばれており、アメリカでもスタートアップに過去3年で100億ドル以上が投資されるなど、世界的に注目が集まっている分野となっていることを教えていただきました。

後半では、小林さんがキーワードとして挙げた「コミュニティ」の話を交えながら、ファームノートが目指すビジョンについてお話しいただきました。農業の抱える問題としては、日本における離農や高齢化をめぐる問題、農地減少と人口増加による世界レベルでの一人当たり農地面積の減少などがありますが、農業の役割は食糧の安定的確保にとどまらず、国土や環境の保全、景観維持、さらには地域社会の維持活性化とさまざまです。このうちの地域活性化を技術によって実現しようというのがファームノートの理念にはあり、技術開発を起点としつつそれだけにとどまらないコミュニティ作りの様々な活動を、農家や農協などをはじめとするパートナーと共に実施していることを教えていただきました。

ディスカッションは、「どのような政策が農業をよくするか」「なぜ地域社会の維持が必要か」という2つのテーマをめぐって行われました。印象的だったのは、現代の学生にとって農業に対するリアリティを獲得する機会がなかなかないという実態を指摘する意見が複数から上がったことでした。地域を離れたいという若年層の意見にどう向き合うか、いかに農業を知ってもらうかという点をめぐる議論が活発に行われました。また政策面では、補助金とそれ以外の支援のバランスや、農業支援団体への援助と国しかできない事業への資金供出のバランスについて意見が出されていました。ロボットや人工知能といった技術と人にしかできない仕事を組み合わせることで協働を創出し、世界に通用する「農業のGoogle」としての頭脳を目指すと語ってくださった小林さんのお話からは、ベンチャーというまさに挑戦の現場でのAIの活用や、AIに対して寄せられている期待が見えてきたと思います。

(文責:ティーチングアシスタント 猪口智広)

7月13日
「限られた情報からの機械学習アルゴリズム」

杉山将 (理研AIPセンター長/新領域創成科学研究科 教授)

今回は、東京大学大学院新領域創成科学研究科の杉山先生に、理化学研究所革新知能統合研究(AIP)センターにてお話しいただきました。杉山先生は、情報科学や統計学といった機械学習の理論とアルゴリズム開発と、ロボットや脳波、医療や生命といった機械学習技術の実世界応用を専門としており、理論的に筋の通った技術を用いて社会に役立つものを作りたいと考えていらっしゃいます。

AIPセンターは、10年後を見据えた基礎研究を推進している研究機関です。AlphaGoを例にとると、開発者はDeepMindの少数の研究者であったなど、現在流行っている深層学習は10年前冷ややかに見られていた個人の研究だったことからも、基礎研究を推進することは次世代AI基盤技術開発につながると考えていらっしゃいます。短期〜中期の取り組みとして、日本が得意な分野の強化や社会問題を解決、AIP分野のELSI(Ethical,Legal and Social Issues)の分析や発信をして、現在のAI先端技術を活用しながら、中期〜長期の取り組みとして、限定情報学習や因果推論など深層学習で太刀打ちできない難題の解決や企業を巻き込み高度な数学に基づく新産業の創生をすることで、次世代のAI基盤技術を開発していこうとAIPセンターは取り組んでいます。

人工知能の背後にある機械学習では、ビックデータを深層学習で処理することで人工知能の技術が向上するということに対し、最近傍分類での処理でうまくいくのではという意見や、結局ビックデータに関しても次元呪いから離れることができないのではないかとおっしゃっていました。つまり、現実の世界での実用を考えると、限られた情報から精度よく学習する必要があるため、汎化能力についてモデルと学習を切り離して研究を進めていくことが重要です。教師付き分類、教師なし分類、半教師付き分類など既存の学習法では、分類できない事案が多く存在することより、杉山先生は新手法として、正例とラベルなしデータから教師付き学習と同じ収束率を達成できる分類法を確立しました。しかし、このような新たな学習法が生み出され続ける基礎研究と、応用研究や影響研究を統括する役目がこれからは必要ではないかとまとめられました。

今回の講義から、学生たちは人工知能分野の奥深さを感じたようでした。講義内容の理解度において、文理差に正直驚いた工学系の学生も少なくないようでしたし、シンギュラリティについて、メディアと技術者の差に驚いた公共政策系の学生も多くいました。これらの学生の反応が、現在のAI分野の縮図を表している気がします。送り手はどのようにわかりやすく伝えるかよりも、何を伝えるべきことなのか、受け手は何を自分にとって学ばなければいけない内容なのかを、今までの講義を総じて一人一人がまとめることが、「AIと社会」を考えるということだと思いました。

(文責:ティーチングアシスタント 正岡汐里)