TEXT[テキスト]

​複雑で専門的な科学技術政策という課題について、市民社会は、何を、どのように考えれば良いのでしょうか?
研究所に寄せられたそんな要望に答えるため、一つの方法として、テーマごとに「テキスト」を紹介していくことにしました。但しいわゆる教科書のような形式はとりません。文系、理系に関わりなく、自由に自分の問題として考えるきっかけになる読み物と考えてください。

 
 

はじめに

科学技術やその政策の市民への影響を考える研究所―ポラリスは、東京は新宿に近い文系の男女学生が集う私立大学のキャンパス内にある。都会に揉まれ科学に翻弄される現代の若者達。このシリーズは、科学に馴染みのない―けれど興味はある―若い学生や社会人を対象に語る。

臆病の神降ろし (前編)

1. 
 「今日の授業はこれで終わります...。」
 試しに数えてみて自分でも驚いた。千回以上は授業を行っているはずなのに、まだ不安が消えない。僕は、学生に上手く講義内容を伝えられているのだろうか?
 教えるということは、学生に何かを与えることだと思っていた。しかし現実は、自分は何も知らないという事実を自分に与えてばかり。饒舌に授業をすればするほど自分が不安になっていく。
 「あの頃はよかった。」僕は学生の頃に一番思い出に残っている授業を思い出す。数学の授業中に軽い気持ちで教授に質問をしたのだが、その先生は黒板や外を繰り返し見ながら黙り込んでしまった。およそ5分は経過したと思う。既に教室はざわつきを通り越し、先生が口を開くの固唾を呑んで待っていた。そして先生は静かに誠実に一言だけ言った。「分かりません。」僕はその時、この先生は尊敬できると思った。
 今の僕はどうだろう。学生のためという理由で、かき集めた情報を限られた時間内に詰め込んで焦り、喋りすぎている。
 僕は大学教授に向いているのだろうか...。

2. 
 AI(Artificial Intelligence, 人工知能)の概念は古くから存在する。日本でいえば戦後からわずか10年後の1956年の夏、アメリカのダートマス会議において提示されたといわれている。
 一応、人間は生物学的には知的能力がある。その能力のうち、学習や判断、そして推論などの脳が行う作業について、コンピュータで人工的に再現し活用することがこの研究の目標といえる。近年のIT (Information Technology, 情報技術)の進化により、AI研究において機械学習や深層学習が飛躍的に進んでいる。機械学習とは、短時間に人間が扱うには困難な膨大な量のデータ、いわゆるビッグデータを自動処理または試行錯誤の結果、最適解を自分で見つけるものだ。また深層学習(ディープラーニング)では、人間の脳神経の構造を参考にしたディープニューラルネットワークという技術を用いることで、ビッグデータから効率的に特徴を見出すことが出来る。文字、音声だけでなく画像の認識能力が大幅に向上している。
 ビジネス界の動きは早い。IBMによれば、2018年2月現在、ワトソンという名前の有名なAIが日本を含む49ヶ国、25以上の業種で利用されている。例えば大手企業では、顧客管理や採用人事、製造業における故障診断など情報共有の効率化に貢献している。また教育や法律、そして医療分野など比較的専門的な知識が必要な分野ですら、ビッグデータを瞬時に分析して「推論」が効率的に行われている。例えば医療分野では新薬開発、治療方法の早期発見、がん診断の支援が行われている。
 日本の総務省は、AIやIoT(Internet of Things, いろんな製品をインターネットでつなげること)により、日本の実質GDPが、2015年の522兆円から2030年には725兆円になるインパクトがあることを示した。これは年平均2.4%の成長率に相当するという
[1]―いつものように政府は流行のものを安直に当てはめ、現状の政策の失敗など気まずいことには言及しないが、それはさておき。
 このような勢いに対して、社会的な影響を懸念する声もある。英国オックスフォード大学のマイケル・オズボーン等は、2013年にすでに、米国における702業種のうち、将来的には全雇用者の約47%の仕事が「自動化」されるという研究報告を行っている
[2]。海外の政府や大学では社会的影響を評価する研究も進んでいる。例えば米国政府は2016年、大学だけではなく民間のNPO(非営利活動団体)も巻き込み議論を行った。その報告書では、政府や運輸省、学校や大学に対してまで、AIと共存するため多くの具体的な提言を行っている[3]。日本政府も2017年にAIの人間社会への影響について報告書をまとめているが、国としての社会的な責任感は見えず様子見に留まっているようだ[4]

3. 
 国がこのような状態なのだから、一般市民のAIに対する羨望と畏怖が混乱した現状は当然かもしれない。AI利用に関わる法律や制度づくりも不十分で、いずれAIが人間を支配してしまうのではないかと懸念を持つ人も多い。
 現状においては、そのような懸念は杞憂だといえる。例えば、AIについて積極的に発言している米国の哲学者ジョン・サールは、人間の認知能力のシミュレーション研究について2種類のAIを区別している。彼によれば、「弱いAI」(Weak AI) は研究のためのツールにしか過ぎないが、「強いAI」(Strong AI) は単なるツールではなく心を持ち、他の認知状態を理解する
[5]。この考えを拡張すれば、現在利用されているAIはまだ前者だといえる。例えばチェスでAIが人間に勝ったからといって、それは人間社会全体に対して最適な知性を示す能力があるわけではない。つまり現在のAIは従来のコンピュータの使い方が変わったものだといってよい。現にIBMも、AIの意味を、人工知能ではなく拡張知能(Augmented Intelligence)―人間の知能を拡張・増強するもの―としてとらえている。
 将来についてはどうだろうか。「強いAI」に近いAGI (Artificial General Intelligence, 汎用人工知能) の研究は既に行われているものの、実用化はかなり先のことになりそうだ。しかし米国の未来学者レイ・カーツワイルは、我々の予想する以上にテクノロジー進化は指数関数的に早く進み、その結果、人間を超えた知能が人間の進歩を導く世界が「近い将来」に来ると断言している
[6]
 ところで将来の過剰な杞憂は議論されるが、現在の過剰な期待はあまり議論されていないように思える。例えばAIは常に正しい判断を行う、とすぐに考えてしまう人は結構多い。米国では2016年、IBMのワトソンを大統領にするキャンペーンを行う団体が現れた。確かに現在の米国をみればAIにすがる気持ちも分からないわけではないが、この取り組みが一種の皮肉としてではなく本気だったとしたらどうだろうか。まるで神のように過信してそれにすがる態度。AIという名前をつけさえすれば、誰もが思考停止に陥り答えにすがってしまう。
 そもそもAIが常に「正しい」側に立つ理由もない。2018年2月、欧米の有名な大学の研究者やNGOが集まり、AIの悪用が引き起こす脅威について警鐘を鳴らす報告書を発表した。犯罪者やテロリストがAIを仲間にして引き起こす犯罪のシナリオなどを多く取り上げている
[7]。まあ、テロリストにとってはそれが「正しい」という判断なのだろうが。また、そこまで大規模ではなくても「素性の良くない」、つまり偏った知識を持つよう育てられたAIを使った、個人をターゲットとする詐欺はすぐにありえることかもしれない。
 結局、問題視すべきは人間の方なのだろう。そういえば人間からAIに入れ替えることに必死なビジネスの現状を見ると、そもそも彼らは人を道具としてしか見ていなかったのかと思えてしまう。AIよりも人間に怖さを感じるのは僕だけだろうか。

[1] 総務省「情報通信白書 平成29年版」, 平成29年7月.
[2] Carl Benedikt Frey and Michael A. Osborne,  Oxford Martin School, University of Oxford, "The Future of Employment: How Susceptible are Jobs to  Computerisation?",  September 17, 2013.
[3] Executive Office of the President, "Artificial Intelligence, Automation, and the Economy", December 2016.
[4] 内閣府,「人工知能と人間社会に関する懇談会報告書」, 平成29年3月24日.
[5] John Searle, "Minds, brains, and programs", Behavioral and Brain Sciences 3 (3), pp. 417-457 (1980) .
[6] レイ・カーツワイル「ポスト・ヒューマン誕生」NHK出版 (2007).
[7] Miles Brundage et.al. "The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation", February 2018.

 

 

臆病の神降ろし (後編)

4.  
 実はAIの定義や達成目標についてはいまだに混乱がある。これは人間自身の知的能力についていまだ十分な理解や議論が行われていないことにも一因があるかもしれない。AI研究の究極の目標が人間の脳の人工的な完全再現であるとすれば、まずは人間の脳や思考を研究しなければならない。AI研究は一種のリバースエンジニアリング―既存の機械やソフトウェアを分解し、ときには非合法に非公開の情報を得ようとする作業―ともいえる。
 そもそも私たちは、人間の知性とは何か理解出来ていない。古代ギリシャの哲学者アリストテレスは、知的な徳(アレテー)の議論の中で、人間の魂が真理を把握する性質として5つを挙げている:知恵(ソフィア)、知性(ヌース)、学問的知識(エピステーメ)、技術(テクネ)、そして思慮深さ(フロネーシス)[8]。彼がAI研究をどう位置づけるのか興味はあるものの、現代人はもっと果敢にこの理解に取り組んでもよいかもしれない。
  そしてまた、意識とは何なのか私たちは答えられない。例えばイタリアの神経生理学者であるマルチェッロ・マッスィミーニと米国の精神科医のジュリオ・トノーニは、脳科学の研究を進めれば進めるほど、脳のどこにあるのかつかめない「意識」について、ニューロサイエンス(神経科学)の視点から解明しようとしている[9]。人間の意識について理解しないのに、意識を持つAIの開発を恐れるのは、現時点では確かに早すぎる。

5. 
 もう一度、なぜ人はAIを恐れるのだろうか考えてみたい。その恐れの背後には「自分が大した人間ではないことが明らかになるから」という思いが隠れていないだろうか。つまりAIを恐れている人は、自分の存在意義、知性のなさを恐れている。
 既に1950年の時点で英国の数学者アラン・チューリングは問題提起を行っている。ある人間が、通信機の向こう側にいる機械とやりとりをして、その人間が、相手が機械だと全く気が付かなければ、その機械は考える能力があるといって良いのではないか、という問いだ[10]
 このAIと意識についての思考実験の議論は現在も続いているが、ここでは別な視点を加えてみよう。将来、もしくは既に現代社会においてこの状況が実現しているとすれば、人間のプライドはどうなるのだろう。AIで代替されていく人々は、そもそも人間と思われていなかったことになるのだろうか。それとも、これからはAIが利口になるために私たちは労働をして彼らのために情報を集め、そして彼らのために捨てられるのだろうか。
 あまり人間を卑下する必要はないかもしれない。2014年、米国の14才の少女トリーシャ・プラブは、ソーシャル・ネットワーク上で起きるいじめ問題の解決のため、とてもシンプルで即効性の高い解決法を考え大きな効果を上げ続けている。いじめにつながるような投稿をする際、本当にそのメッセージを出すのか、アプリが忠告を行うのだ。これは、未成年が未成熟な脳を持っている―判断を行う前頭皮質が未発達とされている―ことを根拠にもしている。いくら国や大学の研究者達が思索にふけようとも、この子は複雑なAIを使うこともなく、アプリが「人間らしく語りかける」ようにして若者達の命を救えることを示した。
 もちろん、青少年によるソーシャルメディアの過剰な依存問題そのものを社会問題として考えることは重要だ。しかし私たちは、現状のようにAIの可能性を論じるのと同程度には、子供や女性の柔軟な思考や潜在的可能性―そして危険な科学から彼らを守るという緊急性―を語っても良いのではないのか。そんな時間なんてない?いや、AIはきっと喜んでたくさん働き、私たちに考える時間を提供してくれるだろう。
 先に述べたレイ・カーツワイルは、AIを中心とした未来を語る際、人間とコンピュータとの情報処理のスピードの差を強調する。例えば哺乳類と比較してAIの処理速度は300万倍も早いと。だが少し科学至上主義に過ぎるかもしれない―生まれた時点で世界の勝者を約束された米国白人男性の意見だというのは言い過ぎだろうか。世界中が裕福な社会で、かつ全ての資金と人材を科学に投入できるのであれば、彼の夢は叶うかもしれない。ただ、現在の世界―AIには学んで欲しくはない残酷な世界―を見渡す限り、そんな余裕はなさそうだ。
 私たちは、AI研究を通じて「人間として価値のある人間なのかを試されている」ことに気づいている。ビジネス至上主義で、子供や女性の命は後回しにしていることを悟られたくない。だから臆病になるものの、それを認めるのが怖くて、皮肉にもその不安の原因であるAIにすがる。
 臆病の神降ろし。これは、大した信心もないのに都合よく神のご加護を唱えることを言う。現代もまた同様なことが起こっているようだ。その存在の本質を忘れ、それにひたすらすがる。

6. 
 授業に集まる学生は、変な表現だが生物学的AIかもしれない。処理や情報共有を行うスピードはAIにはとうていかなわない。しかしそのスピードにこそ人間には意味があるとしたら?遅いのではなく最適値だとしたら?
 どうやら僕は、AIではなく若者の深淵な可能性に対して怖くなっている部分がありそうだ。だからこそ怖れを紛らわすために饒舌になり、加護ではなく授業内容―まあどちらも似たようなものだけど―をばらまいているのだろうか。
 けれど学生の可能性を見いだせるのは、教育に携わる身としては悪いことではない。僕の早口で詰め込みすぎの授業を一旦止めてくれる学生が現れることを期待して待っていても良いのだ。
 そう考えると、なんだか授業も楽しくなってきた。大学教授も悪くない。

2018年3月
 

[8] アリストテレス『ニコマス倫理学(下)』光文社古典新訳文庫 (2016).
[9] マルチェッロ・マッスィミーニ、ジュリオ・トノーニ『意識はいつ生まれるのか』亜紀書房 (2015).
[10] A. M. Turing, "Computing Machinery and Intelligence. Mind" COMPUTING MACHINERY AND INTELLIGENCE, 49, 433-460 (1950).

 

 

© 2019 POLARIS   明治大学 市民社会と科学技術政策研究所

サイト内の文章・画像等の内容を無断転載及び複製等の行為は禁止させていただきます。