20180706_nikkei13_06.jpg

<到来!第3次AIブーム>

奥平:境界を越えていくというのが、AI時代の特徴なんじゃないのかなというふうにも思っています。AI、これは非常に良く聞く言葉になっていまして、歴史的に振り替えると1960年代ぐらいから、ある時は盛り上がって、ある時は盛り下がってといことの繰り返しだと思うんですけど、現状どういうステージにあるというふうに見ればよいのか、お二人に伺いたいのですが。

松尾:人工知能の分野自体は1956年にスタートしてまして、今年62年目ということになります。その間、ブームになっては冬の時代が来て、今は3回目のブームということですね。

奥平:第3次ブーム。

松尾:第3次ブームです。中心的になっているのが、機械学習、マシンラーニング、ディープラーニングと呼ばれる技術で、特にディープラーニングは非常に革新的な応用事例が、たくさん現れている。有名なのはAlphaGo(アルファ碁)ですね。それから医療画像の分析など、いろんな事例が出てきてます。

奥平:なるほど。安田さん、いかがですか。

安田:AIに関していうと、僕はたぶん技術というより経済の応用ということになると思うのですが、需要面、供給面、それぞれAIによって、大きく経済が変わっていく可能性はあると。従来ですと、おそらく供給面に議論が集まると思うんですが、普段人間の力でできなかった新しい形のサービス、先程松尾さんもおっしゃったように、入力されたデータから、人が気付かなかった特徴・傾向に気付くとか、あるいは需要面でも、自分がこれを欲しいと普段意思表示できないようなものを、AIの力を借りて、ニーズを汲み取るような形で、需要と供給双方からAIが大きく経済に影響を与えるんじゃないか、という期待感は高まっていますね。

<なぜ今「AI」なのか?>

瀧口:ということですけど、ではなぜAIが今盛り上がってきているのか、なぜ今なのか、というところについて深く伺っていきたいと思うんですが。

松尾:そうですね。ディープラーニングという技術が革新的だっていうことは、僕はいろんなところでしゃべってるんですけど。

20180706_nikkei13_07.jpg

奥平:深層学習と言われるものですよね。

松尾:ただ、ちょっと分かりにくいというか。

奥平:基本的に大変分かりにくいので(笑)、中学生ぐらいでも分かるように、お願いしたいなと。

20180706_nikkei13_08.jpg

<明解!ディープラーニング基礎講座 最小二乗法>

松尾:すごく単純なんです。ちょっと説明しますと、まずですね。

奥平:ホワイトボードが出てくるわけですね、授業風に(笑)。

瀧口:松尾先生に書いていただいて。

松尾:最小二乗法っていうのがありまして、これは知ってる人は知ってる、聞いたことあるなっていう方もおられるかもしれません。何かというと、例えばある店舗の売上のデータがありました。何月何日に気温が何度で、飲料がこのくらい売れましたというデータがあったとしましょう。この時に、気温と飲料の売上というのを散布図に描きます。すると、こんな風に点々が描かれるわけですね。

20180706_nikkei13_09.jpg

奥平:横軸が気温で、縦軸が売上ですね。要は暑くなるほど、飲み物が飲みたくなるというイメージですね。

20180706_nikkei13_10.jpg

松尾:これをですね、エクセルなんかで、近似直線の追加っていうのがあるんですね。これをやると、ピーッと線が引けるわけです。これをどうやって引いているかというと、この線を引くアルゴリズムが最小二乗法なわけです。これはどういうことかというと、線ですから、「y=a+bx」という式をたてますね。これはある種の近似というか、推定の値を表していますから、推定の値が実際の値とどれだけずれているのか、という差を取って、二乗します。マイナスとプラス両方ありますから、二乗すると。これを全部のサンプル点について足し合わせます。これを二乗和と言います。二乗和を最小にするように、aとかbの値を決めると、ここの上にうまく乗るような、線が描かれるというのが最小二乗法。誤差を最小にするようなaとかbを見つけましょうということですね。

奥平:ついていけてますか。

瀧口:難しいですね(笑)。

松尾:いったんこの式が見つかると、ある日の気温は何度でした。飲料はどのくらい売れそうでしょうっていう予想ができる。

奥平:例えばコンビニの仕入れとかのイメージですよね。

松尾:これが要するに、AIが学習して、予測してるってことなんですね。

奥平:日々AI、AIっていう一番基礎的なことがこれと。

20180706_nikkei13_11.jpg

松尾:そうですね。もうちょっと難しくしていきますと、いったんこれ書きますね。

瀧口:更に難しくなるというところですね。

安田:ちなみに今、松尾さんが最小二乗法を分かりやすく説明してくださいましたけど、こちら経済学部でも出てくるんですよ。非常に有名なコンセプトで。

瀧口:経済学部でも、今のような飲食店の売り上げとかを分析する時に使ったりするんですか。

安田:まぁいろんな事例が考えられるんですけど、いろんな因果関係をまずデータからどうやって見破るかということで。

松尾:ちょっと難しくします。さきほどは「y=a+bx」としていましたけれど、今度はxを2つにします。x1、x2にします。

瀧口:変数が増えるということですね。

松尾:そう、変数が増える。そうすると、「y=a+bx1+cx2」と増えました。けれども最小二乗法でやることは一緒で、実際の値から推定した値を引き算して、二乗和を取ると。これを最小にするように、aとかbとかcの値を決めてやればよいと。

奥平:なるほど。

20180706_nikkei13_12.jpg

松尾:こちら側は、本当は3次元になるんですね。

奥平:飛び出る時空ということですね(笑)。

瀧口:もう一個条件が加わるということですね。

松尾:そうです。今ですね、2次元にします。

瀧口:3Dで飛び出ているイメージですね。

奥平:オンエアの時は素晴らしいCGが入るかもしれません(笑)。

安田:でも飲料の例でも気温だけじゃなくて、例えば駅からの近さとか、近ければ近いほど売り上げが上がりそうじゃないですか。いろんな説明要因が本来はたくさんあるはずなんですよね。それが増えていった時に、当然計算も大変になるし、最もフィットするこういった推定式を見つけるのも大変になります。

奥平:変数がどんどん増えていくわけですよね。気温だけでなく、立地だとか、周りにどういう人が住んでいるとか。

瀧口:飲み物がお店のどこに置いてあるかとか、いろいろ考えられそうですね。

20180706_nikkei13_13.jpg

20180706_nikkei13_14.jpg

松尾:ちょっとまた変えました。今、1変数を2変数にしましたけども、今度は1万変数にしました。ちょっと見づらいですけど、k0+k1×x1+k2×x2+・・・とやってk10000×x10000。1万変数の式っていいましたが、やることは一緒で、実際の値から推定した値を引いて、この二乗和を取って、これを最小にするように、k0からk10000のパラメーターを決めてやればよいと。安田先生が経済学でも出てくるって言われましたけど、経済学なんかで普通使うのは、数変数から多くて数十変数くらいだと思うんですね。ところが、ここでは1万変数とかですから、こんな問題が普通はあるの?と思うかもしれませんけど、実はありまして。どういう問題かというと、この100×100の画像に猫が映っているかどうか、という問題です。これ、猫になってますか。

瀧口:はい、猫に見えます(笑)。

奥平:かろうじて見えます(笑)。

松尾:猫が映ってるかどうかを判定するっていうのは、まさにこの問題なんです。

瀧口:画像認識。

奥平:なるほど。

松尾:なぜかというと、100×100の画像っていうのは、要するに1万個の値からできてるんです。

奥平:1万ピクセル。

松尾:そうそう。1万個の値が入ってきた時に、猫だったら1、そうじゃなかったら0を返すような関数を見つけてくださいという問題ですから、実は最小二乗法で解けるんですね。どういうことかというと、ある画像が猫でした。ある画像が猫じゃなかったというデータがたくさんあれば、その誤差を最小にするように、パラメーターを決めてやれば、この式の値が求められて、いったん式の値が求められると、ある画像が入ってきたときに、これが猫です、猫じゃないです、というのを、数値として返せるようになるんですね。

奥平:なるほど。

松尾:こういうのが、ディープラーニングがやってることの非常に大雑把な説明なんです。