<進化するディープラーニング>

安田:先ほど、深いことがカギなんだというお話がありましたけど、何層構造にするかというのは、研究者の方であらかじめ決めるものなんですか。それともデータの大きさとか特性によって、自動的に何層構造かまで、AIの方で判断してくれるんでしょうか。

20180706_nikkei13_18.jpg

松尾:どういうネットワークの構造がいいのかっていうのは、いろんな研究がされていますけど、大雑把に言うと画像向きのものと時系列データ向きのもので違ってまして。画像向きのやつはCNNっていうんですね。Convolutional Neural Network(畳み込みニューラルネットワーク)って言うんですけど。時系列向きのはRNNってRecurrent Neural Network(再帰型ニューラルネットワーク)とて言って、ちょっとタイプが違うんですね。ただ、どちらも深くするとそれだけ表現力が上がるのでいいんですが、深くし過ぎると、やはりパラメーターの数が増え過ぎてしまってうまくいかないということで。最初の研究は8層だったのが徐々に深くなり、16層、19層、22層と増えてきたのですが。

安田:10超えたあたりでだいぶ深いと思うんですけど(笑)。

20180706_nikkei13_19.jpg

松尾:その頃はまだ深さをチューニングしてたんです。ところが2015年にレジデュアルネットワークというのが出てきました。どういうものかというと、飛ばす回路を作るんですね。層をたくさん重ねるんだけれども、飛ばすんですよ。飛ばす回路をつけておくと、層がたくさん必要ない時は飛ばす回路の方に情報が行くので。

奥平:賢く使えると。

松尾:必要な時だけ、層を使うということができるようになって。

安田:飛ばす計算と飛ばさない計算と、どっちが当てはまりがいいかという判定も自動的に判断できると。

松尾:それで、152層になったんです。

安田:マックス152層だけれども、飛ばした場合はそこから小さく。

松尾:とにかく大きくしとけばいいっていう風になったんです。だから今でも大きいものになると、1000とか10000とかそういうのもあるんですね。

奥平:なるほど。

瀧口:ということで、今回は前編となりますが、ここまで、AIはなぜ今盛り上がっているのか、そしてどういうものなのか、というところを伺ってまいりました。

奥平:今週は勉強になりましたね。結局スタートはエクセルだというのが、非常に多くの人を勇気づける話ではないかと。

瀧口:そこから始まったと。

奥平:コンピューティングパワーとデータが多くなったことによって、一気に花開きつつあると。

松尾:補足しますと、結局xとyっていうのに、何を置くかっていうことだけなんですよ。xに画像を置いて、yにクラス、猫、犬、タグとかラベルと言いましたけど、こういうのを置くと画像認識になりますし、xに英語の文を入れて、yに日本語の文を入れると翻訳になる。今度xに囲碁の盤面の状況を入れて、yにその時打つべき手というのを入れると、アルファ碁ができる。

奥平:なるほど。

瀧口:そして、今それが盛り上がってるという二つのキーワードは、計算能力が上がったということと、データがたくさん集まるようになったということ。

松尾:そうです。

奥平:おそらく日本で今一番分かりやすいAI基礎という感じですよね。

瀧口:本当にそうですね。ありがとうございます。次回も松尾先生、安田先生にご出演いただき、AIウォーズについてお伺いしたいと思います。松尾先生、安田先生ありがとうございました。

全員:ありがとうございました。

(C)Paravi