一方、ソ連は機械に任せていたから、先に月に行けなかった
http://toyokeizai.net/articles/-/185506?page=3

――2045年にシンギュラリティ(コンピュータが人間を上回る時点)が来るという予測について、どう思いますか?
脳科学の人はシンギュラリティについて、「そんなバカなことを言うな」って考えています。人間の脳はものすごく複雑で、本当はどう動いているのか全然分かっていない。
脳型コンピュータの専門家ですら、「今はまだごく表層的な脳の模倣に過ぎない」と言っています。そんな現状で、脳、つまり人間のインテリジェンスを超えるなんて、おこがましい。
ただ自動化や機械の自律化は確実に進む。その中で、人間が思いもよらなかった事態が起きるというのは、十分ありうる。バカなAIが危険な事態を起こす可能性は十分ある。

――雇用に対する影響は、バカなAIでも十分起こるわけですね。

そうだし、それより制御できないという事態が怖い。原発事故がそうですが、人間が想定していなかったいろんな事態が連鎖し大事故が起きる、というのは機械では十分にありうるわけです。
特にAIみたいな複雑な判断をする機械だと、やっぱり「ヒューマン・イン・ザ・ループ」じゃないといけない。

――人間が輪の中に入る?

人間がシステムに介入し、一部を担うということです。米国の宇宙プロジェクトがそうでした。マーキュリー計画(米国初の有人宇宙飛行計画)では実はいろいろとやばいことが起こったけれど、
それでもパイロットが帰還できたのは、要所要所で人間が機械を制御したからです。あれが完全に自動の船だったら死んでいました。逆にソ連は機械に任せていたから、先に月に行けなかった。

同じように、今のAIはある面ではすごく賢いけれど人間より優れたスーパーヒューマンな存在じゃない。そういうAIに人間が一切合切を任せた結果、想定外の大事故が起きる可能性は十分にある。
これは一般的に言われるシンギュラリティではありませんが、ソフトなシンギュラリティとでもいうべきインパクトを生むと思っています。

松岡 聡(まつおか さとし)/スーパーコンピュータ「TSUBAME」でプロジェクトリーダーを務めた。
スパコンのノーベル賞と呼ばれるゴードン・ベル賞を2011年に受賞しており、日本を代表するコンピュータ科学者。(撮影:今井 康一)