English

第120回コラム「不確実なもの」

2020年6月1日

橋本 洋志 研究科長

多くの分野において、わけのわからないものを確率変数と置くことが多い。このため、確率論(probability theory)はあらゆる分野に顔を出す。例えば、統計学、システム制御工学、金融工学、生体工学などで用いられている。確率論が脚光を浴びた例は数多くある。幾つか紹介しよう。

1番目はカルマンフィルタ(Kalman filter)[1]である。これは月有人宇宙船の軌道推定を行うのに観測値に雑音が重畳して推定精度が思うように上がらないのに困っていたNASA(米国航空宇宙局)が、この問題解決にカルマンフィルタを採用して、その有効性が確かめられた。

2番目は株価や為替などを扱い資産有用などを工学的に扱う金融工学(financial engineering)が確率微分方程式(stochastic differential equation)に立脚することで、その地位を確立したことにある。確率微分方程式は、伊藤清(日本、1915~2008)の「確率論」(1952)やDoob(米国、1910~2004)の「Stochastic Process」(この本は黄色の禍(yellow peril)と呼ばれるほど難解で、私は大変苦しめられた)らの先駆的研究を基にして発展を遂げた。Myron S. Scholes(カナダ・米国、1941~)はブラック・ショールズ方程式を発表した後、Robert C. Merton(米国、1944~)と共に方程式の理論を整備して、デリバティブ価格決定の新手法を確立した。この功績により、二人は1997年ノーベル経済学賞を受賞する。この理論は伊藤清の業績の上に成り立つものであったため、M.Sholoesが伊藤に会ったとき一目散に握手を求めて、彼の理論を絶賛したという。なお、M.SholoesとR.Mertonが経営陣に名を連ねた巨大投資信託LTCM(Long Term Capital Management)が1998年に巨額の損失を出して破綻するという皮肉な結果が生じた。

3番目は、最近のトピックの一つであるビッグデータ処理などに導入されているベイズ統計学(Bayesian statistics)がある。これは、条件付き確率(または条件付き確率分布)を用いていながら、主観説も取り入れることを許容し、観測値を得る毎に分布の推定(従来の統計のようなパラメータ値や信頼区間ではない)を逐次的に更新するという、少ないデータから膨大なデータまで有効的に適用できる点に特徴がある。アメリカの潜水艦沈没事故の発見手法で脚光を浴びた[2]。ちなみに、米国TVドラマ Numbers(シーズン1)では犯人捜し(man hunt)にも使っていた。ベイズ統計学は、しばらく陽の目を見なかったが、コンピュータ能力向上に伴い、その計算論的モデルが進化し、時系列分析(音声分析が代表的)、ネットワークのトランザクション分析、マーケティング分析など幅広い分野で用いられるようになった。

以上の例は、いずれも、不確実なものを確率変数として扱うという立場である。このことに疑問を持った言葉に、相対性理論で有名なアインシュタイン(Albert Einstein、 1879-1955、 理論物理学者、ドイツ)が量子力学を問題視して言った"God does not play dice with the universe"がある。量子力学は、原子や電子の微視的な物理現象を不確実なものとして取り扱うため確率論を導入したものである(ちなみに、現代では、原子や電子もさらに細かくでき、素粒子の存在が知られている)。彼の言いたいことは、よくわからない状態や変数を何でもかんでも確率として扱うことは研究者の姿勢としていかがなものか?という問題提起である。そのことを、未来を見渡せる神は、未来結果が予測できないようなサイコロ遊びはしない、という言い回しで表現したのである。

深層学習がこれに近いことを行っているように筆者には感じられる。深層学習は新しく開発された手法でなく、ニューラルネットワーク(Neural Network)を基とした学習手法である。深層学習を有名にした例として、「文学的な文章を書いた[3]」、「モナリザを笑わせた画像を生成した[4]」などがあげられる。今では、医療における画像診断は人間を超えたとのレポート[5]もある。このようにある種の賢さを深層学習に与えるには、良い教師データを膨大に用意する必要がある。このことを逆に見ると、悪い教師データを与えれば、誤認識する深層学習が生じることになる。実際、深層学習の弱点を見出す研究が盛んであり、Adversarial examples(敵対的学習例、誤認識をさせるデータの工夫というニュアンス)という研究では、パンダの画像に少しのノイズを加えたらかなりの確度で手長猿であると認識した例[6]など、多数の報告がある。誤認識の要因の一つとして、深層学習は自らデータを分析することなく、不確かさも含めて教師データと何とかマッチさせようというブラックボックス的考え方に基づいているためである。

先に掲げたアインシュタインの言葉からは、さらに、解析・分析(Analysis)をおろそかにする学問はいかがなものか、たとえ、粒子の1つ1つでも確固としたモデルを構築して、不確実性を極力排除すべきという思想が伺える。

では、いかなる現象も全て厳密なモデルで表現することが絶対的な正しさか? これを突き詰めると「ラプラスの悪魔(Laplace's demon)」に行きあたる。この言葉の筆者なりの解釈を述べると、全ての現象を原子レベルまでモデル化してシミュレーションできれば、不確実な将来は無く、未来を完璧な形で予測できるという考え方である。もちろん、この考え方は、今では科学的に否定されている。ただ、厳密なモデルの「厳密さ」とはどのレベルまで考えればよいのか? 読者の考えを伺ってみたい。

参考文献:

[1] R.E. Kalman: A New Approach to Linear Filtering and Prediction Problems, ASME Trans., J. Basic Eng., D-82: 35/46, 1960

[5] Geert Litjens, et.al., A Survey on Deep Learning in Medical Image Analysis, Med Image Anal

. 2017 Dec;42:60-88. doi: 10.1016/j.media.2017.07.005. , 2017

[6] J.Bruna, et.al., Intriguing properties of neural networksk, ICLR2014

PAGE TOP