帰納と演繹


[tag:]

最終戦はAlphaGoの勝利で、結局4-1だったようだ。

真は帰納的にも演繹的にも設定される。
帰納的に設定される真は極限値として真が得られるため、 求解のときに膨大な量の情報を必要とする。
一方、演繹による真は組み立てる段階での必要な情報は少ないが、 個別事象への判断を行う際に必要な情報が多いように思われる。
おそらく前提条件への適合性をチェックする必要があるためだろう。

理由付けは演繹による真の獲得である。
人間には、多くの場面で帰納的に真を獲得している時間がない。
大多数の人間は視覚がやっとで、専門家であれば聴覚や味覚等も 相当なレベルに達しているかもしれない。

ディープラーニングはあらゆる分野において、帰納的に真を獲得しうる。
帰納的に得られた真の弱さは、ゲームが変わったときに通用しないことだ。
通用しないどころか、ゲームが変わったことにすら気付けないだろう。

現状では大量の情報を与え、処理させることによる学習が主流だが、 小規模な情報を基に、自ら公理系を構築していくような学習の仕組みが 実装できなければ、意識を再現するには至らないだろう。
まあ、それがよいことかどうかは別として。