ResNetの論文「1202層のニューラルネットワークも作ってみたけど110層の場合と比べて良い結果は得られなかった。データセットのサイズに対して1202層のネットワークは無駄に大きくて過学習を起こしているのではないかと思われる。」とか書いてあって力強い
9:20 AM - 14 Nov 2017
0 replies
7 retweets
9 likes
Loading seems to be taking a while.
Twitter may be over capacity or experiencing a momentary hiccup. Try again or visit Twitter Status for more information.