先日の発表で全く触れなかった有名な活性化関数にシグモイド関数というのがある。長い歴史を持つ活性化関数で教科書には必ず書かれているが、微分すると小さな値になるという特徴を持つ。微分が小さいということは誤差が上層に伝わらない為、長いネットワークの学習は悉く失敗する
5:07 AM - 25 Jul 2019
0 replies
19 retweets
62 likes
Loading seems to be taking a while.
Twitter may be over capacity or experiencing a momentary hiccup. Try again or visit Twitter Status for more information.