It’s remarkable that, in many applications, deep networks with random hidden-layer weights already do quite well. Gradient descent just adds the finishing touches.
-
-
No way! That is amazing! What would I search to see some examples of this?
-
Deep networks with random weights.
Keskustelun loppu
Uusi keskustelu -
-
-
It means the mapping can be approximated with a single linear transform
Kiitos. Käytämme tätä aikajanasi parantamiseen. KumoaKumoa
-
-
-
Reminder, deep learning networks won't learn *without* random initialization.
Kiitos. Käytämme tätä aikajanasi parantamiseen. KumoaKumoa
-
Lataaminen näyttää kestävän hetken.
Twitter saattaa olla ruuhkautunut tai ongelma on muuten hetkellinen. Yritä uudelleen tai käy Twitterin tilasivulla saadaksesi lisätietoja.