It’s remarkable that, in many applications, deep networks with random hidden-layer weights already do quite well. Gradient descent just adds the finishing touches.
-
-
Vastauksena käyttäjälle @pmddomingos
Could this just be the Johnson-Lindenstrauss lemma in action? For sufficiently large n and d, a random projection preserves high-dimensional pairwise distances quite well.
1 vastaus 0 uudelleentwiittausta 1 tykkäys
Vastauksena käyttäjälle @LabWelch
Except this is projecting into a higher dimension.
15.54 - 13. syysk. 2021
0 vastausta
0 uudelleentwiittausta
2 tykkäystä
Lataaminen näyttää kestävän hetken.
Twitter saattaa olla ruuhkautunut tai ongelma on muuten hetkellinen. Yritä uudelleen tai käy Twitterin tilasivulla saadaksesi lisätietoja.