A good summary.
-
-
Kiitos. Käytämme tätä aikajanasi parantamiseen. KumoaKumoa
-
-
-
May be deep neural nets learn quickly the shallow features/concepts and with more epochs and/or training data simply overfit on them? What is in place to encourage discovering more abstract/deeper features?
-
It may be also that supervised learning by itself is fundamentally flawed. In other words, presenting labeled examples is not enough to generalize. Just a guess.
Keskustelun loppu
Uusi keskustelu -
-
-
This is inherent in statistical learning. The best we can hope for is to detect when new test data points violate these shared regularities. The power of fine tuning shows that the deep nets learn deeper regularities as well
-
But humans don't have this problem, so we must be doing something more.
- Näytä vastaukset
Uusi keskustelu -
-
-
Interesting read, thanks!
Kiitos. Käytämme tätä aikajanasi parantamiseen. KumoaKumoa
-
-
-
@KirkDBorne, any thoughts?Kiitos. Käytämme tätä aikajanasi parantamiseen. KumoaKumoa
-
-
-
Good synopsis. Thank you. Perhaps, this shows the importance of continuous dropout.
Kiitos. Käytämme tätä aikajanasi parantamiseen. KumoaKumoa
-
-
-
Seems to be an issue only if the data scientist doesn't know how to sample.
Kiitos. Käytämme tätä aikajanasi parantamiseen. KumoaKumoa
-
-
-
This is true for models trained over artificial datasets, but not true for all real world ML. E.g. you can build a spam classifier and test it over real world data (all incoming email) and measure accuracy over it.
Kiitos. Käytämme tätä aikajanasi parantamiseen. KumoaKumoa
-
Lataaminen näyttää kestävän hetken.
Twitter saattaa olla ruuhkautunut tai ongelma on muuten hetkellinen. Yritä uudelleen tai käy Twitterin tilasivulla saadaksesi lisätietoja.