The race in AI should be toward models with fewer and fewer parameters for a given performance, not the opposite.
-
-
Vastauksena käyttäjälle @pmddomingos
Maybe it's unavoidable, see the law of robustness :-).
1 vastaus 0 uudelleentwiittausta 11 tykkäystä -
Vastauksena käyttäjälle @SebastienBubeck
Except smoothness is not required for generalization.
1 vastaus 0 uudelleentwiittausta 4 tykkäystä -
Vastauksena käyttäjälle @pmddomingos
For sure there is a huge mismatch there. But I still wonder what is the correct notion of generalization... clearly the textbook statistical learning one is not appropriate.
2 vastausta 0 uudelleentwiittausta 4 tykkäystä -
Vastauksena käyttäjälle @SebastienBubeck
There’s nothing wrong with accuracy on unseen data. How it relates to accuracy on training data is another matter.
1 vastaus 0 uudelleentwiittausta 0 tykkäystä -
Vastauksena käyttäjälle @pmddomingos
Yes that's exactly what I meant: nothing wrong with "generalization" (aka accuracy on unseen data) but the "textbook statistical learning" (aka assuming same distribution for training and test) might not be the right lens for deep learning.
1 vastaus 2 uudelleentwiittausta 1 tykkäys -
Vastauksena käyttäjälle @SebastienBubeck
Certainly, but that seems a tangent.
1 vastaus 0 uudelleentwiittausta 0 tykkäystä -
Vastauksena käyttäjälle @pmddomingos
Not at all. What I'm trying to say is that "smoothness is not required for generalization" is itself a questionable statement because a) we don't have the right definition of generalization for DL while b) at least smoothness is well-defined and "feels" like baby generalization.
1 vastaus 0 uudelleentwiittausta 4 tykkäystä
There are plenty of cases of good generalization that don’t require smoothness. You’re overfitting to (current) DL :)
Lataaminen näyttää kestävän hetken.
Twitter saattaa olla ruuhkautunut tai ongelma on muuten hetkellinen. Yritä uudelleen tai käy Twitterin tilasivulla saadaksesi lisätietoja.