We won’t find intelligence at the bottom of gradient descent.
-
-
Vastauksena käyttäjälle @pmddomingos
You have a problem with gradient descent?
1 vastaus 0 uudelleentwiittausta 1 tykkäys -
Vastauksena käyttäjälle @mohammadalyoune
Yes, it’s an extremely inefficient way to learn.
6 vastausta 0 uudelleentwiittausta 21 tykkäystä -
Vastauksena käyttäjille @pmddomingos ja @mohammadalyoune
Do you have an alternative approach to learning that is more efficient than gradient-based optimization?
9 vastausta 2 uudelleentwiittausta 53 tykkäystä -
If by more efficient you mean learning from fewer examples, wouldn't various approaches like the Apperception Engine, learning sequences with things like answer set programming, qualify?
1 vastaus 0 uudelleentwiittausta 1 tykkäys -
No. These things search through a set of (discrete) hypotheses for one that "best explains" the data. In other words, they are a form of gradient-free optimization through a discrete (possibly combinatorial) space. Not efficient.
1 vastaus 0 uudelleentwiittausta 8 tykkäystä -
It sounds like you're talking about efficiency in terms of computational cost, which is important, but I wondered whether Pedro was speaking of efficiency in terms of the # of examples required to learn (ability to generalise from limited data/Chollet's measure of intelligence)
1 vastaus 0 uudelleentwiittausta 2 tykkäystä
Yep, the latter.
Lataaminen näyttää kestävän hetken.
Twitter saattaa olla ruuhkautunut tai ongelma on muuten hetkellinen. Yritä uudelleen tai käy Twitterin tilasivulla saadaksesi lisätietoja.