The gradient almost never points to the minimum, so descending it is an odd idea.
-
-
Vastauksena käyttäjälle @pmddomingos
Of all the directions you can walk towards in a continuous (often high dimensional) space, the gradient offers the highest probability of getting to a minimum, so why would it odd to descend? (I realize that when everyone is descending, a few should explore the mountains, too.)
2 vastausta 0 uudelleentwiittausta 27 tykkäystä -
Vastauksena käyttäjälle @Plinz
In an convex problem, there's an enormous range of directions that get you to a minimum with probability 1, and it's not clear the gradient is special in any way. In a nonconvex problem, your statement is false.
2 vastausta 0 uudelleentwiittausta 7 tykkäystä -
Vastauksena käyttäjille @pmddomingos ja @Plinz
and what do you propose for getting to the minimum then? i suspect you will always need an accurate model of the manifold to guess it well, which is where you get into higher order intelligent learning beyond just perception&reward
2 vastausta 0 uudelleentwiittausta 1 tykkäys -
There are many other methods (e.g., second-order, simulated annealing, crossover). But perhaps the deeper issue is in formulating learning as an optimization problem (as opposed to, e.g., predictive coding or analogical reasoning).
5 vastausta 0 uudelleentwiittausta 11 tykkäystä -
Formulating learning as an optimisation problem is what made ML work.
1 vastaus 0 uudelleentwiittausta 0 tykkäystä
That was part of it, but now we need to go to the next level.
-
-
Vastauksena käyttäjille @pmddomingos, @patrickmesana ja
Logic based rules can be approximated using gradient descent.
0 vastausta 0 uudelleentwiittausta 1 tykkäysKiitos. Käytämme tätä aikajanasi parantamiseen. KumoaKumoa
-
Lataaminen näyttää kestävän hetken.
Twitter saattaa olla ruuhkautunut tai ongelma on muuten hetkellinen. Yritä uudelleen tai käy Twitterin tilasivulla saadaksesi lisätietoja.