You have a problem with gradient descent?
-
-
Vastauksena käyttäjälle @mohammadalyoune
Yes, it’s an extremely inefficient way to learn.
6 vastausta 0 uudelleentwiittausta 21 tykkäystä -
Vastauksena käyttäjille @pmddomingos ja @mohammadalyoune
Do you have an alternative approach to learning that is more efficient than gradient-based optimization?
9 vastausta 2 uudelleentwiittausta 53 tykkäystä -
Genetic Algorithms?
1 vastaus 0 uudelleentwiittausta 0 tykkäystä -
Certainly not. Gradient-based optimization beats gradient-free any day. Genetic algos are a particular instance of gradient-free algorithms.
1 vastaus 0 uudelleentwiittausta 7 tykkäystä -
You seem to be missing a lot here. Saying that anything that is not gradient descent is gradient-free optimization and therefore worse is not valid reasoning. Crossover is not local search, evolution is a multiagent game, etc., etc.
2 vastausta 0 uudelleentwiittausta 10 tykkäystä -
Give me a non-gradient-based method that produce decent results in a reasonable amount of time on, say, ImageNet, LibriSpeech, whatever NLP benchmark you want. 1/2
1 vastaus 0 uudelleentwiittausta 8 tykkäystä -
Vastauksena käyttäjille @ylecun, @pmddomingos ja
Local or not local, swarm or not swarm, the things you mention are just particular ways to do gradient-free optimization.
2 vastausta 0 uudelleentwiittausta 4 tykkäystä -
To paraphrase Ulam, using a term like "gradient-free optimization" is like referring to the bulk of zoology as the study of trunk-free animals. GD is fast per step, but extremely inefficient at extracting information from examples. (Nearest-neighbor is better at that!)
2 vastausta 0 uudelleentwiittausta 1 tykkäys -
You can measure how well nearest-neighbor "extracts information from examples" by counting how many samples it needs to reach a given error level. Do the same with a neural net trained with gradient descent. The result will not support your statement.
1 vastaus 0 uudelleentwiittausta 4 tykkäystä
If you use the dumbest possible form of nearest-neighbor and the smartest possible form of gradient descent, yes. If you're smart about how you map test examples to training ones, no. In any case, I was talking about the information extracted per step, where kNN blows GD away.
-
-
Vastauksena käyttäjille @pmddomingos, @ylecun ja
In high-dimensions, kNN makes no sense at all, as we have no good distances a priori. So, in high-dimensions, GD works while kNN does not. It is as simple as that. I think we should improve Deep Learning rather than denying it as a major step in the right direction.
1 vastaus 0 uudelleentwiittausta 0 tykkäystä -
Vastauksena käyttäjille @david_macedo, @pmddomingos ja
kNN does not even create a "model of the world", as we need the "training" examples during inference. It is much far way from intelligence than GD. Our mind does not need to remember all dogs that we had seen before to know that a unseen dog is a dog.
0 vastausta 0 uudelleentwiittausta 0 tykkäystä
Keskustelun loppu
Uusi keskustelu -
Lataaminen näyttää kestävän hetken.
Twitter saattaa olla ruuhkautunut tai ongelma on muuten hetkellinen. Yritä uudelleen tai käy Twitterin tilasivulla saadaksesi lisätietoja.