We won’t find intelligence at the bottom of gradient descent.
-
-
Vastauksena käyttäjälle @pmddomingos
You have a problem with gradient descent?
1 vastaus 0 uudelleentwiittausta 1 tykkäys -
Vastauksena käyttäjälle @mohammadalyoune
Yes, it’s an extremely inefficient way to learn.
6 vastausta 0 uudelleentwiittausta 21 tykkäystä -
Vastauksena käyttäjille @pmddomingos ja @mohammadalyoune
Do you have an alternative approach to learning that is more efficient than gradient-based optimization?
9 vastausta 2 uudelleentwiittausta 53 tykkäystä -
Vastauksena käyttäjille @ylecun ja @mohammadalyoune
The point is that we need to find one. AI research has become too narrowly focused on one paradigm. Gradient descent is a local optimum, and we need to get out of it. Do you really think the cortex learns by GD?
2 vastausta 0 uudelleentwiittausta 34 tykkäystä -
Vastauksena käyttäjille @pmddomingos ja @mohammadalyoune
Q1: Does the cortex learn? Q2: if it does, does it do it by minimizing some objective? Q3: if it does, does it do it by estimating some sort of gradient information, or something to that effect? Q4: if it doesn't, then what type of (gradient-free) optimization does it use?
5 vastausta 6 uudelleentwiittausta 46 tykkäystä -
Vastauksena käyttäjille @ylecun ja @mohammadalyoune
A1: Obviously yes. A2: Open question. A3: Probably not. A4: See, e.g., discussion in https://arxiv.org/abs/2012.00152 .
3 vastausta 2 uudelleentwiittausta 27 tykkäystä -
The cortex doesn't perform backpropagation
1 vastaus 0 uudelleentwiittausta 1 tykkäys
Exactly. (The cerebellum, maybe.)
Lataaminen näyttää kestävän hetken.
Twitter saattaa olla ruuhkautunut tai ongelma on muuten hetkellinen. Yritä uudelleen tai käy Twitterin tilasivulla saadaksesi lisätietoja.