The race in AI should be toward models with fewer and fewer parameters for a given performance, not the opposite.
-
-
Vastauksena käyttäjälle @pmddomingos
While there are a few scientists training impractically large models, there are infinitely more engineers using distillation, pruning, quantization, and architecture optimization to get the same result with smaller and deployable models.
11 vastausta 25 uudelleentwiittausta 328 tykkäystä -
Vastauksena käyttäjälle @ylecun
It’s more than a few scientists. It’s a major trend in AI, spearheaded by large groups at several top AI labs.
2 vastausta 0 uudelleentwiittausta 52 tykkäystä -
Vastauksena käyttäjille @pmddomingos ja @ylecun
It’s not a good trend. AI research becomes a monopoly game for people who can have access to 1,000s of GPUs and data storage that can hold the Common Crawl…
2 vastausta 0 uudelleentwiittausta 9 tykkäystä -
The lesson from RETRO(DeepMind), WebGPT (ClosedAI) & KEAR(uS) is that language model can indeed be smaller & capable. This fact must be captured & emphasized by thought leaders in the field.
1 vastaus 0 uudelleentwiittausta 4 tykkäystä -
Vastauksena käyttäjille @aichip1 ja @pmddomingos
There is a *lot* *more* to AI research than training gigantic models on 1000s of GPUs. The real questions aren't solved by scaling. But yeah, you shouldn't compete with big industry labs on topics for which they have the tools and you don't.
3 vastausta 0 uudelleentwiittausta 21 tykkäystä
Amen to all three.
Lataaminen näyttää kestävän hetken.
Twitter saattaa olla ruuhkautunut tai ongelma on muuten hetkellinen. Yritä uudelleen tai käy Twitterin tilasivulla saadaksesi lisätietoja.