1. Training cifar10 to >94% accuracy in as little as 18 epochs with Test Time Augmentation
-
-
এই থ্রেডটি দেখান
-
2. Training a Language Model to state-of-the-art perplexity (without fine-tuning) in just 90 epochs (instead of 750).
এই থ্রেডটি দেখান -
3. Fine-tuning resnet50 on a fine-grained task (the Standford cars dataset) to 90% accuracy in 60 epochs (instead of 600).
এই থ্রেডটি দেখান
কথা-বার্তা শেষ
নতুন কথা-বার্তা -
-
-
So that were my 10 minutes of fame in this life, right? :D
-
We really appreciated your post - thanks!
কথা-বার্তা শেষ
নতুন কথা-বার্তা -
-
I had a quick go at adding AdamW to Flux.jl : https://github.com/FluxML/Flux.jl/pull/307 … It seems to accelerate learning on a toy system I had lying around. What would you recommend for a more careful benchmark?
-
Maybe try the same experiments as http://www.fast.ai/2018/07/02/adam-weight-decay/ …
-
Ah, my bad - failed to click through to the well prepared repo!https://github.com/sgugger/Adam-experiments …
কথা-বার্তা শেষ
নতুন কথা-বার্তা -
-
-
Very nice Sylvain.. I gotta check it out, i.e both the code and the presentation
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায়
-
লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।
টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।