Data augmentation is one of the ugliest hacks in ML. If you know what the invariances are, encode them into the architecture. Don't blow up the size of you dataset in order to approximate them.
-
-
thank you sir, I agree that this results in better models with less parameters (and less black box), but it is domain specific. It would be very hard for me to develop such clever ways for other domains (e.g. protein sequences) while introducing augmentions would still be easy
Kiitos. Käytämme tätä aikajanasi parantamiseen. KumoaKumoa
-
-
-
also, even in image domains, I can't see how any architecture can be programmed for e.g. learning background invariance, while swapping backgrounds with data augmentations can more easily be done, or is this not augmentation anymore?
Kiitos. Käytämme tätä aikajanasi parantamiseen. KumoaKumoa
-
Lataaminen näyttää kestävän hetken.
Twitter saattaa olla ruuhkautunut tai ongelma on muuten hetkellinen. Yritä uudelleen tai käy Twitterin tilasivulla saadaksesi lisätietoja.