This paper: “We train a classifier to predict whether a paper should be rejected based solely on the visual appearance of the paper. Results show that our classifier can safely reject 50% of the bad papers while wrongly reject only 0.4% of good papers.”
https://twitter.com/miles_brundage/status/1075931121810993152?s=21 …
-
-
Показать эту ветку
-
The author of this paper-classifier ran their model on their paper describing this paper-classifier and it suggested a strong reject.
We can probably train a better model using data from @karpathy’s arxiv-sanity. https://arxiv.org/abs/1812.08775 pic.twitter.com/4WJG7tP4jt
Показать эту ветку -
“Would we trust a model to determine the future of our field?” Thread
https://twitter.com/david_madras/status/1075954423082508294?s=21 …Показать эту ветку -
With more than 5000 papers submitted to
@CVPR this year, if I was the program chair I’d be lying if the thought of using trained discriminators to reduce reviewer burden hasn’t crossed my head.https://twitter.com/hardmaru/status/1063953494124638209?s=21 …Показать эту ветку
Конец переписки
Новая переписка -
-
-
Self-rejecting AdverCVPRial Networks
Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить
-
-
-
Do judge a book by its cover...
Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить
-
-
-
Did they try on papers generated using SCIgen? https://pdos.csail.mit.edu/archive/scigen/
-
The current classifier only works on papers with CVPR/ICCV formats. See the second limitation discussed in the paper.
Конец переписки
Новая переписка -
-
-
Did they do any interpretation analysis on the learned representation? Maybe to find out what salient things can lead to accept vs. reject, and then try augment this paper to boost its chance of acceptance?
-
Yes, we do have a “bad-to-good paper translator” (see Figure 9, Section 4.2 in the paper).
Конец переписки
Новая переписка -
-
-
Trained to read about itself.
#Halting_ProblemСпасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить
-
-
-
All these GANs and still of no use..
Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить
-
-
-
A next step would be “GAN giving an oral talk at CVPR” :)
Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить
-
-
-
Without a semantic representation of these papers, this was meaningless to make. Would love to see a GANN generating a hypothesis, experiment and conclusions ;)
Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить
-
-
-
They can also simultaneously use another GAN method to make sad faces at their result. I felt sad for art when they applied GAN to generate terrible paintings. Now that it is also applied on ML we can proudly say we are terrible at discernment.
Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить
-
-
-
@J_AlegreCortes alright this is it
Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить
-
-
Этот твит недоступен
-
-
GANs will be a big area of focus in 2019... am excited to see what can be accomplished with GANs.
Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить
-
-
-
amazing
Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить
-
-
-
It's based on just the layout
Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить
-
Загрузка может занять некоторое время.
Вероятно, серверы Твиттера перегружены или в их работе произошел кратковременный сбой. Повторите попытку или посетите страницу Статус Твиттера, чтобы узнать более подробную информацию.

1/n