Твиты
- Твиты, текущая страница.
- Твиты и ответы
- Медиа
Вы внесли @brandondamos в черный список
Вы уверены, что хотите видеть эти твиты? Если вы просто просмотрите твиты, @brandondamos по-прежнему останется в черном списке.
-
Закрепленный твит
A life update. I've dodged all of the attacks and have successfully defended my PhD thesis. Thanks everybody! My thesis document and slides are available on GitHubhttps://github.com/bamos/thesis
Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Brandon Amos ретвитнул(а)
New pre-print on learning task agnostic representations for partially observable environments in reinforcement learning. With Amy Zhang
@zacharylipton@kazizzad Luis Pineda@AnimaAnandkumar Laurent Itti and Joelle Pineau https://arxiv.org/abs/1906.10437v1 …Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Brandon Amos ретвитнул(а)
Exited to share our new paper: 'Monte Carlo Gradient Estimation in Machine Learning', with
@elaClaudia@mfigurnov@AndriyMnih. It reviews of all the things we know about computing gradients of probabilistic functions. https://arxiv.org/abs/1906.10652
Thread
pic.twitter.com/2eTPsFO7mZ
Показать эту веткуСпасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Brandon Amos ретвитнул(а)
I'm happy to share my
@pytorch implementation of Glow that reproduces results from "Do Deep Generative Models Know What They Don't Know?" (@eric_nalisnick et al.) Includes pretrained model, evaluation notebooks and training code!https://github.com/y0ast/Glow-PyTorch …Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Brandon Amos ретвитнул(а)
A Regularized Opponent Model with Maximum Entropy Objective https://arxiv.org/abs/1905.08087
Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Brandon Amos ретвитнул(а)
Happy share our work: Shaping Belief States with Generative Environment Models for RL Thanks Karol Gregor, Frederic Besse, Yan Wu, Hamza Merzic and
@avdnoord ! https://arxiv.org/abs/1906.09237v2 … https://youtu.be/dOnvAp_wxv0#RL#SelfSupervised#GenerativeWorldModels#BeliefStatespic.twitter.com/CyDVyTkYRM
Показать эту веткуСпасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Brandon Amos ретвитнул(а)
Our new paper shows that to evaluate a dialog model, you need a human to actually talk to it! We then use self-play to accurately approximate the human
@ghandeharioun@judyhshen Paper: https://arxiv.org/abs/1906.09308 Code: https://github.com/natashamjaques/neural_chat … Platform: https://neural.chat/Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Brandon Amos ретвитнул(а)
Polyhedral duality is cool and it's associated with lots of really neat centuries-old drawings such as those from Kepler: https://en.m.wikipedia.org/wiki/Dual_polyhedron …https://twitter.com/gabrielpeyre/status/1143383360913457157 …
Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Brandon Amos ретвитнул(а)
I'm honored to have been named one of MIT
@techreview's 35 Innovators Under 35! I'm lucky to have had such a wonderful collection of mentors, collaborators, and friends at@SCSatCMU during my PhD.#35InnovatorsUnder35https://www.technologyreview.com/lists/innovators-under-35/2019/visionary/noam-brown/ …Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Brandon Amos ретвитнул(а)
New paper out! An advancement in properly estimating off-policy occupancy ratios. We apply it to off-policy policy evaluation with great results, but we believe it should be useful in many more off-policy settings! https://arxiv.org/abs/1906.04733 pic.twitter.com/nD4UaNj9T1
Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить
-
Exploring Model-based Planning with Policy Networks
@TingwuWang and Jimmy Ba Paper: http://arxiv.org/abs/1906.08649 Code: https://github.com/WilsonWangTHU/POPLIN …pic.twitter.com/Yis26OpXyx
Показать эту веткуСпасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Brandon Amos ретвитнул(а)
Video of my lecture at
@ITP_NYU camp yesterday, "Frontiers of AI Arts." This class was mainly on advanced language models (like GPT-2) and generative audiohttps://www.youtube.com/watch?v=OPnNmjuXL44 …Спасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Notably, we also revive and revisit the truncated top-k entropy loss from Lapin et al. as another reasonable baseline for top-k classification that Berrada, Zisserman, and Kumar did not consider and show how it can be extended to multi-label settings for scene graph generation
Показать эту веткуСпасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
We add the LML layer with a few lines of code to existing code for top-k CIFAR-100 classification and scene graph generation and recover or surpass the accuracy of the state-of-the-art models.pic.twitter.com/ykDDP26uWj
Показать эту веткуСпасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Now you can maximize the top-k recall with the LML layer by just posing it as a maximum likelihood problem over the labels that you observe *without* worrying about your model collapsingpic.twitter.com/MPREGGW9Ga
Показать эту веткуСпасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
We then propose that projecting onto another polytope, that we call LML polytope, is useful for learning in top-k settings. It doesn't have an explicit closed-form solution but we show that solving and differentiating through this projection operation is easy and tractable.pic.twitter.com/wR4Rju9WyK
Показать эту веткуСпасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
We start by motiving our work with other projections in machine learning and reviewing that the ReLU, sigmoid, and softmax layers are just explicit closed-form solutions to convex and constrained optimization problems that project into polytopes.pic.twitter.com/NRxZt27wWp
Показать эту веткуСпасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Excited to share my new tech report from my
@IntelAI internship on the Limited Multi-Label projection layer! Joint work with Vladlen Koltun and@zicokolter Paper: https://arxiv.org/abs/1906.08707@PyTorch Code: https://github.com/locuslab/lml pic.twitter.com/m6LsebLBQD
Показать эту веткуСпасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Brandon Amos ретвитнул(а)
Our paper on the link between information matrices and generalization is out: https://arxiv.org/abs/1906.07774 This is the result of the fantastic work of
@lanternol, with help from@fpedregosa,@bvanmerrienboer,@PManzagol and Yoshua Bengio.pic.twitter.com/pBML3Lu8XN
Показать эту веткуСпасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить -
Brandon Amos ретвитнул(а)
When should we use a model to improve RL? We've analyzed this theoretically and empirically, with a monotonic improvement result, error accumulation study (vid below), and proposing the most efficient RL method yet, MBPO https://people.eecs.berkeley.edu/~janner/mbpo/ w/
@michaeljanner, J. Fu, M. Zhangpic.twitter.com/G3vhjhKQW3Показать эту веткуСпасибо. Твиттер использует эту информацию, чтобы сделать вашу ленту лучше. ОтменитьОтменить
Загрузка может занять некоторое время.
Вероятно, серверы Твиттера перегружены или в их работе произошел кратковременный сбой. Повторите попытку или посетите страницу Статус Твиттера, чтобы узнать более подробную информацию.