Brandon Amos

@brandondamos

CS PhD student at CMU working on machine learning and optimization. Sometimes deep, sometimes convex, sometimes both. Author of OpenFace.

Pittsburgh, PA
যোগদান করেছেন জানুয়ারী ২০১৪

টুইট

আপনি @brandondamos-কে ব্লক করেছেন

আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @brandondamos অবরোধ মুক্ত হবে না।

  1. পুনঃ টুইট করেছেন
    ১৪ জুলাই

    An excellent summary of gender bias in STEM (in the US).

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  2. পুনঃ টুইট করেছেন
    ১৩ জুলাই

    Interesting thread. It's good to see these ideas expressed in such a clear and provocative way, because a lot of people believe them, and they are wrong in an interesting way. THREAD 👇🏻 (post 1 of "until my beer gets cold")

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  3. পুনঃ টুইট করেছেন
    ১৩ জুলাই

    This is one of the most off-base threads I’ve ever seen on this hellhole of a website. 100s of researchers at Brain, FAIR, and other industry ML labs are doing science (not engineering, and not grad student descent, though there’s lots of that) without regard to corporate goals.

    পূর্বাবস্থায়
  4. পুনঃ টুইট করেছেন
    ১৩ জুলাই

    Attending ? Visit the Reproducibility Workshop () to hear new work from the Google Brain team on a practical “cookbook” for research (), along with AI Resident work on new educational framework,

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  5. পুনঃ টুইট করেছেন
    ১২ জুলাই

    If you are curious about how DeepRL, GANs and program synthesis fit together in the long term, come to our ICML oral at 5 pm in A7 (deep learning adversarial section)

    পূর্বাবস্থায়
  6. পুনঃ টুইট করেছেন
    ১২ জুলাই
    পূর্বাবস্থায়
  7. পুনঃ টুইট করেছেন
    ১২ জুলাই

    Love this paper, it restores your faith in humanity. Great challenge, great science, and brings together a number of ideas across different fields. More of this type of work please!

    পূর্বাবস্থায়
  8. পুনঃ টুইট করেছেন
    ১১ জুলাই

    Our latest work is out! Representation Learning with Contrastive Predictive Coding (CPC). Autoregressive modeling meets contrastive losses in the latent space. Learn useful representations in an unsupervised way. -> On Audio, Vision, NLP and RL. Arxiv:

    পূর্বাবস্থায়
  9. পুনঃ টুইট করেছেন
    ১১ জুলাই

    Really surprised convolution failed at this and that nobody reported it yet: "An Intriguing Failing of Convolutional Neural Networks and the CoordConv Solution" (with video!) . With

    পূর্বাবস্থায়
  10. পুনঃ টুইট করেছেন
    ১০ জুলাই

    We've made code for our ICLR paper with and on learning sentence representations public - . Repo includes pre-trained models.

    পূর্বাবস্থায়
  11. পুনঃ টুইট করেছেন
    ১০ জুলাই
    -কে উত্তর দিচ্ছেন

    The framework gives a smoothed Viterbi algorithm for sequence prediction? I love the Viterbi algorithm! 💌 (n.b. It's a name I haven't heard a lot about for a long time. The Viterbi algorithm was my first introduction to why working in log probability can be so cool +++ ^_^)

    Figure 2 from the paper showing the computational graph of the Viterbi algorithm
    Now that's a name I haven't heard in a long time
    পূর্বাবস্থায়
  12. পুনঃ টুইট করেছেন
    ১০ জুলাই

    The slides and some links to references and supplementary material can be found on the tutorial website:

    পূর্বাবস্থায়
  13. পুনঃ টুইট করেছেন
    ১০ জুলাই

    Slides for Imitation Learning tutorial now available:

    পূর্বাবস্থায়
  14. পুনঃ টুইট করেছেন
    ১০ জুলাই

    Smoothing the max operator in a dynamic program recursion induces a random walk on the computational graph. The expected path on that walk can be computed efficiently by backpropagation, which converges to backtracking as smoothing vanishes.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  15. পুনঃ টুইট করেছেন
    ৯ জুলাই

    Well here goes. Our ICML Debates paper is live: "Troubling Trends in Machine Learning Scholarship". If anyone needs me, I'll be in witness protection. 🙄

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  16. পুনঃ টুইট করেছেন
    ৯ জুলাই

    Feature-wise transformations - A new Distill article by , Ethan Perez, , Florian Strub, , Aaron Courville, Yoshua Bengio

    পূর্বাবস্থায়
  17. ৯ জুলাই

    There Is No Free Lunch In Adversarial Robustness (But There Are Unexpected Benefits)

    পূর্বাবস্থায়
  18. পুনঃ টুইট করেছেন
    ৯ জুলাই

    That there's actually a huge need in the machine learning field for traditional software engineers that just know how to write clean, maintainable code and build clean architectures. The machine learning bits are like 3% of the work in real projects.

    পূর্বাবস্থায়
  19. পুনঃ টুইট করেছেন
    ৯ জুলাই

    Check out , my work with on improving flow-based generative models with invertible 1x1 convolutions.

    পূর্বাবস্থায়
  20. পুনঃ টুইট করেছেন
    ৯ জুলাই

    There are 2 types of papers: DIRECTED papers: You can read them once and understand them. Definitions come first. UNDIRECTED papers: You must read the 2+ times (nay, 5+ times) to solve an intractable constraint satisfaction problem to infer what the hell is going on. So...

    পূর্বাবস্থায়

লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

    আপনিও পছন্দ করতে পারেন

    ·