Dustin Tran

@dustinvtran

Research Scientist at Google. Bayesian statistics, machine learning.

New York, NY
যোগদান করেছেন জুন ২০১৩

টুইট

আপনি @dustinvtran-কে ব্লক করেছেন

আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @dustinvtran অবরোধ মুক্ত হবে না।

  1. পিন করা টুইট
    ১৭ মে

    PyMC4 announces to base on and TensorFlow Probability. This is exciting news for consolidating open source efforts for machine learning!

    পূর্বাবস্থায়
  2. পুনঃ টুইট করেছেন
    ১৭ জুলাই

    Graph models allow for all kinds of optimization, but it can be tricky to move between Python and graph code. To help with this, TensorFlow has AutoGraph, a new feature that converts Python code into pure TensorFlow graph code. Learn more on the blog ↓

    পূর্বাবস্থায়
  3. পুনঃ টুইট করেছেন
    ১৩ জুলাই

    The CS "just engineering" viewpoint is a disservice to the term "engineering". In fact, engineering is a subject of research. Turns out, there are entire university buildings full of people called "Professors of Engineering", and they claim to do research. Who knew?

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  4. ১৫ জুলাই

    How do we specify priors for Bayesian neural networks? Check out our work on Noise Contrastive Priors at the ICML Deep Generative Models workshop 11:40am+. , , Timothy Lillicrap, James Davidson

    পূর্বাবস্থায়
  5. ১২ জুলাই

    Check out the Image Transformer by others and me. Talk at 3:20p @ Victoria (Deep Learning). Visit our poster at 6:15-9:00p @ Hall B #217!

    পূর্বাবস্থায়
  6. পুনঃ টুইট করেছেন
    ৯ জুলাই

    Check out , my work with on improving flow-based generative models with invertible 1x1 convolutions.

    পূর্বাবস্থায়
  7. পুনঃ টুইট করেছেন
    ৮ জুলাই

    just found this little gem in from and co....makes it super easy to work with different datasets

    পূর্বাবস্থায়
  8. পুনঃ টুইট করেছেন
    ২৮ জুন

    Guided evolutionary strategies: escaping the curse of dimensionality in random search. A principled method to leverage training signals which are not the gradient, but which may be correlated with the gradient. Work with .

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  9. ৩১ মে

    If you like this work, check out our causal models for genomics. This is where I first discovered this with , and also scaled it to huge GWAS data sets.

    পূর্বাবস্থায়
  10. পুনঃ টুইট করেছেন
    ৩০ মে

    The CFP for our Uncertainty in Deep Learning Workshop at , with , , and Matt Hoffman, is now online! We are welcoming submissions. The deadline is June 22.

    পূর্বাবস্থায়
  11. পুনঃ টুইট করেছেন
    ২৪ মে

    Judea Pearl claims all we do in ML is curve fitting. I wrote this post to explain that claim and introduce the basics of causal inference to ML folks. Machine Learning beyond Curve Fitting: An Intro to Causal Inference and do-Calculus

    পূর্বাবস্থায়
  12. পুনঃ টুইট করেছেন
    ২৩ মে

    New paper by Y. Wang and D. Blei: The Blessings of Multiple Causes.

    পূর্বাবস্থায়
  13. পুনঃ টুইট করেছেন
    ২৩ মে

    Re-parameterize all the things! If you want to backprop thru samples from mixture, truncated, Gamma, Beta, Dirichlet, Student-t, or von Mises distributions, this paper has gotchu covered. Also faster than RSVI, another general reparameterization trick based on rejection sampling

    পূর্বাবস্থায়
  14. ২২ মে

    In single-episode settings, like in real life with humans building their internal world models, you still only observe "one world". Therefore you still may not be able to answer questions about counterfactuals.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  15. ২২ মে

    RL can sidestep the question. You can view them as performing a "randomized experiment" in which the designer (agent) has explicit access over the data generation. Such experiments allow standard inferences to indeed be causal.But it's important to formalize the claim+assumptions

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  16. ২০ মে

    Sorting by "most starred" can be difficult. Here's a link:

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  17. পুনঃ টুইট করেছেন
    ১২ মে

    Our paper, Image Transformer got accepted to ICML! 💃🏻💃🏻💃🏻

    পূর্বাবস্থায়
  18. পুনঃ টুইট করেছেন
    ১১ মে
    -কে উত্তর দিচ্ছেন

    Indeed, 25% is not ideal. From an MCMC perspective, 23.4% would be ideal.

    পূর্বাবস্থায়
  19. ৩ মে

    Interested in causal models? Check out our work applying it to genomics. 4:30-6:30p today @ East Meeting (#9). With Dave Blei

    পূর্বাবস্থায়
  20. ৩ মে

    "Formulating [RL] as inference provides a number of other appealing tools: a natural exploration strategy based on entropy maximization, effective tools for inverse reinforcement learning, and the ability to deploy powerful approximate inference algorithms to solve RL problems."

    পূর্বাবস্থায়

লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

    আপনিও পছন্দ করতে পারেন

    ·