Yasaman Bahri

@yasamanbb

Machine learning research. Currently a Resident at Google Brain. Ph.D. in theoretical physics , quantum condensed matter.

যোগদান করেছেন নভেম্বর ২০১৪

টুইট

আপনি @yasamanbb-কে ব্লক করেছেন

আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @yasamanbb অবরোধ মুক্ত হবে না।

  1. পুনঃ টুইট করেছেন
    ১১ জুলাই
    পূর্বাবস্থায়
  2. পুনঃ টুইট করেছেন
    ১৫ জুন

    Ever wanted to train a 10k layer vanilla conv net? Curious why gating helps RNNs train? Super excited about our pair of ICML papers!! . Really fun collaboration with , Minmin, , , & Jeffrey.

    পূর্বাবস্থায়
  3. ১৫ জুন

    A spatially non-uniform kernel allows more modes of signal propagation in deep networks. Based off of this, we suggest an initialization scheme which allows us to train plain CNNs with up to 10,000 layers. (3/3)

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  4. ১৫ জুন

    extending a line of earlier work using mean field theory. The spatial distribution of convolutional kernels appears to play an important role: CNNs initialized with spatially uniform conv kernels perform like fully-connected networks at large depths. .... (2/3)

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  5. ১৫ জুন

    Our ICML 2018 paper on training ultra-deep (10k+ layers) CNNs is now up, from work we've done at Google Brain: . We examine the relationship of trainability to signal propagation and Jacobian conditioning in networks with convolutional layers, ... (1/3)

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  6. ২২ মে

    Had a really fun time at Fermilab today; appreciate the insightful conversations and questions, and the deep interest in ML ... thank you for hosting!

    পূর্বাবস্থায়
  7. ৩০ এপ্রিল

    We have two papers at ICLR 2018. Come by our posters for (Tues PM) and (Mon PM) if you're interested!

    পূর্বাবস্থায়
  8. ২৭ এপ্রিল

    Ditto! Wonderful gathering. Many thanks to the organizers.

    পূর্বাবস্থায়
  9. ২৭ এপ্রিল

    A very stimulating first day at this workshop on machine learning and quantum many-body physics at the Simons Foundation's Flatiron Institute.

    পূর্বাবস্থায়
  10. ৬ এপ্রিল

    The time is ripe for a move towards publishing notebooks as standard practice in scientific research. And indeed, both Mathematica (which still amazes me) and Jupyter are elegantly designed and satisfying tools to use.

    পূর্বাবস্থায়
  11. ৯ মার্চ

    OpenAI Scholars is a new program designed to help individuals from underrepresented groups get into AI. Consider applying!

    পূর্বাবস্থায়
  12. ৪ মার্চ

    In latter case, looking at deep linear networks disentangles effect of expressivity from potential acceleration. Key observation: dynamics induced on the the end-to-end map of the whole network is gradient descent with a particular preconditioner.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  13. ৪ মার্চ

    Two interesting recent blog posts + papers from , on (i) generalization and (ii) the potential for network depth to accelerate optimization.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  14. পুনঃ টুইট করেছেন
    ২৭ ফেব

    Sensitivity and Generalization in Neural Networks: an Empirical Study Neural nets generalize better when they're larger and less sensitive to their inputs, are less sensitive near training data than away from it, and other results from massive experiments.

    পূর্বাবস্থায়
  15. ৪ জানু

    while high-level not as much. (2) Using Gaussian noise as the input leads to a critical period but doesn't do as much damage as blurring! (3) Deeper networks experience greater damage. (See paper for comments re learning rate in experiments.)

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  16. ৪ জানু

    training on uncorrupted data is resumed after time T. Depending on the nature of data corruption and how long it lasts, this can lead to "irreversible damage" in the final performance. Some findings: (1) corruption in low-level statistics do lead to these "critical" periods ...

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  17. ৪ জানু

    This paper looks at the early learning period in neural networks with some interesting experiments. They examine final test performance when corrupted training data is used in the early stages of learning (until epoch T) and ...

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  18. ৭ ডিসেম্বর, ২০১৭

    The kind of sight that would be a familiar from an experimental physics lab. IBM brought a prototype of their quantum computer to NIPS. (Most of what you see here is the cryogenics/dilution fridge.)

    পূর্বাবস্থায়
  19. ৫ ডিসেম্বর, ২০১৭

    The "test of time" award talk by Ali Rahimi was so refreshing. As a relative newcomer to ML, the alchemy has only added to my culture shock. Thank you to the awardees for giving that talk.

    পূর্বাবস্থায়
  20. ৪ ডিসেম্বর, ২০১৭

    Attending (we have 2 papers in Sat workshops) and would love to chat research -- ML and physics -- with other researchers; if so, please message me!

    পূর্বাবস্থায়

লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

    আপনিও পছন্দ করতে পারেন

    ·