Jascha

@jaschasd

San Francisco
যোগদান করেছেন আগস্ট ২০০৯

টুইট

আপনি @jaschasd-কে ব্লক করেছেন

আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @jaschasd অবরোধ মুক্ত হবে না।

  1. ২ জুলাই

    Adversarial Reprogramming of Neural Networks A new goal for adversarial attacks! Rather than cause a specific misclassification, we force neural networks to behave as if they were trained on a completely different task! With ,

    পূর্বাবস্থায়
  2. ২৮ জুন

    Including the forgotten eye candy plots:

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  3. ২৮ জুন

    Guided evolutionary strategies: escaping the curse of dimensionality in random search. A principled method to leverage training signals which are not the gradient, but which may be correlated with the gradient. Work with .

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  4. ২৬ জুন

    Stochastic natural gradient descent corresponds to Bayesian training of neural networks, with a modified prior. This equivalence holds *even away from local minima*. Very proud of this work with Sam Smith, Daniel Duckworth, and Quoc Le.

    পূর্বাবস্থায়
  5. ২৬ জুন

    If you are using PCA to visualize neural network training trajectories, you are interpreting it wrong! Very proud of this work with : "PCA of high dimensional random walks with comparison to neural network training"

    পূর্বাবস্থায়
  6. পুনঃ টুইট করেছেন
    ১৫ জুন

    Our ICML 2018 paper on training ultra-deep (10k+ layers) CNNs is now up, from work we've done at Google Brain: . We examine the relationship of trainability to signal propagation and Jacobian conditioning in networks with convolutional layers, ... (1/3)

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  7. পুনঃ টুইট করেছেন
    ১৫ জুন

    Ever wanted to train a 10k layer vanilla conv net? Curious why gating helps RNNs train? Super excited about our pair of ICML papers!! . Really fun collaboration with , Minmin, , , & Jeffrey.

    পূর্বাবস্থায়
  8. ৩ এপ্রিল

    Meta-learning for unsupervised representation learning! Learn unsupervised learning rules that directly target the properties of the representation you care about.

    পূর্বাবস্থায়
  9. ২৭ ফেব

    Sensitivity and Generalization in Neural Networks: an Empirical Study Neural nets generalize better when they're larger and less sensitive to their inputs, are less sensitive near training data than away from it, and other results from massive experiments.

    পূর্বাবস্থায়
  10. পুনঃ টুইট করেছেন
    ২৩ ফেব

    Adversarial examples that fool both human and computer vision

    পূর্বাবস্থায়
  11. পুনঃ টুইট করেছেন
    ২৩ ফেব

    The Google Brain team is continuing our research on understanding adversarial examples. This paper by Gamaleldin Elsayed, Shreya Shankar, Brian Cheung, Nicolas Papernot, Alex Kurakin , & shows how to create examples that fool both ML models and humans.

    পূর্বাবস্থায়
  12. ২৮ নভেম্বর, ২০১৭

    Learning to sample using deep neural networks! Hamiltonian Monte Carlo + Real NVP == trainable MCMC sampler that generalizes, and far outperforms, HMC.

    পূর্বাবস্থায়
  13. পুনঃ টুইট করেছেন
    ২৮ নভেম্বর, ২০১৭

    A blogpost I wrote on our paper SVCCA, at ! With Justin Gilmer, -- hoping many people will try it out on their networks with the open source code:

    পূর্বাবস্থায়
  14. পুনঃ টুইট করেছেন
    ৯ নভেম্বর, ২০১৭

    Another research update: Final version of our paper SVCCA: with accompanying code:(!!) We look at deep learning dynamics and interpret the latent representations. With Justin Gilmer, ,

    পূর্বাবস্থায়
  15. ২ নভেম্বর, ২০১৭

    Use trained neural networks without training a neural network! New paper on equivalence of NNs and GPs.

    পূর্বাবস্থায়
  16. ২০ জুন, ২০১৭

    SVCCA: Singular Vector Canonical Correlation Analysis ( ). Analyze deep representations layer-wise, not unit wise!

    পূর্বাবস্থায়
  17. ৩ সেপ্টেম্বর, ২০১২

    I implemented a perceptron, the ancestor of most modern classification algorithms, on Khan Academy Computer Science:

    পূর্বাবস্থায়

লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

    আপনিও পছন্দ করতে পারেন

    ·