টুইট
- টুইট, বর্তমান পৃষ্ঠা।
- টুইট এবং উত্তর
- মিডিয়া
আপনি @jaschasd-কে ব্লক করেছেন
আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @jaschasd অবরোধ মুক্ত হবে না।
-
Adversarial Reprogramming of Neural Networks https://goo.gl/qnB5FA A new goal for adversarial attacks! Rather than cause a specific misclassification, we force neural networks to behave as if they were trained on a completely different task! With
@gamaleldinfe,@goodfellow_ianpic.twitter.com/1Wj8aOIHn5
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায়
-
Guided evolutionary strategies: escaping the curse of dimensionality in random search. A principled method to leverage training signals which are not the gradient, but which may be correlated with the gradient. Work with
@niru_m@Luke_Metz@georgejtucker.http://goo.gl/uUGQzKএই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Stochastic natural gradient descent corresponds to Bayesian training of neural networks, with a modified prior. This equivalence holds *even away from local minima*. Very proud of this work with Sam Smith, Daniel Duckworth, and Quoc Le. http://arxiv.org/abs/1806.09597 pic.twitter.com/9SJDztQQ9v
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
If you are using PCA to visualize neural network training trajectories, you are interpreting it wrong! Very proud of this work with
@joe_antognini: "PCA of high dimensional random walks with comparison to neural network training" https://arxiv.org/abs/1806.08805 pic.twitter.com/i9vSfz9ZaR
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Jascha পুনঃ টুইট করেছেন
Our ICML 2018 paper on training ultra-deep (10k+ layers) CNNs is now up, from work we've done at Google Brain: https://arxiv.org/abs/1806.05393 . We examine the relationship of trainability to signal propagation and Jacobian conditioning in networks with convolutional layers, ... (1/3)
এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Jascha পুনঃ টুইট করেছেন
Ever wanted to train a 10k layer vanilla conv net? Curious why gating helps RNNs train? Super excited about our pair of ICML papers!! http://ift.tt/2ybrZXV http://ift.tt/2MpwaT0 . Really fun collaboration with
@Locchiu, Minmin,@yasamanbb,@jaschasd, & Jeffrey.pic.twitter.com/YcN6NTVIjX
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Meta-learning for unsupervised representation learning! Learn unsupervised learning rules that directly target the properties of the representation you care about.https://twitter.com/Luke_Metz/status/980973688085389314 …
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Sensitivity and Generalization in Neural Networks: an Empirical Study https://arxiv.org/abs/1802.08760 Neural nets generalize better when they're larger and less sensitive to their inputs, are less sensitive near training data than away from it, and other results from massive experiments.
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Jascha পুনঃ টুইট করেছেন
Adversarial examples that fool both human and computer vision https://arxiv.org/abs/1802.08195 pic.twitter.com/i4ttmFNrHX
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Jascha পুনঃ টুইট করেছেন
The Google Brain team is continuing our research on understanding adversarial examples. This paper by Gamaleldin Elsayed, Shreya Shankar, Brian Cheung, Nicolas Papernot, Alex Kurakin
@goodfellow_ian, &@jaschasd shows how to create examples that fool both ML models and humans.https://twitter.com/goodfellow_ian/status/966853052140470272 …
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Learning to sample using deep neural networks! Hamiltonian Monte Carlo + Real NVP == trainable MCMC sampler that generalizes, and far outperforms, HMC. https://arxiv.org/abs/1711.09268
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Jascha পুনঃ টুইট করেছেন
A blogpost I wrote on our paper SVCCA, at
#nips2017! With Justin Gilmer,@jasonyo@jaschasd -- hoping many people will try it out on their networks with the open source code: https://github.com/google/svcca https://twitter.com/googleresearch/status/935618525246382080 …ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Jascha পুনঃ টুইট করেছেন
Another research update: Final version of our
#nips2017@NipsConference paper SVCCA: http://goo.gl/uNw5Ki with accompanying code:(!!) https://github.com/google/svcca We look at deep learning dynamics and interpret the latent representations. With Justin Gilmer,@jasonyo,@jaschasdpic.twitter.com/mTrG1LyEPL
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Use trained neural networks without training a neural network! New paper on equivalence of NNs and GPs. https://arxiv.org/abs/1711.00165
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
SVCCA: Singular Vector Canonical Correlation Analysis (https://arxiv.org/abs/1706.05806 ). Analyze deep representations layer-wise, not unit wise!pic.twitter.com/5YqapnmIKj
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
I implemented a perceptron, the ancestor of most modern classification algorithms, on Khan Academy Computer Science:http://www.khanacademy.org/cs/perceptron-classifier/993241235 …
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায়
লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।
টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।