টুইট
- টুইট, বর্তমান পৃষ্ঠা।
- টুইট এবং উত্তর
- মিডিয়া
আপনি @yasamanbb-কে ব্লক করেছেন
আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @yasamanbb অবরোধ মুক্ত হবে না।
-
Yasaman Bahri পুনঃ টুইট করেছেন
Enjoying some Stockholm sunsets at
#icml2018. w/@yasamanbb@j_foerst@NalKalchbrenner@TacoCohen@avitaloliverpic.twitter.com/g7lgu6pUSN
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Yasaman Bahri পুনঃ টুইট করেছেন
Ever wanted to train a 10k layer vanilla conv net? Curious why gating helps RNNs train? Super excited about our pair of ICML papers!! http://ift.tt/2ybrZXV http://ift.tt/2MpwaT0 . Really fun collaboration with
@Locchiu, Minmin,@yasamanbb,@jaschasd, & Jeffrey.pic.twitter.com/YcN6NTVIjX
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
A spatially non-uniform kernel allows more modes of signal propagation in deep networks. Based off of this, we suggest an initialization scheme which allows us to train plain CNNs with up to 10,000 layers. (3/3)
এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
extending a line of earlier work using mean field theory. The spatial distribution of convolutional kernels appears to play an important role: CNNs initialized with spatially uniform conv kernels perform like fully-connected networks at large depths. .... (2/3)
এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Our ICML 2018 paper on training ultra-deep (10k+ layers) CNNs is now up, from work we've done at Google Brain: https://arxiv.org/abs/1806.05393 . We examine the relationship of trainability to signal propagation and Jacobian conditioning in networks with convolutional layers, ... (1/3)
এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Had a really fun time at Fermilab today; appreciate the insightful conversations and questions, and the deep interest in ML ... thank you for hosting!https://twitter.com/iamstarnord/status/998600076875522049 …
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
We have two papers at ICLR 2018. Come by our posters for https://arxiv.org/abs/1711.00165 (Tues PM) and https://arxiv.org/abs/1802.08760 (Mon PM) if you're interested!
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Ditto! Wonderful gathering. Many thanks to the organizers.https://twitter.com/simontrebst/status/989976994506051587 …
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
A very stimulating first day at this workshop http://www.mlquantum.org/ on machine learning and quantum many-body physics at the Simons Foundation's Flatiron Institute.pic.twitter.com/fX1YmRtTbx
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
The time is ripe for a move towards publishing notebooks as standard practice in scientific research. And indeed, both Mathematica (which still amazes me) and Jupyter are elegantly designed and satisfying tools to use.https://www.theatlantic.com/science/archive/2018/04/the-scientific-paper-is-obsolete/556676/ …
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
OpenAI Scholars is a new program designed to help individuals from underrepresented groups get into AI. Consider applying!https://blog.openai.com/openai-scholars/ …
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
In latter case, looking at deep linear networks disentangles effect of expressivity from potential acceleration. Key observation: dynamics induced on the the end-to-end map of the whole network is gradient descent with a particular preconditioner.
এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Two interesting recent blog posts + papers from http://www.offconvex.org/ , on (i) generalization and (ii) the potential for network depth to accelerate optimization.
এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Yasaman Bahri পুনঃ টুইট করেছেন
Sensitivity and Generalization in Neural Networks: an Empirical Study https://arxiv.org/abs/1802.08760 Neural nets generalize better when they're larger and less sensitive to their inputs, are less sensitive near training data than away from it, and other results from massive experiments.
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
while high-level not as much. (2) Using Gaussian noise as the input leads to a critical period but doesn't do as much damage as blurring! (3) Deeper networks experience greater damage. (See paper for comments re learning rate in experiments.) https://arxiv.org/abs/1711.08856
এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
training on uncorrupted data is resumed after time T. Depending on the nature of data corruption and how long it lasts, this can lead to "irreversible damage" in the final performance. Some findings: (1) corruption in low-level statistics do lead to these "critical" periods ...
এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
This paper looks at the early learning period in neural networks with some interesting experiments. They examine final test performance when corrupted training data is used in the early stages of learning (until epoch T) and ...
এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
The kind of sight that would be a familiar from an experimental physics lab. IBM brought a prototype of their quantum computer to NIPS. (Most of what you see here is the cryogenics/dilution fridge.)pic.twitter.com/whuKQnIqyM
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
The "test of time" award talk by Ali Rahimi was so refreshing. As a relative newcomer to ML, the alchemy has only added to my culture shock. Thank you to the awardees for giving that talk.
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Attending
#NIPS2017 (we have 2 papers in Sat workshops) and would love to chat research -- ML and physics -- with other researchers; if so, please message me!ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায়
লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।
টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।