Nishant Nikhil

@nishantiam

Learner | GSoC'16 Student and GSoC'17 mentor with SymPy | Robotics DL ML | IIT KGP

যোগদান করেছেন মে ২০১১
১৯ জুলাই, ১৯৯৭ -এ জন্মেছেন

টুইট

আপনি @nishantiam-কে ব্লক করেছেন

আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @nishantiam অবরোধ মুক্ত হবে না।

  1. পিন করা টুইট
    ১৭ জুন

    My internship advisor Mr. Brendan Morris is very generous to provide me with this opportunity I would be attending my first CVPR Looking forward to meeting a lot of awesome people and learning a lot of interesting stuff If you are here too, let's meet up

    পূর্বাবস্থায়
  2. ২১ ঘন্টা আগে
    পূর্বাবস্থায়
  3. পুনঃ টুইট করেছেন
    ১৫ জুলাই

    OK, as promised here is a small autopsy of a paper I recently came across:

    পূর্বাবস্থায়
  4. ১৫ জুলাই
    পূর্বাবস্থায়
  5. পুনঃ টুইট করেছেন
    ১৪ জুলাই

    Good writeup: On “solving” Montezuma’s Revenge by It's difficult to solve Montezuma’s Revenge with pattern matching and random search techniques ;)

    পূর্বাবস্থায়
  6. ১৩ জুলাই

    Well not trap, just a musing.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  7. ১৩ জুলাই

    We can make sense of ML by taking cues from civilization. (This would be the trap of our generation, back in 1900s people used valves and pipes to build up generalization bw humans and machines, but there's no bad in thinking meta)

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  8. ১৩ জুলাই

    There are two type of people in the world: First who say if there's 'x' there is no chance of 'y' Second who say if there's 'x', there is still a possibility of 'y'. Both fair equally in simple tasks, but when the going gets tough - second type fair better (from superforecasting)

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  9. ১৩ জুলাই

    There are 2 types of loss functions in DL, so suppose we have to classify an event into one of 'n' classes: First type of classifier would say if 'x' is present - increase its score while decrease that of others Second type says, increase the score of 'x', DONT decrease others.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  10. পুনঃ টুইট করেছেন
    ১১ জুলাই

    Really surprised convolution failed at this and that nobody reported it yet: "An Intriguing Failing of Convolutional Neural Networks and the CoordConv Solution" (with video!) . With

    পূর্বাবস্থায়
  11. ১০ জুলাই

    Hey Please stop bugging me for downloading your app. I wanted to use your WEBsite and then there comes a modal with the text - Download app for better experience "without a close button". Bad UX :/

    পূর্বাবস্থায়
  12. পুনঃ টুইট করেছেন
    ৭ জুলাই

    The quest for optimal normalization in neural nets continues. SwitchNorm: add BatchNorm + InstanceNorm + GroupNorm with a learnable blend at each layer fun plots; + code

    পূর্বাবস্থায়
  13. ২৮ জুন

    So: add an attention layer above the LSTM weights. Now it doesnt brush past the sentence but attends to the facts. Though it's slow now, but more analytic. Hence would work like System2 - more attentive. Architecture idea: use a MLP to decide whether to attend.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  14. ২৮ জুন

    System1 is fast but doesn't attend much to every fact, just looks at the context. (How many animals did Moses bring on the ark?) (What advice did Krishna gave to yudhistir?) Both of these questions are wrong, but seems right as per system 1. And are probable wrt a LSTM. Continued

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  15. ২৮ জুন

    Intuitively we know that the second statement might have been a mis-print. It should be B. Because we have seen it everywhere. These are things LSTMs are good at, finding the probability of P(X_(t+1) | X_(t, t-1, ... 2, 1)). But this is like system1. Continued

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  16. ২৮ জুন

    I am reading the book: Thinking fast and slow. It talks about two systems in our brain. System1 is intuitive and System2 is more analytic. System 1 is always active, system 2 is slow/lazy. There is a lot of similarity with LSTMs. 12 13 14 A 13 C Continued

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  17. ২৭ জুন
    পূর্বাবস্থায়
  18. পুনঃ টুইট করেছেন
    ১৭ জুন

    You do not need to keep your eyes open for photos anymore! From Eye In-Painting with Exemplar Generative Adversarial Networks: Given a reference image and a input image, it inserts a pair of eyes for you. Works for

    পূর্বাবস্থায়
  19. পুনঃ টুইট করেছেন
    ১৯ জুন

    The Deep Layer aggregation idea of Fisher Yu and colleagues is really nice and yields impressive results across many tasks! Code (with a very fresh last commit just before his talk ^^):

    পূর্বাবস্থায়
  20. পুনঃ টুইট করেছেন
    ১৯ জুন

    Best paper award at main idea: study twenty five different visual tasks to understand how & when transfer learning works from one task to another, reducing demand for labelled data. Paper: Data:

    পূর্বাবস্থায়
  21. পুনঃ টুইট করেছেন
    ১৯ জুন

    Aha! Great couple hours spent on this great idea! 😀😀 kudos for thinking this up! Code here: Set it up using Cron on your computer if you are interested. Works out of the box for kindle csv notebooks.

    পূর্বাবস্থায়

লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

    আপনিও পছন্দ করতে পারেন

    ·