Denny Britz

@dennybritz

Into Startups, Deep Learning. Ex-Google Brain, Stanford, Cal. Writing at and .

যোগদান করেছেন জানুয়ারী ২০০৮

টুইট

আপনি @dennybritz-কে ব্লক করেছেন

আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @dennybritz অবরোধ মুক্ত হবে না।

  1. পুনঃ টুইট করেছেন
    ১২ ঘন্টা আগে

    Backplay! With , Roberta, , , and : start the agent from the back and let it play. We share insight on why it works and yield super strong results on FFA.

    পূর্বাবস্থায়
  2. পুনঃ টুইট করেছেন
    ১৭ জুলাই

    Give an AI a fish, and it can identify that fish forever. Give an AI a fishing rod, and it can identify that fishing rod forever. ~Ancient supervized learning classification maxim By

    পূর্বাবস্থায়
  3. পুনঃ টুইট করেছেন
    ১৩ জুলাই

    If neural networks were called "correlation machines" I bet there would be less confusion about their use and potential. Perhaps the historical AI boom-and-bust cycle is driven not only by the technology itself but by pompous naming techniques from researchers seeking funding.

    পূর্বাবস্থায়
  4. ১৮ জুলাই

    I wonder how came up with their model architecture for Dota 2. Did they use some kind of surrogate supervised task to optimize the architecture? Or was is it common sense + domain knowledge of how to best represent the features? ?

    পূর্বাবস্থায়
  5. ১৮ জুলাই

    The team has really ramped up the efforts on documentation and high-quality examples. I love it. This makes it so much easier to figure out what the current best practices for the API usage are.

    পূর্বাবস্থায়
  6. ১৬ জুলাই

    I really enjoyed the paper presentation, but the TLDR basically is: If your task cares about absolute positions it makes sense to add a position feature to your input! Do we need a paper for this?

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  7. ১৬ জুলাই

    So true, unfortunately. In NLP, people have been adding position features to embeddings for a long time. I don’t think anyone has managed to write a whole paper about a one-line feature to make it sound academic.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  8. ১৪ জুলাই

    Good writeup: On “solving” Montezuma’s Revenge by It's difficult to solve Montezuma’s Revenge with pattern matching and random search techniques ;)

    পূর্বাবস্থায়
  9. পুনঃ টুইট করেছেন
    ১০ জুলাই

    We've released our fourth depth-first curriculum! It's by and on DeepStack, one of two recent AIs to solve Poker. Check it out here --> .

    পূর্বাবস্থায়
  10. ১০ জুলাই

    Model AI Assignments - This is a neat collection of assignments/exercises to learn about various Machine Learning techniques

    পূর্বাবস্থায়
  11. পুনঃ টুইট করেছেন
    ৯ জুলাই

    Well here goes. Our ICML Debates paper is live: "Troubling Trends in Machine Learning Scholarship". If anyone needs me, I'll be in witness protection. 🙄

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  12. পুনঃ টুইট করেছেন
    ৬ জুলাই
    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  13. পুনঃ টুইট করেছেন
    ৫ জুলাই

    Proof of concept experiment with on using attention for 1d search/optimization.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  14. ৬ জুলাই
    পূর্বাবস্থায়
  15. পুনঃ টুইট করেছেন
    ৫ জুলাই

    It's Throwback Thursday! Thread of comments on/excerpts from/links to old AI literature.

    পূর্বাবস্থায়
  16. ৫ জুলাই

    I’m very disappointed about the missing video soundtrack though.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  17. ৫ জুলাই

    Just had time to catch up on the DeepMind CTF () post/paper. I don’t know what to say. This is a whole new level of production quality with these visualizations and videos. When do we start getting full-length theater style movies with research papers?

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  18. ৫ জুলাই

    Learning Montezuma's Revenge from a Single Demonstration I like this approach. While not applicable to all problems, it makes very smart use of the available resources: One demonstration and full control over the environment (simulator).

    পূর্বাবস্থায়
  19. পুনঃ টুইট করেছেন
    ৩ জুলাই

    Successfully training neural networks requires almost no math skills, but does require knowing a large number of otherwise useless tricks.

    পূর্বাবস্থায়
  20. ২ জুলাই

    Dropout has been a standard technique for years, but we’re still finding new ways to interpret it. I tend to think of new techniques/architectures as an advancement in either regularization or optimization/gradient flow, but sometimes it’s difficult to tell which one it is.

    পূর্বাবস্থায়

লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

    আপনিও পছন্দ করতে পারেন

    ·