Jan Leike

@janleike

Senior Research Scientist at DeepMind; opinions are my own

যোগদান করেছেন মার্চ ২০১৬

টুইট

আপনি @janleike-কে ব্লক করেছেন

আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @janleike অবরোধ মুক্ত হবে না।

  1. পুনঃ টুইট করেছেন
    ৭ জুন

    As AI is applied to more and more problems through society, it's important to think carefully about the principles by which this is done. We've just shared Google's AI principles, which shows how we've been thinking about these issues.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  2. ৭ জুন

    New paper on teaching RL agents to understand the meaning of instructions. Instead of manually specifying rewards, we learn them from goal-state examples. With , Felix Hill, , , and !

    পূর্বাবস্থায়
  3. ১ জুন

    There is also a follow-up video on Robert Miles' channel: He regularly posts cool videos of AI safety ideas on his channel, and they are generally very well explained! Subscription recommend :)

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  4. ১ জুন

    Computerphile made an awesome video about our AI safety gridworlds, including some sweet animations. Check it out:

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  5. ৩ মে

    Very interesting and original approach for value alignment with a focus on scalability by

    পূর্বাবস্থায়
  6. পুনঃ টুইট করেছেন
    ১৮ মার্চ

    New report about 'Deciphering China's AI dream' from FHI's Jeffrey Ding.

    পূর্বাবস্থায়
  7. ১৬ মার্চ

    Interested in getting into machine learning research and AI safety in particular? recently interviewed me about this. Check out the podcast:

    পূর্বাবস্থায়
  8. পুনঃ টুইট করেছেন
    ১৪ মার্চ

    Can you tell if you’ll like an ML paper after skimming for 30s? 's AI safety team is creating a dataset on quick vs. careful judgments about ML papers. Please consider taking part - no signup required.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  9. পুনঃ টুইট করেছেন
    ২৯ জানু

    Our new paper in the Journal of Artificial Intelligence Research (JAIR) demonstrates how deep neural networks can be extended to generalise visually and symbolically.

    পূর্বাবস্থায়
  10. পুনঃ টুইট করেছেন
    ২৭ ডিসেম্বর, ২০১৭

    Know someone doing amazing work bringing clarity to ML? Nominate them for the $10,000 USD prize. Email prize@distill.pub with a link to their work before Jan 1.

    পূর্বাবস্থায়
  11. পুনঃ টুইট করেছেন
    ২১ ডিসেম্বর, ২০১৭

    We at are excited to announce a multimillion grant competition for research on how to keep artificial general intelligence safe and beneficial:

    পূর্বাবস্থায়
  12. ২৮ নভেম্বর, ২০১৭
    পূর্বাবস্থায়
  13. পুনঃ টুইট করেছেন
    ২৮ আগস্ট, ২০১৭

    is hiring safety researchers! Help us make friendly AI!

    পূর্বাবস্থায়
  14. পুনঃ টুইট করেছেন
    ৩ আগস্ট, ২০১৭

    Open-sourcing an interface for training AIs via small amounts of human feedback:

    পূর্বাবস্থায়
  15. পুনঃ টুইট করেছেন
    ১৯ জুলাই, ২০১৭

    Exciting new FHI paper: Trial without Error: Towards Safe RL with Human Intervention w/

    পূর্বাবস্থায়
  16. পুনঃ টুইট করেছেন
    ৫ জুলাই, ২০১৭

    NIPS 2017 adversarial examples challenge: Test your defenses against others' adversarial examples and vice versa!

    পূর্বাবস্থায়
  17. পুনঃ টুইট করেছেন
    ৫ জুলাই, ২০১৭

    We're opening a research office in , Canada, in collaboration with , led by RL pioneer Rich Sutton

    পূর্বাবস্থায়
  18. পুনঃ টুইট করেছেন
    ১৪ জুন, ২০১৭

    New blog post with on why verification methods for machine learning are so difficult:

    পূর্বাবস্থায়
  19. পুনঃ টুইট করেছেন
    ১৪ জুন, ২০১৭
    পূর্বাবস্থায়
  20. ১৩ জুন, ২০১৭

    New AI safety paper with on how to train a deep RL agent from human preferences

    পূর্বাবস্থায়

লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

    আপনিও পছন্দ করতে পারেন

    ·