Tweetovi

Blokirali ste korisnika/cu @kngwyu

Jeste li sigurni da želite vidjeti te tweetove? Time nećete deblokirati korisnika/cu @kngwyu

  1. 2. velj

    実験でやらかしてICMLの投稿を取り下げることになったので、わりと落ちこんでいたのだけれど...... いま考えると、あんな惨状でよくもまあ、論文をまとめられると思っていたなあ、と思う... もっと余裕を持って実験スケジュールを立てないと...

    Poništi
  2. 26. sij

    大学、研究に真面目に取り組んでいても何一ついいことがないしむしろ単位を落としやすくなるのが厳しい(落とした)

    Poništi
  3. 14. sij
    Poništi
  4. 30. pro 2019.

    DQNはバッチ大きくすると性能落ちるけど TD3とかSACは大丈夫なのか...

    Poništi
  5. 19. stu 2019.

    信じられん...

    Poništi
  6. proslijedio/la je Tweet
    19. stu 2019.

    Mastering Atari, Go, Chess and Shogi by Planning with a Learned Model 😲

    Poništi
  7. 15. stu 2019.

    報酬がベルヌーイ分布のGridWorld Q学習というかSingle pathメソッドだと、εを大きくしないとうまく値が伝播していかない...ように見えるけど

    Poništi
  8. 14. stu 2019.

    DeepSeaを自分のコードベースに追加してみた bsuiteにもあるから、まあビジュアライザがついてるだけなんだけど...

    Poništi
  9. 7. stu 2019.
    Prikaži ovu nit
    Poništi
  10. 7. stu 2019.

    グレー画像の取得が速そうだから使いたいけど、使い方が... baselinesはNoopReset+FireReset+MaxAndSkip +TimeLimit+Monitor+EpisodicLife +WarpFrame+ClipReward+FrameStack(多分)だけど、これは NoopReset+FireReset+MaxAndSkip +EpisodicLife+WarpFrameに相当するのかな

    Prikaži ovu nit
    Poništi
  11. 6. stu 2019.

    (自分の研究と関係ないけど)SAC実装した なんかQ(s, a) - αlogπって何回見ても違和感があるな... あとActorが正規分布+tanhなのでlogπの計算が面倒

    Poništi
  12. 31. lis 2019.

    Randomized Prior Functions for Deep Reinforcement Learning に付属するコードのPyTorch版を公開しました なんかなんでうまくいくかとか正直よくわかってないですけど...

    Poništi

Čini se da učitavanje traje već neko vrijeme.

Twitter je možda preopterećen ili ima kratkotrajnih poteškoća u radu. Pokušajte ponovno ili potražite dodatne informacije u odjeljku Status Twittera.

    Možda bi vam se svidjelo i ovo:

    ·