টুইট

আপনি @mosko_mule-কে ব্লক করেছেন

আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @mosko_mule অবরোধ মুক্ত হবে না।

  1. পিন করা টুইট
    ৮ এপ্রিল

    Tokuno 2018、とても今の自分に重なる。

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  2. ৪ ঘন্টা আগে

    ディープラーニング、次元の呪いに悩んでいるのか?

    পূর্বাবস্থায়
  3. ২১ ঘন্টা আগে

    DNN's Sharpest Directions Along the SGD Trajectory 高い学習率/小さいバッチサイズでは学習のSGDは初期段階で平坦な領域に辿り着く。ヘッシアンの最大固有値の挙動は基本的に同一。シャープな局所解とワイドな局所解は汎化性能の観点では差が無いことを実験的に示した。

    পূর্বাবস্থায়
  4. ১৮ জুলাই

    Kingma兄貴「手切れにGlow渡すか」

    পূর্বাবস্থায়
  5. ১৮ জুলাই

    報酬のいる教師なし学習と報酬のいらない教師なし学習

    পূর্বাবস্থায়
  6. ১৮ জুলাই

    リゾートしてます

    পূর্বাবস্থায়
  7. ১৭ জুলাই

    イタリア人に「どうも」を教えたら「"Ciao"より便利だ」、と喜んでいる。

    পূর্বাবস্থায়
  8. ১৭ জুলাই

    滞在先の人が査読をしているのだが、「自分の過去の論文のツールだけを変えたものを参照なしに何度も提出してくる」「テキストからのコピペばかり」と文句をいっていて辛そう。そういう悪意の論文ってあるんですね…

    পূর্বাবস্থায়
  9. পুনঃ টুইট করেছেন
    ১৭ জুলাই

    “この評論家は分かってる / 分かってない” 議論、一般向けメディアの話だとまぁ研究者界隈の雑談の種になるけど、これ論文の査読も似たようなもので、ベテラン研究者が “この論文著者は分かってる / 分かってない” を原稿の端々から判断していると思うと辛いお気持ちになる。

    পূর্বাবস্থায়
  10. পুনঃ টুইট করেছেন
    ১৭ জুলাই

    ニューラルで解けそうな話見つけて解いたって話が多いな…あまり何かを学んだ気がしない

    পূর্বাবস্থায়
  11. ১৬ জুলাই

    不可欠は強すぎるかも…

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  12. ১৬ জুলাই

    The GAN Landscape: Losses, Architectures, Regularization, and Normalization GANの損失函数、正規化、構造による違い、評価手法、陥りがちな(再現性周りの)問題をまとめた。non-saturateな損失が安定には不可欠で、GP/SNが有効。 /コード

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  13. ১৬ জুলাই

    強い人たちが会議やワークショップで意見の交換してどんどん強くなってしまう…

    পূর্বাবস্থায়
  14. ১৬ জুলাই

    Visual Reinforcement Learning with Imagined Goals 実環境で動くロボットは実行時に求められるゴールが決まる。βVAEの潜在空間で状態とゴールを扱い学習し、生成されたゴールを目標とする。潜在空間の距離が報酬となり、人間による目標設定、報酬設計が不要。

    পূর্বাবস্থায়
  15. ১৫ জুলাই

    この国、水回りが圧倒的に原始時代なのでだんだん辛い…(ホテルの星を増やすことで解決はする)

    পূর্বাবস্থায়
  16. ১৫ জুলাই
    পূর্বাবস্থায়
  17. ১৫ জুলাই

    知らない人にリプライを送るときの緊張感、大切にしていきたい

    পূর্বাবস্থায়
  18. ১৫ জুলাই
    পূর্বাবস্থায়
  19. ১৫ জুলাই

    Representation Learning with Contrastive Predictive Coding 高次元データから特徴抽出をした隠れ状態に対して自己回帰を行い、損失に単語embeddingに用いられるNoise Contrastive Estim.を導入した教師なし学習を提案。特徴抽出が強力で、音声画像テキストなどでも有効。

    পূর্বাবস্থায়
  20. ১৪ জুলাই

    イノベーションに必要なのは奇人ではなくて需要なんだよ みつを

    পূর্বাবস্থায়
  21. পুনঃ টুইট করেছেন
    ১৩ জুলাই

    I love how DeepMind is so big now that you see DeepMinders go to other DeepMinders’ posters at ICML, and this is probably the first time they see the work or perhaps the first time they meet.

    পূর্বাবস্থায়

লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

    আপনিও পছন্দ করতে পারেন

    ·