D.C.

@deepchiji

Interests: Computer Vision & Deep Learning

Vrijeme pridruživanja: kolovoz 2018.

Tweetovi

Blokirali ste korisnika/cu @deepchiji

Jeste li sigurni da želite vidjeti te tweetove? Time nećete deblokirati korisnika/cu @deepchiji

  1. 25. pro 2019.

    直接的に解を探索するのではなく、不動点定理の条件部分を探索することで精度保証も与えられるというのは目から鱗だ

    Poništi
  2. proslijedio/la je Tweet
    5. pro 2019.

    PPLM, from the Uber AI team, builds on top of other large transformer-based generative models (like GPT-2), where it enables finer-grained control of attributes of the generated language (e.g. gradually switching topic 🐱 or sentiment 😃). Try it out ⤵️

    Prikaži ovu nit
    Poništi
  3. 28. stu 2019.

    CNNのカーネルに直交性を課す研究はよくある話だが、畳み込み層そのものを線形層と捉え直したものに直交性を課すことを提案。その方が精度が上がると主張している

    Poništi
  4. proslijedio/la je Tweet

    We’re introducing a new framework, called TensorMask, that uses a dense, sliding-window technique for very sharp instance segmentation. Read more:

    Poništi
  5. 12. stu 2019.

    メモ: DNN訓練時間の半分をback-propagationが占めることに注目し、back-propagationを減らすことで最適化を図った論文。学習過程において、いくつかのミニバッチに渡りロスが大きいものだけを集めてback-propagationしていくという単純な戦略で3〜5倍の高速化を達成。

    Poništi
  6. 16. ruj 2019.

    FreeAnchor: Learning to Match Anchors for Visual Object Detection 物体検出学習をMLEとして再定式化し、Bag-of-Anchorsに対する位置推定・分類スコアのMLEとなるよう修正。これにより、正解ボックスとのIoU thresholdに頼ることなく適切なアンカーボックスの学習を実現。

    Poništi
  7. proslijedio/la je Tweet

    書こうとしているプログラムを自動で補完してくれるモデル「Deep TabNine」が凄い。ここで使われている技術は、自然言語処理で話題になっているGPT-2(常識がないと解けないと言われてたデータセットで大幅な性能向上を果たした)。今回はGitHubの200万のファイルを学習。

    Prikaži ovu nit
    Poništi
  8. 9. srp 2019.

    メモ: Gradient boosting = 目的関数Fを関数列G1,G2,...と逐次的に近似する手法。関数間の距離d(F,Gi)が各点L2なら残差F-Giが小さくなるようG_{i+1}を取っていけばよいが、一般のdの場合は"残差"が考えられない → 代わりにd(F,Gi + x)のxに関する勾配法を適用することで、"残差を小さくする"を実現

    Poništi
  9. 28. lip 2019.

    ちょっと前のこの論文にも、ImageNetタスクの精度に反比例して AlexNet > VGG > ResNet の順にテクスチャ耐性が強くなる(物の表面ではなくちゃんと全体的な形まで考慮して判断できるようになる)傾向があると書かれてあり、考えさせられた

    Poništi
  10. proslijedio/la je Tweet

    簡単に言うと、特徴には人間が認識できる特徴(robust特徴)と認識できない特徴(non-robust)があり、敵対例は後者をクラス間で交換することで誤認識させていて、その誤認識させやすさはResNetが高くVGGはかなり低い。即ち、VGGは人間が認識できる特徴にかなり依存してるのでスタイル転送に適している

    Prikaži ovu nit
    Poništi
  11. 12. lip 2019.

    Meta-Learning: from Few-Shot Learning to Rapid Reinforcement Learning

    Poništi
  12. 16. sij 2019.

    (驚きがないというのは流石に盛っているが、言われてみれば変なことではないという感覚。)

    Prikaži ovu nit
    Poništi
  13. 16. sij 2019.

    もっと現実に即して言えば「データを入力するだけで画像分類・生成も自然言語処理も音声認識も出来てしまう普遍ニューラルネットワークモデル」が存在するか否か?という問いなので、これが連続体仮説によって決まると言われても別に驚きはない。

    Prikaži ovu nit
    Poništi
  14. 16. sij 2019.

    現実問題として気になるのは、この論文でいう”都合の良い学習関数”が現実的には何を意味するか?ということだが、ざっくり言ってしまえば「十分量のデータを与えられればどんな分布であっても学習できてしまえる究極の機械学習プログラム」なわけである。

    Prikaži ovu nit
    Poništi
  15. 16. sij 2019.

    数学的には(一部でも言われているように)”都合の良い学習関数”が存在するか否かは連続体仮説を仮定するかどうかによって決まる、ということだと思う: "Learnability can be undecidable"

    Prikaži ovu nit
    Poništi
  16. proslijedio/la je Tweet
    15. sij 2019.

    「学習可能性は決定不能かも知れない」。不完全定理との関連は分かる気がするけど、連続体仮説は守備範囲外。誰か数学に強い人に原論文の解説をお願いしたい。

    Poništi
  17. 23. stu 2018.

    この前出てた他の著者のより結果が強い上に読みやすい!重み行列の成分を十分ランダムに取っておけば、SGD最適化する際に”十分高い確率で”目的関数の臨界点を通らないように出来るというのが肝。理屈としてはそれはそうという感じ、だが計算し切ってしまうのは凄まじい腕力だ

    Poništi
  18. 13. stu 2018.

    深層学習においてパラメータ数/レイヤー数が増えれば学習ロスが0に収束するという主張は、それはそうという感じ。肝心の汎化性能については全く解析出来ていないのが残念だが、2-layerに留まらないmulti-layerモデルに対する計算手法としては参考になりそうだ。

    Poništi

Čini se da učitavanje traje već neko vrijeme.

Twitter je možda preopterećen ili ima kratkotrajnih poteškoća u radu. Pokušajte ponovno ili potražite dodatne informacije u odjeljku Status Twittera.

    Možda bi vam se svidjelo i ovo:

    ·