Tweetovi
- Tweetovi, trenutna stranica.
- Tweetovi i odgovori
- Medijski sadržaj
Blokirali ste korisnika/cu @deepchiji
Jeste li sigurni da želite vidjeti te tweetove? Time nećete deblokirati korisnika/cu @deepchiji
-
直接的に解を探索するのではなく、不動点定理の条件部分を探索することで精度保証も与えられるというのは目から鱗だhttps://qiita.com/lotz/items/fd6c1c695fda6779585f …
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
D.C. proslijedio/la je Tweet
PPLM, from the Uber AI team, builds on top of other large transformer-based generative models (like GPT-2), where it enables finer-grained control of attributes of the generated language (e.g. gradually switching topic
or sentiment
).
Try it out
https://transformer.huggingface.co/model/pplm Prikaži ovu nitHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
CNNのカーネルに直交性を課す研究はよくある話だが、畳み込み層そのものを線形層と捉え直したものに直交性を課すことを提案。その方が精度が上がると主張しているhttps://twitter.com/BrundageBot/status/1199882777191223296 …
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
D.C. proslijedio/la je Tweet
We’re introducing a new framework, called TensorMask, that uses a dense, sliding-window technique for very sharp instance segmentation. Read more: https://ai.facebook.com/blog/a-new-dense-sliding-window-technique-for-instance-segmentation/ …
#iccv2019pic.twitter.com/8Mp3VuhTqgHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
メモ: DNN訓練時間の半分をback-propagationが占めることに注目し、back-propagationを減らすことで最適化を図った論文。学習過程において、いくつかのミニバッチに渡りロスが大きいものだけを集めてback-propagationしていくという単純な戦略で3〜5倍の高速化を達成。 https://deepai.org/publication/accelerating-deep-learning-by-focusing-on-the-biggest-losers …pic.twitter.com/ho9osOfCdr
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
FreeAnchor: Learning to Match Anchors for Visual Object Detection https://arxiv.org/pdf/1909.02466.pdf … 物体検出学習をMLEとして再定式化し、Bag-of-Anchorsに対する位置推定・分類スコアのMLEとなるよう修正。これにより、正解ボックスとのIoU thresholdに頼ることなく適切なアンカーボックスの学習を実現。pic.twitter.com/N8nOPif21g
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
D.C. proslijedio/la je Tweet
書こうとしているプログラムを自動で補完してくれるモデル「Deep TabNine」が凄い。ここで使われている技術は、自然言語処理で話題になっているGPT-2(常識がないと解けないと言われてたデータセットで大幅な性能向上を果たした)。今回はGitHubの200万のファイルを学習。https://twitter.com/gdm3000/status/1151469462614368256?s=20 …
0:27Prikaži ovu nitHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
メモ: Gradient boosting = 目的関数Fを関数列G1,G2,...と逐次的に近似する手法。関数間の距離d(F,Gi)が各点L2なら残差F-Giが小さくなるようG_{i+1}を取っていけばよいが、一般のdの場合は"残差"が考えられない → 代わりにd(F,Gi + x)のxに関する勾配法を適用することで、"残差を小さくする"を実現
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
ちょっと前のこの論文にも、ImageNetタスクの精度に反比例して AlexNet > VGG > ResNet の順にテクスチャ耐性が強くなる(物の表面ではなくちゃんと全体的な形まで考慮して判断できるようになる)傾向があると書かれてあり、考えさせられた https://arxiv.org/abs/1811.12231 pic.twitter.com/VwKh7xlBu2
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
D.C. proslijedio/la je Tweet
簡単に言うと、特徴には人間が認識できる特徴(robust特徴)と認識できない特徴(non-robust)があり、敵対例は後者をクラス間で交換することで誤認識させていて、その誤認識させやすさはResNetが高くVGGはかなり低い。即ち、VGGは人間が認識できる特徴にかなり依存してるのでスタイル転送に適している
Prikaži ovu nitHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Meta-Learning: from Few-Shot Learning to Rapid Reinforcement Learninghttps://sites.google.com/view/icml19metalearning …
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
-
もっと現実に即して言えば「データを入力するだけで画像分類・生成も自然言語処理も音声認識も出来てしまう普遍ニューラルネットワークモデル」が存在するか否か?という問いなので、これが連続体仮説によって決まると言われても別に驚きはない。
Prikaži ovu nitHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
現実問題として気になるのは、この論文でいう”都合の良い学習関数”が現実的には何を意味するか?ということだが、ざっくり言ってしまえば「十分量のデータを与えられればどんな分布であっても学習できてしまえる究極の機械学習プログラム」なわけである。
Prikaži ovu nitHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
数学的には(一部でも言われているように)”都合の良い学習関数”が存在するか否かは連続体仮説を仮定するかどうかによって決まる、ということだと思う: "Learnability can be undecidable"https://www.nature.com/articles/s42256-018-0002-3#Sec6 …
Prikaži ovu nitHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
D.C. proslijedio/la je Tweet
「学習可能性は決定不能かも知れない」。不完全定理との関連は分かる気がするけど、連続体仮説は守備範囲外。誰か数学に強い人に原論文の解説をお願いしたい。https://twitter.com/NazologyInfo/status/1085313315914436608 …
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
この前出てた他の著者のより結果が強い上に読みやすい!重み行列の成分を十分ランダムに取っておけば、SGD最適化する際に”十分高い確率で”目的関数の臨界点を通らないように出来るというのが肝。理屈としてはそれはそうという感じ、だが計算し切ってしまうのは凄まじい腕力だ https://arxiv.org/pdf/1811.03962.pdf …
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
深層学習においてパラメータ数/レイヤー数が増えれば学習ロスが0に収束するという主張は、それはそうという感じ。肝心の汎化性能については全く解析出来ていないのが残念だが、2-layerに留まらないmulti-layerモデルに対する計算手法としては参考になりそうだ。https://twitter.com/roydanroy/status/1061975943256801282 …
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
Čini se da učitavanje traje već neko vrijeme.
Twitter je možda preopterećen ili ima kratkotrajnih poteškoća u radu. Pokušajte ponovno ili potražite dodatne informacije u odjeljku Status Twittera.