まます

@mamas16k

シナモン/囲碁(東洋7段, 野狐7段, kgs6d)/sm64 hack/kaggle/ツイートは私の意見ではありません

kgs go server
Vrijeme pridruživanja: prosinac 2010.

Tweetovi

Blokirali ste korisnika/cu @mamas16k

Jeste li sigurni da želite vidjeti te tweetove? Time nećete deblokirati korisnika/cu @mamas16k

  1. Prikvačeni tweet
    16. tra 2019.

    3個目の金メダルを取ってなんとかKaggle Masterになりました。これまでチームを組んで下さった方々、応援して下さった方々には本当に感謝の気持ちしかないです・・・!

    Poništi
  2. prije 9 sati

    特徴量を自動抽出っていう表現、まあ雑なのは分かるけど、感覚的な話としてはまあ良いんじゃねという感じはする。

    Poništi
  3. proslijedio/la je Tweet
    prije 9 sati

    つい最近書かれたと思わしき記事に「ディープラーニングは従来の機械学習と異なり特徴量を自動で抽出できる」みたいなことが書いてあるのを目にしてしまいモヤモヤ。

    Poništi
  4. prije 14 sati

    実験するか

    Poništi
  5. prije 18 sati

    これ、「敬愛」は先輩にかかってますからね

    Prikaži ovu nit
    Poništi
  6. prije 19 sati

    そういえば、敬愛する研究室の先輩が自分の友達に「まますくんとかいうアルファツイッタラーと同じ研究室なんですよね!」とか言われたらしくて震えている。いつの間にかアルファツイッタラーになっていたよ😢

    Prikaži ovu nit
    Poništi
  7. proslijedio/la je Tweet
    2. velj

    ほんと研究ができるだけでなく事務能力も対人能力もあって気が利いて外見もさわやかみたいな人しか学者になれなくなった。

    Poništi
  8. prije 22 sata

    有能

    Poništi
  9. proslijedio/la je Tweet
    prije 22 sata

    個人的には,直訳タスクは来年度のWMTにシステムを提出することを確約しなければ全部rejectでいいと思います.

    Prikaži ovu nit
    Poništi
  10. proslijedio/la je Tweet
    prije 22 sata

    ちなみに国際ワークショップを企画した・している身で言わせてもらうと,テストセットが見えている場合は参加者に注意してもチートが行われる(オーガナイザが検出できなければそのまま論文になる)ので,データ使い回しタスクの論文は本当に危険だと思います.

    Poništi
  11. proslijedio/la je Tweet
    prije 22 sata

    WMTは毎年テストセット生成しているので(えらい)一応機械翻訳の「今年の最高性能」は名乗れると思います.

    Poništi
  12. prije 23 sata

    まあtest setチューニングの話がないとしても、kaggleで勝つ能力と研究でSoTAを出す能力はかなり方向性遠そう。kaggleはアドホックなデータ固有の情報をどう活かすかという部分で勝負が決まりがちなので・・・

    Poništi
  13. prije 23 sata

    研究者「SoTA出したいならkaggleでやれ💢」 kaggler「SoTA?どうせtest setでチューニングした"自称"最高性能だろ?」 SoTA君「皆からいじめられてるよ😢

    Poništi
  14. 2. velj

    常にこの状態の人、強すぎ

    Poništi
  15. 2. velj

    追い詰められて完全に合理的に動く人間になった

    Poništi
  16. 2. velj

    うおー、結構追加実験ありそうで大変

    Poništi
  17. proslijedio/la je Tweet
    2. velj

    全 train データで学習するか問題、DNN は GBDT みたいに epoch (iter)数が線形に増加するわけじゃないからやりにくくね?って思ったけど、よくよく考えると cosine scheduling とかで lr 落としていけば変に長い epoch 数学習しなければ(おそらく)良い感じの所に落ち着きそう

    Prikaži ovu nit
    Poništi
  18. 2. velj

    ただ、今読んだけど、これに関してはあまり認知が変わっていないので、当時から割と厳しめの認識を出来ていたようである

    Poništi
  19. 2. velj

    3年前のツイートを掘り返されると凄い恥ずかしい

    Poništi
  20. proslijedio/la je Tweet
    2. velj

    前 stacking したとき stage1も fold ごとに作って test に対しての予測は k-fold avg してたけど、stage1 を全量で学習する方法もあるのか(そもそも僕の stacking への認識が誤りだった?)。そして 各 fold の stage0 の test に対する予測値を平均して stage1 に入力する

    Prikaži ovu nit
    Poništi
  21. 1. velj

    去年の自分のセンスを取り戻したい

    Poništi

Čini se da učitavanje traje već neko vrijeme.

Twitter je možda preopterećen ili ima kratkotrajnih poteškoća u radu. Pokušajte ponovno ili potražite dodatne informacije u odjeljku Status Twittera.

    Možda bi vam se svidjelo i ovo:

    ·