Tweets
- Tweets, current page.
- Tweets & replies
- Media
You blocked @vivisuke
Are you sure you want to view these Tweets? Viewing Tweets won't unblock @vivisuke
-
【ハーフギャモンNN】隠れ層ノード数をもっと増やして100にしてみたところ、なんと誤差がほとんど0になっちまった。いったいどういうこと???pic.twitter.com/OGuHMtE5Ox
Thanks. Twitter will use this to make your timeline better. UndoUndo -
【ハーフギャモンNN】ちなみに tanh() の場合でも誤差はあるけど、ReLU() に比べるとかなり小さいでござるぞ。pic.twitter.com/c2jcs4irZK
Thanks. Twitter will use this to make your timeline better. UndoUndo -
【ハーフギャモンNN】ReLU で学習すると重みが発散する件:ななな、なんということでしょう、隠れ層のノード数が20だと微分結果が不正になるのを発見してしまいましたよ(喜)。pic.twitter.com/KCGDxHRuaG
Thanks. Twitter will use this to make your timeline better. UndoUndo -
【ハーフギャモンNN】ReLU で学習すると重みが発散する件:念の為に5層の場合でも微分が正しいかチェックしてみた。pic.twitter.com/7BobHEnoZC
Thanks. Twitter will use this to make your timeline better. UndoUndo -
【ハーフギャモンNN】46局面学習した時点で重み係数の値が大変なことになってるぞ。なして???pic.twitter.com/OZZYAjzokz
Thanks. Twitter will use this to make your timeline better. UndoUndo -
【ハーフギャモンNN】しょうがないので、直接的に発散問題をデバッグすることにする。まずは、100試合(約4千局面)で学習した場合の重みのダンプ。結果は添付画像のように nan の嵐でござるぞ。pic.twitter.com/GyVkrkS054
Thanks. Twitter will use this to make your timeline better. UndoUndo -
【ハーフギャモンNN】活性化関数:ReLU の場合に発散することがあるので、∂L/∂W の計算があっているかどうかをチェックするコードを書いて、実行してみた。結果は添付画像の通りで、W を変化させた場合の L の変化は ∂L/∂W に一致したでござるぞ。pic.twitter.com/lfOylbEaRQ
Thanks. Twitter will use this to make your timeline better. UndoUndo -
んだけど、去年の誤差を調べたら約0.6だったので、なんだずいぶん改善されてたんじゃん、と気分を持ち直したなう。
Thanks. Twitter will use this to make your timeline better. UndoUndo -
【ハーフギャモンNN】ランダムプレイアウトによる得点期待値を学習し、その結果の平方平均自乗誤差が 0.25 以下になるのが目標なんだけど、千対局(約4万局面)の学習で 0.35 程度にしかならず、また入力の正規化を行っても誤差が減らないのでちょっと落ち込んでた。
Thanks. Twitter will use this to make your timeline better. UndoUndo -
ハーフギャモンNNがなかなか目標誤差まで学習できないのだが、データ生成とか評価とかに時間がかかりすぎるので、さらに小さい 1/3 サイズのギャモンでいろいろ実験してみることにするおpic.twitter.com/YL7IVgNNHr
Thanks. Twitter will use this to make your timeline better. UndoUndo -
【ハーフギャモンNN】ランダムプレイアウトによる期待得点を千対局(約4万局面)生成し、10周学習させてみた。結果は添付画像の通りで、誤差が100対局より約0.1減った。この感じなら1万~10万対局の学習データを生成すれば、目標の誤差0.25をクリアできそうかな?pic.twitter.com/zeh2dlJAd3
Thanks. Twitter will use this to make your timeline better. UndoUndo -
とりあえず学習データを10倍に増やしてみるか、各層全部をバッチノーマライゼーションしてみるか、うーむ、どうしよう。
Thanks. Twitter will use this to make your timeline better. UndoUndo -
【ハーフギャモンNN】2変数関数の学習ではすごく強力だったバッチ・ノーマライゼーションが効果が無いというかむしろ逆効果なのは謎。ReLU で発散してしまう現象も出てるので、なにかバグがあるのかもしれない。
Thanks. Twitter will use this to make your timeline better. UndoUndo -
【ハーフギャモンNN】入力層を平均0、分散1に正規化してみた。結果は添付画像の通りで、なぜか学習が速くなりませんでしたぞ。orzpic.twitter.com/MA37EPCwmX
Thanks. Twitter will use this to make your timeline better. UndoUndo -
【ハーブギャモンNN】100試合(約4千局面)の学習データをシャフルしつつ10回学習させてみた。結果は添付画像の通り。目標は RMS = 0.25 以下なので、まだまだですな。pic.twitter.com/D9tsNHZfvD
Thanks. Twitter will use this to make your timeline better. UndoUndo -
【ハーフギャモンNN】活性化関数を ReLU() から tanh() に変えたら、発散しなかったでござるぞ。。。pic.twitter.com/Tpl0UMsyFT
Thanks. Twitter will use this to make your timeline better. UndoUndo -
【ハーフギャモン】なんということでしょう、ランダムプレイアウトでの期待スコアを学習させたところ、予測値が発散するようになっちまったでござるぞ orzpic.twitter.com/gVxSDazIYp
Thanks. Twitter will use this to make your timeline better. UndoUndo -
【ハーフギャモンNN】今度は2変数関数の学習。入力をバッチ・ノーマライズしない場合とした場合。pic.twitter.com/VlNUrl5fsY
Thanks. Twitter will use this to make your timeline better. UndoUndo -
【ハーフギャモンNN】VS2019 でも sin(2πx) の学習がうまくいきましたよ(喜)。pic.twitter.com/PjWJMaRAKl
Thanks. Twitter will use this to make your timeline better. UndoUndo -
Qt もインストールだん。 んだけど、コンパイラのパスが違うとかエラーがでてる。ううむ・・・pic.twitter.com/Mf0kkTMFt2
Thanks. Twitter will use this to make your timeline better. UndoUndo
Loading seems to be taking a while.
Twitter may be over capacity or experiencing a momentary hiccup. Try again or visit Twitter Status for more information.