Torchのt7形式をJSONに変換するコードを含めておけば移植は楽になりそうです。ただやはりCUDAでないと遅いと思います。公開前にOpenBLAS+OpenMP版も作ってみたのですが、cuDNN版の20倍くらい時間かかります。
@ultraistter もちろん、GPU処理の方がCPUより高速ですね。OpenCL版を作りたいと思って、アルゴリズムを分かるために先にnumpyとscipyだけに変更してみました。waifu2xのアルゴリズムは本当に単純で見事です。
-
-
@marcan42 AMD派の方もいるのでOpenCL版は需要があると思います。遅くてもいいからCPUで使いたい方もいるかもしれません。cudnn.torchのweight/biasの保存形式は自分でもよく理解していなかったので参考になりました。 -
@ultraistter 色々なプラットホームでも同じモデルデータを使いたいと思うけど、まだPython版の画質は少し低いです。floatの丸めや演算の順番が違うかもしれません。それをもっと調べます。
End of conversation
New conversation -
Loading seems to be taking a while.
Twitter may be over capacity or experiencing a momentary hiccup. Try again or visit Twitter Status for more information.