Here's a fun 8-minute YouTube video explaining their CoordConv technique. Wish more authors did this!https://youtu.be/8yFQc6elePA
-
-
এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায়
-
-
-
reminds me of grid generator in spatial transformer networks...
-
There certainly is some connection I can see - since it is de-homogenising a vector and learning a linear transform on it.
-
If it is “sample freely -> linear transform” might be related to that paper that came out about the same time Mask-rcnn from the same company but nobody remembers the name...
-
I remember now! Is it related to this? https://arxiv.org/pdf/1703.06211.pdf …
-
.... Pdf link from a Twitter veteran?!
-
I know... shame on me...

-
I fixed my sins! Here: Deformable Convolutional Networks http://arxiv.org/abs/1703.06211 pic.twitter.com/mujNa79Qr6
-
For me, what they did is very similar to what was done in this paper (and others as well): https://arxiv.org/abs/1702.08192 , this was not only common in patch-wise training for segmentation but on fcns as well.pic.twitter.com/iREQI5Z6Nk
কথা-বার্তা শেষ
নতুন কথা-বার্তা -
-
-
Adding positions makes me think less of CPPNs and more of Transformers adding positional encoding to their sequences for NTM. Do they really need to be absolute coordinates or would more sine/cosine stuff work?
-
It depends on the task. As we are inspired by CPPNs we will also consider other types of gradients in future work (like distance from the center, or sin and cos), but their usefullness depends on the task, they are not needed for the specific pixel drawing motivating example.
-
Anyone want to take bets on how long until we find analogous structures in the human visual cortex? The discovery that "hard-coded layers for certain transformations massively reduces the cognitive load on the downstream network" is useful enough to have evolved in us, too.
-
Would it not then require more training data to configure the spatial transformations and then generalize as well?
কথা-বার্তা শেষ
নতুন কথা-বার্তা -
-
-
Here's a pytorch implementation of CoordConv layer:https://github.com/mkocabas/CoordConv-pytorch …
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায়
-
-
-
"Includes a TF implementation in the Appendix" -- don't hear that one often!
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায়
-
-
-
Thanks for sharing our work David!
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায়
-
-
-
@ApacheMXNet gluon implementation here ( from@sinafz )https://discuss.mxnet.io/t/coordconv-layer/1394/4 …ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায়
-
-
-
Am I the only one who finds this evident? ConvNets don't have global spatial perception, only very local. Why would anyone expect them to succeed in such a task?

-
Wouldn't the local coordinate representation be restrictive or then require more training?
-
If by that you mean the common convolution (wo/ coordinate info), I guess more layers could do, but it's kinda unnatural using convolution alone for that task. So yeah... I'd say convs add a restriction of locality.
কথা-বার্তা শেষ
নতুন কথা-বার্তা -
লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।
টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।