Our QANet architecture is the deepest NLP model ever built in the literature (I believe; previous models < 30 layers). By designing a homogenous architecture for encoders of fast layers, we can stack 130+ layers.pic.twitter.com/Jz4FjTj8Go
আপনি আপনার টুইটগুলিতে ওয়েব থেকে এবং তৃতীয়-পক্ষ অ্যাপ্লিকেশনগুলির মাধ্যমে অবস্থান তথ্য যেমন শহর বা সুনির্দিষ্ট অবস্থান যোগ করতে পারবেন। আপনার কাছে আপনার টুইটের অবস্থান ইতিহাস মোছার বিকল্প থাকবে। আরও জানুন
Our QANet architecture is the deepest NLP model ever built in the literature (I believe; previous models < 30 layers). By designing a homogenous architecture for encoders of fast layers, we can stack 130+ layers.pic.twitter.com/Jz4FjTj8Go
"Translation models naturally make your text datasets bigger" is also one of the key ideas hidden in our paper :) Data augmentation (DA) is popular in speech and vision, but not NLP. Here, we show how DA can help an NLP task.pic.twitter.com/jNJje7nAyN
QANet is also #1 on DAWNBench for fast training time, barring some mismatches on frameworks and hardware. Results courtesy of @dmdohan. https://dawn.cs.stanford.edu/benchmark/#squad …pic.twitter.com/8OJaNK2nc2
Awesome work! Are there any plans to make code/models available?
We will! Hopefully in May.
any update on code availability? thanks!
Thank you for your awesome paper! Looking forward to reading the code. In the meantime, I've written an implementation of QANet that closely replicates the earlier results of the paper up to EM/F1: 71/80.https://github.com/minsangkim142/QANet …
টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।