টুইট
- টুইট, বর্তমান পৃষ্ঠা।
- টুইট এবং উত্তর
আপনি @kgwmath-কে ব্লক করেছেন
আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @kgwmath অবরোধ মুক্ত হবে না।
-
Gyuwan Kim পুনঃ টুইট করেছেন
My slides for this tutorial on few-shot learning with meta-learning can be found here: https://www.dropbox.com/s/sm68skkkbxbob0i/metalearning.pdf?dl=0 …https://twitter.com/998match/status/1016579262428696578 …
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
Universal Transformers propose to augment Transformers with Recurrence in depth and Adaptive Computation Time. This model outperforms Vanilla Transformers in MT / bAbI / LA / LTE. Paper: https://arxiv.org/abs/1807.03819 Code: Soon in https://github.com/tensorflow/tensor2tensor …pic.twitter.com/lCKfsEAswG
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
New piece about a direction I'm super excited about: NLP's ImageNet moment has arrived
@gradientpubhttps://thegradient.pub/nlp-imagenet/এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
An interesting analysis paper on neural language modeling. Sharp Nearby, Fuzzy Far Away- How Neural Language Models Use Context. (https://arxiv.org/abs/1805.04623 )
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
Welcome back, gradients! This method is orders of magnitude faster than state-of-the-art non-differentiable techniques. DARTS: Differentiable Architecture Search by Hanxiao Liu, Karen Simonyan, and Yiming Yang. Paper: https://arxiv.org/abs/1806.09055 Code: https://github.com/quark0/darts pic.twitter.com/pIHg3krnAE
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
Do you often find it cumbersome to track down the best datasets or the state-of-the-art for a particular task in NLP? I've created a resource (a GitHub repo) to make this easier.http://ruder.io/tracking-progress-nlp/ …
এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
Very excited to announce the natural language decathlon benchmark and the first single joint deep learning model to do well on ten different nlp tasks including question answering, translation, summarization, sentiment analysis, ++ https://einstein.ai/research/the-natural-language-decathlon …pic.twitter.com/4fotVhdRow
এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
Since 2016, SQuAD has been the key textual question answering benchmark, used by top AI groups & featured in AI Index—https://aiindex.org/ —Today
@pranavrajpurkar, Robin Jia &@percyliang release SQuAD2.0 with 50K unanswerable Qs to test understanding: https://stanford-qa.com/ pic.twitter.com/gTCvvFVcsm
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
Neat! Big multi-model replication study for NLI and other sequence matching tasks. Would like to see more on model capacity and hyperparameters here, but still very good to have. From
@cocoweixu's group. https://arxiv.org/pdf/1806.04330.pdf …ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
What I've been working on for the past year! https://blog.openai.com/p/7fa97c36-6111-4997-b690-741916793b23/ … Inspired by CoVE, ELMo, and ULMFiT we show that a single transformer language model can be finetuned to a wide variety of NLP tasks and performs very well with little tuning/tweaking.
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
Transfer learning with language models is getting hot!
New state-of-the-art results today by two different research groups: Trinh and Le (Google) on the Winograd challenge and Radford et al. (OpenAI) on a diverse range of tasks.
https://arxiv.org/abs/1806.02847 https://blog.openai.com/language-unsupervised/ …ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেনধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায়
-
Gyuwan Kim পুনঃ টুইট করেছেন
New paper on unsupervised mapping of word vectors, using Procrustes in Wasserstein distance, available on arxiv: https://arxiv.org/abs/1805.11222 . With
@armandjoulin and Q. Berthet. More resources to come soon!ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
"Pushing the bounds of dropout" (preprint): <https://arxiv.org/abs/1805.09208 >. See dropout in a new light (as a family of models), turned inside out (choose a model at evaluation) and upside down (deterministic dropout is the best modulo unexpected regularization).
এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
Really excited that our
@acl2018 paper on Universal Language Model Fine-tuning for Text Classification is now online: https://arxiv.org/abs/1801.06146 We also wrote a more high-level intro here: http://nlp.fast.ai/classification/2018/05/15/introducting-ulmfit.html …https://twitter.com/jeremyphoward/status/996442383674830848 …
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
Check out our
@acl2018 paper on "A robust self-learning method for fully unsupervised cross-lingual mappings of word embeddings" (w/@glabaka &@eagirre). New SOTA on unsupervised word translation, while more robust than previous adversarial approaches. https://arxiv.org/abs/1805.06297 pic.twitter.com/O6OiOyUOxS
ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
It's a fascinating phenomena in science where multiple groups come up simultaneously with the same basic idea. These 3 recent papers on artifacts in SNLI datasets are a good example: https://arxiv.org/abs/1803.02324 https://arxiv.org/abs/1804.08117 https://arxiv.org/abs/1805.01042
এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
Our work w/
@mblondel_ml 'Differentiable Dynamic Programming for Structured Prediction and Attention' was accepted at@icmlconf ! https://arxiv.org/abs/1802.03676 Sparsity and backprop in CRF-like inference layers using max-smoothing, application in text + time series (NER, NMT, DTW)pic.twitter.com/EZNCKrRMZy
এই থ্রেডটি দেখানধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
Our paper "What you can cram into a single vector: Probing sentence embeddings for linguistic properties" was accepted to
#ACL2018! We interrogate sentence embeddings about linguistic information. paper: https://arxiv.org/abs/1805.01070 tasks: https://github.com/facebookresearch/SentEval/tree/master/data/probing …#ACL2018#NLProcধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায় -
Gyuwan Kim পুনঃ টুইট করেছেন
NEWSROOM https://summari.es/ -- a corpus of 1.3M (1,321,995) article-summary pairs for automated summarization. It's big, it's diverse, and it's an open challenge. Oh, and we are pretty excited about it! Joint work with Max Grusky and
@informor#NLProc#naacl2018ধন্যবাদ। আপনার সময়রেখাকে আরো ভালো করে তুলতে টুইটার এটিকে ব্যবহার করবে। পূর্বাবস্থায়পূর্বাবস্থায়
লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।
টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।