টুইট

আপনি @kgwmath-কে ব্লক করেছেন

আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @kgwmath অবরোধ মুক্ত হবে না।

  1. পুনঃ টুইট করেছেন
    ১৬ জুলাই

    My slides for this tutorial on few-shot learning with meta-learning can be found here:

    পূর্বাবস্থায়
  2. পুনঃ টুইট করেছেন
    ১২ জুলাই

    Universal Transformers propose to augment Transformers with Recurrence in depth and Adaptive Computation Time. This model outperforms Vanilla Transformers in MT / bAbI / LA / LTE. Paper: Code: Soon in

    পূর্বাবস্থায়
  3. পুনঃ টুইট করেছেন
    ৯ জুলাই

    New piece about a direction I'm super excited about: NLP's ImageNet moment has arrived

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  4. পুনঃ টুইট করেছেন
    ২৮ জুন

    An interesting analysis paper on neural language modeling. Sharp Nearby, Fuzzy Far Away- How Neural Language Models Use Context. ()

    পূর্বাবস্থায়
  5. পুনঃ টুইট করেছেন
    ২৬ জুন

    Welcome back, gradients! This method is orders of magnitude faster than state-of-the-art non-differentiable techniques. DARTS: Differentiable Architecture Search by Hanxiao Liu, Karen Simonyan, and Yiming Yang. Paper: Code:

    পূর্বাবস্থায়
  6. পুনঃ টুইট করেছেন
    ২২ জুন

    Do you often find it cumbersome to track down the best datasets or the state-of-the-art for a particular task in NLP? I've created a resource (a GitHub repo) to make this easier.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  7. পুনঃ টুইট করেছেন
    ২০ জুন

    Very excited to announce the natural language decathlon benchmark and the first single joint deep learning model to do well on ten different nlp tasks including question answering, translation, summarization, sentiment analysis, ++

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  8. পুনঃ টুইট করেছেন
    ১২ জুন

    Since 2016, SQuAD has been the key textual question answering benchmark, used by top AI groups & featured in AI Index——Today , Robin Jia & release SQuAD2.0 with 50K unanswerable Qs to test understanding:

    পূর্বাবস্থায়
  9. পুনঃ টুইট করেছেন
    ১৩ জুন

    Neat! Big multi-model replication study for NLI and other sequence matching tasks. Would like to see more on model capacity and hyperparameters here, but still very good to have. From 's group.

    পূর্বাবস্থায়
  10. পুনঃ টুইট করেছেন
    ১১ জুন

    What I've been working on for the past year! Inspired by CoVE, ELMo, and ULMFiT we show that a single transformer language model can be finetuned to a wide variety of NLP tasks and performs very well with little tuning/tweaking.

    পূর্বাবস্থায়
  11. পুনঃ টুইট করেছেন
    ১১ জুন

    Transfer learning with language models is getting hot! 🔥New state-of-the-art results today by two different research groups: Trinh and Le (Google) on the Winograd challenge and Radford et al. (OpenAI) on a diverse range of tasks.

    পূর্বাবস্থায়
  12. পুনঃ টুইট করেছেন
    ৩০ মে
    পূর্বাবস্থায়
  13. পুনঃ টুইট করেছেন
    ৩০ মে

    New paper on unsupervised mapping of word vectors, using Procrustes in Wasserstein distance, available on arxiv: . With and Q. Berthet. More resources to come soon!

    পূর্বাবস্থায়
  14. পুনঃ টুইট করেছেন
    ২৪ মে

    "Pushing the bounds of dropout" (preprint): <>. See dropout in a new light (as a family of models), turned inside out (choose a model at evaluation) and upside down (deterministic dropout is the best modulo unexpected regularization).

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  15. পুনঃ টুইট করেছেন
    ১৫ মে

    Really excited that our paper on Universal Language Model Fine-tuning for Text Classification is now online: We also wrote a more high-level intro here:

    পূর্বাবস্থায়
  16. পুনঃ টুইট করেছেন
    ১৭ মে

    Check out our paper on "A robust self-learning method for fully unsupervised cross-lingual mappings of word embeddings" (w/ & ). New SOTA on unsupervised word translation, while more robust than previous adversarial approaches.

    পূর্বাবস্থায়
  17. পুনঃ টুইট করেছেন
    ৮ মে

    It's a fascinating phenomena in science where multiple groups come up simultaneously with the same basic idea. These 3 recent papers on artifacts in SNLI datasets are a good example:

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  18. পুনঃ টুইট করেছেন
    ১১ মে

    Our work w/ 'Differentiable Dynamic Programming for Structured Prediction and Attention' was accepted at ! Sparsity and backprop in CRF-like inference layers using max-smoothing, application in text + time series (NER, NMT, DTW)

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  19. পুনঃ টুইট করেছেন
    ৭ মে

    Our paper "What you can cram into a single vector: Probing sentence embeddings for linguistic properties" was accepted to ! We interrogate sentence embeddings about linguistic information. paper: tasks:

    পূর্বাবস্থায়
  20. পুনঃ টুইট করেছেন
    ১ মে

    NEWSROOM -- a corpus of 1.3M (1,321,995) article-summary pairs for automated summarization. It's big, it's diverse, and it's an open challenge. Oh, and we are pretty excited about it! Joint work with Max Grusky and

    পূর্বাবস্থায়

লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

    আপনিও পছন্দ করতে পারেন

    ·