Stanford NLP Group

@stanfordnlp

Computational Linguistics—Natural Language—Machine Learning—Deep Learning. And misc technology from Silicon Valley. (, & )

Stanford, CA, USA
যোগদান করেছেন ফেব্রুয়ারী ২০১০

টুইট

আপনি @stanfordnlp-কে ব্লক করেছেন

আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @stanfordnlp অবরোধ মুক্ত হবে না।

  1. পুনঃ টুইট করেছেন
    ১৮ জুলাই

    Algorithms like LSTM and RNN may work in practice. But do they work in theory?, asks M. Steedman

    পূর্বাবস্থায়
  2. ৯ ঘন্টা আগে

    Riedel: For QAngaroo multi-hop QA dataset, you cannot just do context matching; we spent a lot of effort removing biases; we had extra info at annotation time that we didn’t release. Bad: Still multiple choice, test set still comes from the same process as training (kind of).

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  3. ৯ ঘন্টা আগে

    .: SQuAD-pretrained models have actually been really useful for building applications like for questions over compliance documents at .

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  4. ৯ ঘন্টা আগে

    Uh-oh, looks like we might need to keep an eye out for Russian agents at on the tail of …. 🕵️‍♂️

    পূর্বাবস্থায়
  5. ৯ ঘন্টা আগে

    Blunsom: The right way to pursue and evaluate NLU/QA is success in transfer learning. Transfer learning, not multi-task learning which isn’t a true test of this.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  6. ৯ ঘন্টা আগে

    Blunsom: NarrativeQA is interesting and challenging! Current systems cannot do well at answering questions from the ful narratives. But that’s also the bad part: Too difficult.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  7. ৯ ঘন্টা আগে

    Blunsom: MS MARCO is first good QA dataset. Real queries. Answer need not be a subspan (i.e., not still multiple choice). Bad: People rarely ask interesting questions; use of IR limit usefulness in exploring deeper language understanding; good evaluation is an unsolved problem.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  8. ৯ ঘন্টা আগে

    Blunsom: If we want to progress in language understanding, you cannot use the ML-friendly technique of collecting a big dataset and building a conditional model. You model too many artifacts that aren’t true language understanding.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  9. ৯ ঘন্টা আগে

    Blunsom: “You can’t get a good dataset by having annotators generating questions looking at the text. You’ll get very shallow questions.” 💯 We agree.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  10. ৯ ঘন্টা আগে

    Oops, typo above: Eunsol Choi!

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  11. ১০ ঘন্টা আগে

    Phil Blunsom: If you want to study language understanding, the task can’t be multiple choice. The task then always just becomes building a classifier.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  12. ১০ ঘন্টা আগে

    Looks like is doubling down on QA!

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  13. ১০ ঘন্টা আগে

    Eunsoo Choi kicks of the Machine Reading for Question Answering workshop at

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  14. ১১ ঘন্টা আগে

    Automatic evaluation measures seem like a great idea for but are they? shows how automatic measures are biased and debiasing them is barely cheaper than doing a full human evaluation

    পূর্বাবস্থায়
  15. পুনঃ টুইট করেছেন
    ১৯ ঘন্টা আগে

    Questions for our esteemed panel members Sebastian Riedel , Richard Socher , Anette Frank, Chris Manning , Jianfeng Gao and Sameer Singh in the Machine Reading for QA workshop? reply here! tmrw 4pm

    পূর্বাবস্থায়
  16. পুনঃ টুইট করেছেন
    ১১ ঘন্টা আগে

    Why are "raters" with no contextused to train AI systems? This makes zero sense. Learning is contextual! 's SHRDLURN got it right, train w/ chatbot interface + social reinforcement.

    পূর্বাবস্থায়
  17. পুনঃ টুইট করেছেন
    ১৫ ঘন্টা আগে

    Shayan Doroudi presented our best paper at UAI 2017 (Importance Sampling for Fair Policy Selection) at the sister conferences best paper track at today, reach out to him or us to learn more!

    পূর্বাবস্থায়
  18. ১৮ জুলাই

    New Asia-Pacific chapter of ACL announced: ACL成立亚太区分会 百度王海峰任创始主席

    পূর্বাবস্থায়
  19. পুনঃ টুইট করেছেন
    ১৮ জুলাই

    We are going to present our latest SOTA result on SQuAD in MRQA workshop at on Thursday afternoon!

    পূর্বাবস্থায়
  20. ১৮ জুলাই

    . presents his, & ’s work on SQuAD2.0 – the advantages of a QA dataset with unanswerable questions.

    পূর্বাবস্থায়

লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

    আপনিও পছন্দ করতে পারেন

    ·