Thang Luong

@lmthang

Research Scientist on the Google Brain team, interested in deep language learning. PhD grad from StanfordNLP, previously worked on neural machine translation.

United States
যোগদান করেছেন ডিসেম্বর ২০০৮

টুইট

আপনি @lmthang-কে ব্লক করেছেন

আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @lmthang অবরোধ মুক্ত হবে না।

  1. পিন করা টুইট
    ১৮ জুলাই

    Our QANet model continues to march strong with its #1 position on SQuAD! If you're interested in knowing more about QANet, check out the slides I prepared lately & chat with me and at .

    পূর্বাবস্থায়
  2. ৪ ঘন্টা আগে

    Schedule of our NMT workshop has been updated! Come tomorrow (room 211) to hear about: efficient NMT, discourse, sparsity, and controllable language generation

    পূর্বাবস্থায়
  3. পুনঃ টুইট করেছেন
    ১৬ জুলাই

    This new method powered by will let neuroscientists map out the neuronal structure of a songbird’s brain 10x faster, aiding their work to better understand how the brain works

    পূর্বাবস্থায়
  4. পুনঃ টুইট করেছেন
    ৯ জুলাই

    Excellent article by . A great and healthy step back from recent successes of DeepRL to ask "can we do even better?" by questioning whether methods unbiased by prior experience and instruction can scale.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  5. পুনঃ টুইট করেছেন
    ১৩ জুলাই

    Come see our poster at ICML now on learning longer term dependencies with auxiliary losses! With

    পূর্বাবস্থায়
  6. পুনঃ টুইট করেছেন
    ১৩ জুলাই

    's on QANet reiterating that data augmentation via using auto paraphrasing via e->f->e MT can push performance in virtually every NLP task, even with significant noise.

    পূর্বাবস্থায়
  7. পুনঃ টুইট করেছেন
    ১৩ জুলাই

    's Juliana asking how industry will effect the next generation industry w/ Linlin Li of , of , of , at .

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  8. পুনঃ টুইট করেছেন
    ১১ জুলাই

    TensorFlow v1.9 is live! Includes an improved getting started experience w/ a new tf.keras programmer's guide, beginner-friendly colabs, and additional examples for eager execution and estimators. Really happy about the way this is going:

    পূর্বাবস্থায়
  9. পুনঃ টুইট করেছেন
    ১ জুলাই

    most common neural net mistakes: 1) you didn't try to overfit a single batch first. 2) you forgot to toggle train/eval mode for the net. 3) you forgot to .zero_grad() (in pytorch) before .backward(). 4) you passed softmaxed outputs to a loss that expects raw logits. ; others? :)

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  10. পুনঃ টুইট করেছেন
    ২৫ জুন

    2nd article on Deep Learning Free Text embeddings that are easy, trivial and fast to implement, and compete quite well with way more complicated embeddings.

    পূর্বাবস্থায়
  11. পুনঃ টুইট করেছেন
    ২৬ জুন
    পূর্বাবস্থায়
  12. পুনঃ টুইট করেছেন
    ২৫ জুন
    -কে উত্তর দিচ্ছেন

    Amazing what a single-layer 1024-unit LSTM can be trained to do with a bit of engineering! OpenAI Five Model Architecture:

    পূর্বাবস্থায়
  13. পুনঃ টুইট করেছেন
    ২৫ জুন

    Announcing major progress towards the AI milestone of solving a complex competitive video game: . Pushes today’s algorithms much further than we thought was possible, at massive scale.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  14. পুনঃ টুইট করেছেন
    ১৯ জুন

    Google Cloud TPUs now offer preemptible pricing at ~70% off the reserved instance pricing. This means, for example, that you can train a ResNet-50 model for ~$7.50 instead of $25, or a Transformer neural translation model for ~$13 instead of $41. See:

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  15. পুনঃ টুইট করেছেন
    ১৯ জুন

    The stories and images of families being separated at the border are gut-wrenching. Urging our government to work together to find a better, more humane way that is reflective of our values as a nation.

    পূর্বাবস্থায়
  16. পুনঃ টুইট করেছেন
    ১৫ জুন

    Ever wanted to train a 10k layer vanilla conv net? Curious why gating helps RNNs train? Super excited about our pair of ICML papers!! . Really fun collaboration with , Minmin, , , & Jeffrey.

    পূর্বাবস্থায়
  17. পুনঃ টুইট করেছেন
    ১২ জুন

    Graph Neural Networks / Relational Networks are models worth studying. We wrote a pretty comprehensive review about them which I hope you will find helpful (code forthcoming!).

    পূর্বাবস্থায়
  18. পুনঃ টুইট করেছেন
    ১২ জুন

    Since 2016, SQuAD has been the key textual question answering benchmark, used by top AI groups & featured in AI Index——Today , Robin Jia & release SQuAD2.0 with 50K unanswerable Qs to test understanding:

    পূর্বাবস্থায়
  19. ১১ জুন

    Given that this approach can be easily adapted to many tasks, it would be nice to benchmark on tasks that CoVE and ELMO have tested on: SQuAD; also IMDB and SST-5 :)

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  20. ১১ জুন

    2018 seems like the year of successful stories of unsupervised pretraining + transfer learning for NLP :)

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়

লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

    আপনিও পছন্দ করতে পারেন

    ·