Preskoči na sadržaj
Korištenjem servisa na Twitteru pristajete na korištenje kolačića. Twitter i partneri rade globalno te koriste kolačiće za analize, personalizaciju i oglase.

Za najbolje sučelje na Twitteru koristite Microsoft Edge ili instalirajte aplikaciju Twitter iz trgovine Microsoft Store.

  • Naslovnica Naslovnica Naslovnica, trenutna stranica.
  • O Twitteru

Spremljena pretraživanja

  • obriši
  • U ovom razgovoru
    Ovjeren akauntZaštićeni tweetovi @
Predloženi korisnici
  • Ovjeren akauntZaštićeni tweetovi @
  • Ovjeren akauntZaštićeni tweetovi @
  • Jezik: Hrvatski
    • Bahasa Indonesia
    • Bahasa Melayu
    • Català
    • Čeština
    • Dansk
    • Deutsch
    • English
    • English UK
    • Español
    • Filipino
    • Français
    • Italiano
    • Magyar
    • Nederlands
    • Norsk
    • Polski
    • Português
    • Română
    • Slovenčina
    • Suomi
    • Svenska
    • Tiếng Việt
    • Türkçe
    • Български език
    • Русский
    • Српски
    • Українська мова
    • Ελληνικά
    • עִבְרִית
    • العربية
    • فارسی
    • मराठी
    • हिन्दी
    • বাংলা
    • ગુજરાતી
    • தமிழ்
    • ಕನ್ನಡ
    • ภาษาไทย
    • 한국어
    • 日本語
    • 简体中文
    • 繁體中文
  • Imate račun? Prijava
    Imate račun?
    · Zaboravili ste lozinku?

    Novi ste na Twitteru?
    Registrirajte se
Profil korisnika/ce colinraffel
Colin Raffel
Colin Raffel
Colin Raffel
@colinraffel

Tweets

Colin Raffel

@colinraffel

Research scientist (formerly resident) at Google Brain. Joining @unccs as an assistant professor in fall 2020. Here for the preprints. He/him/his

San Francisco, CA
colinraffel.com
Vrijeme pridruživanja: ožujak 2017.

Tweets

  • © 2020 Twitter
  • O Twitteru
  • Centar za pomoć
  • Uvjeti
  • Pravila o privatnosti
  • Imprint
  • Kolačići
  • Informacije o oglasima
Odbaci
Prethodni
Sljedeće

Idite na profil osobe

Spremljena pretraživanja

  • obriši
  • U ovom razgovoru
    Ovjeren akauntZaštićeni tweetovi @
Predloženi korisnici
  • Ovjeren akauntZaštićeni tweetovi @
  • Ovjeren akauntZaštićeni tweetovi @

Odjava

Blokiraj

  • Objavi Tweet s lokacijom

    U tweetove putem weba ili aplikacija drugih proizvođača možete dodati podatke o lokaciji, kao što su grad ili točna lokacija. Povijest lokacija tweetova uvijek možete izbrisati. Saznajte više

    Vaši popisi

    Izradi novi popis


    Manje od 100 znakova, neobavezno

    Privatnost

    Kopiraj vezu u tweet

    Ugradi ovaj Tweet

    Embed this Video

    Dodajte ovaj Tweet na svoje web-mjesto kopiranjem koda u nastavku. Saznajte više

    Dodajte ovaj videozapis na svoje web-mjesto kopiranjem koda u nastavku. Saznajte više

    Hm, došlo je do problema prilikom povezivanja s poslužiteljem.

    Integracijom Twitterova sadržaja u svoje web-mjesto ili aplikaciju prihvaćate Twitterov Ugovor za programere i Pravila za programere.

    Pregled

    Razlog prikaza oglasa

    Prijavi se na Twitter

    · Zaboravili ste lozinku?
    Nemate račun? Registrirajte se »

    Prijavite se na Twitter

    Niste na Twitteru? Registrirajte se, uključite se u stvari koje vas zanimaju, i dobivajte promjene čim se dogode.

    Registrirajte se
    Imate račun? Prijava »

    Dvosmjerni (slanje i primanje) kratki kodovi:

    Država Kod Samo za korisnike
    Sjedinjene Američke Države 40404 (bilo koje)
    Kanada 21212 (bilo koje)
    Ujedinjeno Kraljevstvo 86444 Vodafone, Orange, 3, O2
    Brazil 40404 Nextel, TIM
    Haiti 40404 Digicel, Voila
    Irska 51210 Vodafone, O2
    Indija 53000 Bharti Airtel, Videocon, Reliance
    Indonezija 89887 AXIS, 3, Telkomsel, Indosat, XL Axiata
    Italija 4880804 Wind
    3424486444 Vodafone
    » Pogledajte SMS kratke šifre za druge zemlje

    Potvrda

     

    Dobro došli kući!

    Vremenska crta mjesto je na kojem ćete provesti najviše vremena i bez odgode dobivati novosti o svemu što vam je važno.

    Tweetovi vam ne valjaju?

    Prijeđite pokazivačem preko slike profila pa kliknite gumb Pratim da biste prestali pratiti neki račun.

    Kažite mnogo uz malo riječi

    Kada vidite Tweet koji volite, dodirnite srce – to osobi koja ga je napisala daje do znanja da vam se sviđa.

    Proširite glas

    Najbolji je način da podijelite nečiji Tweet s osobama koje vas prate prosljeđivanje. Dodirnite ikonu da biste smjesta poslali.

    Pridruži se razgovoru

    Pomoću odgovora dodajte sve što mislite o nekom tweetu. Pronađite temu koja vam je važna i uključite se.

    Saznajte najnovije vijesti

    Bez odgode pogledajte o čemu ljudi razgovaraju.

    Pratite više onoga što vam se sviđa

    Pratite više računa da biste dobivali novosti o temama do kojih vam je stalo.

    Saznajte što se događa

    Bez odgode pogledajte najnovije razgovore o bilo kojoj temi.

    Ne propustite nijedan aktualni događaj

    Bez odgode pratite kako se razvijaju događaji koje pratite.

    Colin Raffel‏ @colinraffel 23. lis 2019.
    • Prijavi Tweet

    New paper! We perform a systematic study of transfer learning for NLP using a unified text-to-text model, then push the limits to achieve SoTA on GLUE, SuperGLUE, CNN/DM, and SQuAD. Paper: https://arxiv.org/abs/1910.10683  Code/models/data/etc: https://git.io/Je0cZ  Summary ⬇️ (1/14)pic.twitter.com/VP1nkkHefB

    17:18 - 23. lis 2019.
    • 398 proslijeđenih tweetova
    • 1.183 oznake „sviđa mi se”
    • Merlin Bittlinger _ Andrew The Space Muskateer ☠️⚔️ eax Asif Razzaq anushk 2020 神谷道知 Gabriele Sarti
    9 replies 398 proslijeđenih tweetova 1.183 korisnika označavaju da im se sviđa
      1. Novi razgovor
      2. Colin Raffel‏ @colinraffel 23. lis 2019.
        • Prijavi Tweet

        Our approach casts *every* language problem as a text-to-text task. For example, English-to-German translation -- input: "translate English to German: That is good." target: "Das ist gut." or sentiment ID -- input: "sentiment: This movie is terrible!", target: "negative" (2/14)

        1 reply 5 proslijeđenih tweetova 32 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      3. Colin Raffel‏ @colinraffel 23. lis 2019.
        • Prijavi Tweet

        The text-to-text approach allows us to use the same model, loss function, decoding process, training procedure, etc. across every task we study. It also provides a standard testbed for the many ideas we evaluate in our empirical survey. (3/14)

        1 reply 3 proslijeđena tweeta 28 korisnika označava da im se sviđa
        Prikaži ovu nit
      4. Colin Raffel‏ @colinraffel 23. lis 2019.
        • Prijavi Tweet

        Transfer learning for NLP usually uses unlabeled data for pre-training, so we assembled the "Colossal Clean Crawled Corpus" (C4), ~750GB of cleaned text from Common Crawl. The code for generating C4 is already available in TensorFlow datasets: https://www.tensorflow.org/datasets/catalog/c4 … (4/14)

        1 reply 9 proslijeđenih tweetova 56 korisnika označava da im se sviđa
        Prikaži ovu nit
      5. Colin Raffel‏ @colinraffel 23. lis 2019.
        • Prijavi Tweet

        For most of the experiments in the paper, we use a basic encoder-decoder Transformer architecture. We found this worked well both on generative and classification tasks in the text-to-text framework. We call our model the "Text-to-Text Transfer Transformer" (T5). (5/14)

        2 proslijeđena tweeta 24 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      6. Colin Raffel‏ @colinraffel 23. lis 2019.
        • Prijavi Tweet

        For our empirical survey, we first compared different architectural variants including encoder-decoder models and language models in various configurations and with various objectives. The encoder-decoder architecture performed best in our text-to-text setting. (6/14)pic.twitter.com/RNNLGGT1zH

        2 proslijeđena tweeta 21 korisnik označava da mu se sviđa
        Prikaži ovu nit
      7. Colin Raffel‏ @colinraffel 23. lis 2019.
        • Prijavi Tweet

        Then, we explored the space of different pre-training objectives. We found that BERT-style denoising objectives generally outperformed other approaches and that a SpanBERT-style (Joshi et al. 2019) objective had the best combination of performance and training speed. (7/14)pic.twitter.com/sznm2tKKBe

        3 proslijeđena tweeta 24 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      8. Colin Raffel‏ @colinraffel 23. lis 2019.
        • Prijavi Tweet

        Next, we compared various unlabeled datasets and found that in some cases in-domain pre-training data boosted performance on downstream tasks. Our diverse C4 dataset, however, is large enough that you can avoid repeating any examples, which we showed can be detrimental. (8/14)pic.twitter.com/8Lop6BtHMh

        1 reply 2 proslijeđena tweeta 19 korisnika označava da im se sviđa
        Prikaži ovu nit
      9. Colin Raffel‏ @colinraffel 23. lis 2019.
        • Prijavi Tweet

        Unsupervised pre-training is standard practice, but an alternative is to pre-train on a mixture of supervised and unsupervised data as in the MT-DNN (Liu et al. 2019). We found both approaches can achieve similar performance once you get the mixing proportions right. (9/14)

        1 reply 2 proslijeđena tweeta 19 korisnika označava da im se sviđa
        Prikaži ovu nit
      10. Colin Raffel‏ @colinraffel 23. lis 2019.
        • Prijavi Tweet

        Scaling up is a powerful way to improve performance, but how should you scale? We compared training on more data, training a longer model, and ensembling given a specific computational budget. tl;dr: A bigger model is a necessity, but everything helps. (10/14)

        1 reply 2 proslijeđena tweeta 20 korisnika označava da im se sviđa
        Prikaži ovu nit
      11. Colin Raffel‏ @colinraffel 23. lis 2019.
        • Prijavi Tweet

        Finally, we combine the insights from our study to train five models of varying sizes (up to 11 billion parameters) on 1 trillion tokens of data. We obtained state-of-the-art on GLUE, SuperGLUE, SQuAD, and CNN/Daily Mail, but not WMT translation. (11/14)

        1 reply 2 proslijeđena tweeta 17 korisnika označava da im se sviđa
        Prikaži ovu nit
      12. Colin Raffel‏ @colinraffel 23. lis 2019.
        • Prijavi Tweet

        I'm particularly happy that we beat the SoTA on SuperGLUE by 4.3% and are within spitting distance of human performance (88.9 vs 89.8). SuperGLUE was designed to only include tasks that were easy for humans but hard for machines. (12/14)

        5 proslijeđenih tweetova 36 korisnika označava da im se sviđa
        Prikaži ovu nit
      13. Colin Raffel‏ @colinraffel 23. lis 2019.
        • Prijavi Tweet

        This work was a collaboration between an incredible team including Noam Shazeer, @ada_rob, @katherine1ee, @sharan0909, Michael Matena, @zhouyanqi30, @kongkonglli, and @peterjliu. (13/14)

        1 reply 2 proslijeđena tweeta 27 korisnika označava da im se sviđa
        Prikaži ovu nit
      14. Colin Raffel‏ @colinraffel 23. lis 2019.
        • Prijavi Tweet

        All of our code, pre-trained models, and datasets are already online, see https://github.com/google-research/text-to-text-transfer-transformer … for more details. Please reach out if you have any questions or suggestions! (14/14)

        15 proslijeđenih tweetova 102 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      15. Kraj razgovora

    Čini se da učitavanje traje već neko vrijeme.

    Twitter je možda preopterećen ili ima kratkotrajnih poteškoća u radu. Pokušajte ponovno ili potražite dodatne informacije u odjeljku Status Twittera.

      Sponzorirani tweet

      false

      • © 2020 Twitter
      • O Twitteru
      • Centar za pomoć
      • Uvjeti
      • Pravila o privatnosti
      • Imprint
      • Kolačići
      • Informacije o oglasima