Preskoči na sadržaj
Korištenjem servisa na Twitteru pristajete na korištenje kolačića. Twitter i partneri rade globalno te koriste kolačiće za analize, personalizaciju i oglase.

Za najbolje sučelje na Twitteru koristite Microsoft Edge ili instalirajte aplikaciju Twitter iz trgovine Microsoft Store.

  • Naslovnica Naslovnica Naslovnica, trenutna stranica.
  • O Twitteru

Spremljena pretraživanja

  • obriši
  • U ovom razgovoru
    Ovjeren akauntZaštićeni tweetovi @
Predloženi korisnici
  • Ovjeren akauntZaštićeni tweetovi @
  • Ovjeren akauntZaštićeni tweetovi @
  • Jezik: Hrvatski
    • Bahasa Indonesia
    • Bahasa Melayu
    • Català
    • Čeština
    • Dansk
    • Deutsch
    • English
    • English UK
    • Español
    • Filipino
    • Français
    • Italiano
    • Magyar
    • Nederlands
    • Norsk
    • Polski
    • Português
    • Română
    • Slovenčina
    • Suomi
    • Svenska
    • Tiếng Việt
    • Türkçe
    • Български език
    • Русский
    • Српски
    • Українська мова
    • Ελληνικά
    • עִבְרִית
    • العربية
    • فارسی
    • मराठी
    • हिन्दी
    • বাংলা
    • ગુજરાતી
    • தமிழ்
    • ಕನ್ನಡ
    • ภาษาไทย
    • 한국어
    • 日本語
    • 简体中文
    • 繁體中文
  • Imate račun? Prijava
    Imate račun?
    · Zaboravili ste lozinku?

    Novi ste na Twitteru?
    Registrirajte se
Profil korisnika/ce OriolVinyalsML
Oriol Vinyals
Oriol Vinyals
Oriol Vinyals
Ovjeren akaunt
@OriolVinyalsML

Tweets

Oriol VinyalsOvjeren akaunt

@OriolVinyalsML

Research Scientist, Machine Learning/Deep Learning/AI, Google DeepMind. Creator of AlphaStar. Previous: Google Brain.

London, England
scholar.google.com/citations?user…
Vrijeme pridruživanja: listopad 2015.

Tweets

  • © 2020 Twitter
  • O Twitteru
  • Centar za pomoć
  • Uvjeti
  • Pravila o privatnosti
  • Imprint
  • Kolačići
  • Informacije o oglasima
Odbaci
Prethodni
Sljedeće

Idite na profil osobe

Spremljena pretraživanja

  • obriši
  • U ovom razgovoru
    Ovjeren akauntZaštićeni tweetovi @
Predloženi korisnici
  • Ovjeren akauntZaštićeni tweetovi @
  • Ovjeren akauntZaštićeni tweetovi @

Odjava

Blokiraj

  • Objavi Tweet s lokacijom

    U tweetove putem weba ili aplikacija drugih proizvođača možete dodati podatke o lokaciji, kao što su grad ili točna lokacija. Povijest lokacija tweetova uvijek možete izbrisati. Saznajte više

    Vaši popisi

    Izradi novi popis


    Manje od 100 znakova, neobavezno

    Privatnost

    Kopiraj vezu u tweet

    Ugradi ovaj Tweet

    Embed this Video

    Dodajte ovaj Tweet na svoje web-mjesto kopiranjem koda u nastavku. Saznajte više

    Dodajte ovaj videozapis na svoje web-mjesto kopiranjem koda u nastavku. Saznajte više

    Hm, došlo je do problema prilikom povezivanja s poslužiteljem.

    Integracijom Twitterova sadržaja u svoje web-mjesto ili aplikaciju prihvaćate Twitterov Ugovor za programere i Pravila za programere.

    Pregled

    Razlog prikaza oglasa

    Prijavi se na Twitter

    · Zaboravili ste lozinku?
    Nemate račun? Registrirajte se »

    Prijavite se na Twitter

    Niste na Twitteru? Registrirajte se, uključite se u stvari koje vas zanimaju, i dobivajte promjene čim se dogode.

    Registrirajte se
    Imate račun? Prijava »

    Dvosmjerni (slanje i primanje) kratki kodovi:

    Država Kod Samo za korisnike
    Sjedinjene Američke Države 40404 (bilo koje)
    Kanada 21212 (bilo koje)
    Ujedinjeno Kraljevstvo 86444 Vodafone, Orange, 3, O2
    Brazil 40404 Nextel, TIM
    Haiti 40404 Digicel, Voila
    Irska 51210 Vodafone, O2
    Indija 53000 Bharti Airtel, Videocon, Reliance
    Indonezija 89887 AXIS, 3, Telkomsel, Indosat, XL Axiata
    Italija 4880804 Wind
    3424486444 Vodafone
    » Pogledajte SMS kratke šifre za druge zemlje

    Potvrda

     

    Dobro došli kući!

    Vremenska crta mjesto je na kojem ćete provesti najviše vremena i bez odgode dobivati novosti o svemu što vam je važno.

    Tweetovi vam ne valjaju?

    Prijeđite pokazivačem preko slike profila pa kliknite gumb Pratim da biste prestali pratiti neki račun.

    Kažite mnogo uz malo riječi

    Kada vidite Tweet koji volite, dodirnite srce – to osobi koja ga je napisala daje do znanja da vam se sviđa.

    Proširite glas

    Najbolji je način da podijelite nečiji Tweet s osobama koje vas prate prosljeđivanje. Dodirnite ikonu da biste smjesta poslali.

    Pridruži se razgovoru

    Pomoću odgovora dodajte sve što mislite o nekom tweetu. Pronađite temu koja vam je važna i uključite se.

    Saznajte najnovije vijesti

    Bez odgode pogledajte o čemu ljudi razgovaraju.

    Pratite više onoga što vam se sviđa

    Pratite više računa da biste dobivali novosti o temama do kojih vam je stalo.

    Saznajte što se događa

    Bez odgode pogledajte najnovije razgovore o bilo kojoj temi.

    Ne propustite nijedan aktualni događaj

    Bez odgode pratite kako se razvijaju događaji koje pratite.

    Oriol Vinyals‏Ovjeren akaunt @OriolVinyalsML 23. ruj 2019.
    • Prijavi Tweet

    Rapid Learning or Feature Reuse? Meta-learning algorithms on standard benchmarks have much more feature reuse than rapid learning! This also gives us a way to simplify MAML -- (Almost) No Inner Loop (A)NIL. https://arxiv.org/abs/1909.09157  With Aniruddh Raghu @maithra_raghu Samy Bengio.pic.twitter.com/7T6SzMYfiY

    10:00 - 23. ruj 2019.
    • 170 proslijeđenih tweetova
    • 622 oznake „sviđa mi se”
    • Joshua Peterson Fu-Ming Guo Jeffrey Li Vitalii Bilokon Nils Rethmeier Het Sagar Thanh T. Nguyen Daniel
    9 replies 170 proslijeđenih tweetova 622 korisnika označavaju da im se sviđa
      1. Novi razgovor
      2. Chelsea Finn‏ @chelseabfinn 23. ruj 2019.
        • Prijavi Tweet
        Odgovor korisnicima @OriolVinyalsML @stanfordnlp @maithra_raghu

        I've also observed this to be the case with few-shot image classification! I think this might be telling us more about the benchmarks than the algorithms. I look forward to seeing how these methods perform as we start to evaluate them on much harder problems.

        4 proslijeđena tweeta 39 korisnika označava da im se sviđa
      3. Maithra Raghu‏ @maithra_raghu 23. ruj 2019.
        • Prijavi Tweet
        Odgovor korisnicima @chelseabfinn @OriolVinyalsML @stanfordnlp

        Definitely think that there are lots more open questions on how things work as we vary datasets and tasks. Probably lots of interesting connections to be made with domain adaptation and transfer learning also!

        0 replies 1 proslijeđeni tweet 5 korisnika označava da im se sviđa
      4. Kraj razgovora
      1. Novi razgovor
      2. YujiaBao‏ @yujia_bao 23. ruj 2019.
        • Prijavi Tweet
        Odgovor korisnicima @OriolVinyalsML @maithra_raghu

        Nice work! We also had similar observations in our recent work "Few-shot Text Classification with Distributional Signatures". Directly applying MAML to text may perform worse than NN, as it only activates on patterns that are important during training. http://arxiv.org/abs/1908.06039 

        1 reply 1 proslijeđeni tweet 4 korisnika označavaju da im se sviđa
      3. YujiaBao‏ @yujia_bao 23. ruj 2019.
        • Prijavi Tweet
        Odgovor korisnicima @yujia_bao @OriolVinyalsML @maithra_raghu

        In CV, low-level patterns (e.g. edges) and their representations are sharable across tasks. The situation is different for NLP, where most tasks operate at the lexical level. Words that are informative for one task may not be relevant for others. MAML may fail in this case.

        0 replies 1 proslijeđeni tweet 10 korisnika označava da im se sviđa
      4. Kraj razgovora
      1. Alessandro Sordoni‏ @murefil 23. ruj 2019.
        • Prijavi Tweet
        Odgovor korisnicima @OriolVinyalsML @maithra_raghu

        I think the following work may be relevant ? https://arxiv.org/pdf/1810.03642.pdf …. They similarly show that very few parameters need to be adapted in the inner loop and suggest that that may be due to the fact that in current "the the amount of adaptation needed in some cases is small."

        0 replies 0 proslijeđenih tweetova 8 korisnika označava da im se sviđa
        Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. Poništi
        Poništi
      1. Antreas Antoniou‏ @_AntreasAntonio 24. ruj 2019.
        • Prijavi Tweet
        Odgovor korisnicima @OriolVinyalsML @maithra_raghu

        In MAML++ the learned per-layer, per-step learning rates tend to be massive in the last couple of layers, so perhaps how much learning is being done depends on which components of the network are learnable on the outer loop? https://www.bayeswatch.com/2018/11/30/HTYM/ …

        0 replies 0 proslijeđenih tweetova 1 korisnik označava da mu se sviđa
        Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. Poništi
        Poništi
      1. Khurram Javed‏ @KhurramJaved_96 26. ruj 2019.
        • Prijavi Tweet
        Odgovor korisnicima @OriolVinyalsML @maithra_raghu

        [1/3] Really nice paper! In my recent work [1] with Martha White (To appear at NeurIPS19), we observed something similar -- learning features by updating only the last layers in the inner loop is effective for meta-learning. [1]https://arxiv.org/pdf/1905.12588.pdf …pic.twitter.com/jWZxShzVMm

        0 replies 0 proslijeđenih tweetova 1 korisnik označava da mu se sviđa
        Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. Poništi
        Poništi
      1. Khurram Javed‏ @KhurramJaved_96 26. ruj 2019.
        • Prijavi Tweet
        Odgovor korisnicima @OriolVinyalsML @maithra_raghu

        [3/3] However, even though I knew MAML and ANIL were comparable when meta-testing involved few gradient updates, I did not know the reason. I also did not expect that MAML was mostly just reusing features. This work clarifies that in a very convincing way.

        0 replies 0 proslijeđenih tweetova 1 korisnik označava da mu se sviđa
        Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. Poništi
        Poništi
      1. Novi razgovor
      2. Alex Amadori‏ @tacchinotacchi 24. ruj 2019.
        • Prijavi Tweet
        Odgovor korisnicima @OriolVinyalsML @maithra_raghu

        It seems to me this is just indicating we've been using benchmarks for which transfer learning alone already works well. Perhaps the challenge resides in finding a truly diverse set of tasks for which a last layer swap is not enough to adapt.

        1 reply 0 proslijeđenih tweetova 1 korisnik označava da mu se sviđa
      3. Još 2 druga odgovora

    Čini se da učitavanje traje već neko vrijeme.

    Twitter je možda preopterećen ili ima kratkotrajnih poteškoća u radu. Pokušajte ponovno ili potražite dodatne informacije u odjeljku Status Twittera.

      Sponzorirani tweet

      false

      • © 2020 Twitter
      • O Twitteru
      • Centar za pomoć
      • Uvjeti
      • Pravila o privatnosti
      • Imprint
      • Kolačići
      • Informacije o oglasima