Preskoči na sadržaj
Korištenjem servisa na Twitteru pristajete na korištenje kolačića. Twitter i partneri rade globalno te koriste kolačiće za analize, personalizaciju i oglase.

Za najbolje sučelje na Twitteru koristite Microsoft Edge ili instalirajte aplikaciju Twitter iz trgovine Microsoft Store.

  • Naslovnica Naslovnica Naslovnica, trenutna stranica.
  • O Twitteru

Spremljena pretraživanja

  • obriši
  • U ovom razgovoru
    Ovjeren akauntZaštićeni tweetovi @
Predloženi korisnici
  • Ovjeren akauntZaštićeni tweetovi @
  • Ovjeren akauntZaštićeni tweetovi @
  • Jezik: Hrvatski
    • Bahasa Indonesia
    • Bahasa Melayu
    • Català
    • Čeština
    • Dansk
    • Deutsch
    • English
    • English UK
    • Español
    • Filipino
    • Français
    • Italiano
    • Magyar
    • Nederlands
    • Norsk
    • Polski
    • Português
    • Română
    • Slovenčina
    • Suomi
    • Svenska
    • Tiếng Việt
    • Türkçe
    • Български език
    • Русский
    • Српски
    • Українська мова
    • Ελληνικά
    • עִבְרִית
    • العربية
    • فارسی
    • मराठी
    • हिन्दी
    • বাংলা
    • ગુજરાતી
    • தமிழ்
    • ಕನ್ನಡ
    • ภาษาไทย
    • 한국어
    • 日本語
    • 简体中文
    • 繁體中文
  • Imate račun? Prijava
    Imate račun?
    · Zaboravili ste lozinku?

    Novi ste na Twitteru?
    Registrirajte se
Profil korisnika/ce TheGregYang
Greg Yang
Greg Yang
Greg Yang
@TheGregYang

Tweets

Greg Yang

@TheGregYang

Researcher at @MSFTResearch AI. Morgan Prize Honorable Mention 2018.

Bellevue, WA
decentdescent.org
Vrijeme pridruživanja: veljača 2019.

Tweets

  • © 2020 Twitter
  • O Twitteru
  • Centar za pomoć
  • Uvjeti
  • Pravila o privatnosti
  • Imprint
  • Kolačići
  • Informacije o oglasima
Odbaci
Prethodni
Sljedeće

Idite na profil osobe

Spremljena pretraživanja

  • obriši
  • U ovom razgovoru
    Ovjeren akauntZaštićeni tweetovi @
Predloženi korisnici
  • Ovjeren akauntZaštićeni tweetovi @
  • Ovjeren akauntZaštićeni tweetovi @

Odjava

Blokiraj

  • Objavi Tweet s lokacijom

    U tweetove putem weba ili aplikacija drugih proizvođača možete dodati podatke o lokaciji, kao što su grad ili točna lokacija. Povijest lokacija tweetova uvijek možete izbrisati. Saznajte više

    Vaši popisi

    Izradi novi popis


    Manje od 100 znakova, neobavezno

    Privatnost

    Kopiraj vezu u tweet

    Ugradi ovaj Tweet

    Embed this Video

    Dodajte ovaj Tweet na svoje web-mjesto kopiranjem koda u nastavku. Saznajte više

    Dodajte ovaj videozapis na svoje web-mjesto kopiranjem koda u nastavku. Saznajte više

    Hm, došlo je do problema prilikom povezivanja s poslužiteljem.

    Integracijom Twitterova sadržaja u svoje web-mjesto ili aplikaciju prihvaćate Twitterov Ugovor za programere i Pravila za programere.

    Pregled

    Razlog prikaza oglasa

    Prijavi se na Twitter

    · Zaboravili ste lozinku?
    Nemate račun? Registrirajte se »

    Prijavite se na Twitter

    Niste na Twitteru? Registrirajte se, uključite se u stvari koje vas zanimaju, i dobivajte promjene čim se dogode.

    Registrirajte se
    Imate račun? Prijava »

    Dvosmjerni (slanje i primanje) kratki kodovi:

    Država Kod Samo za korisnike
    Sjedinjene Američke Države 40404 (bilo koje)
    Kanada 21212 (bilo koje)
    Ujedinjeno Kraljevstvo 86444 Vodafone, Orange, 3, O2
    Brazil 40404 Nextel, TIM
    Haiti 40404 Digicel, Voila
    Irska 51210 Vodafone, O2
    Indija 53000 Bharti Airtel, Videocon, Reliance
    Indonezija 89887 AXIS, 3, Telkomsel, Indosat, XL Axiata
    Italija 4880804 Wind
    3424486444 Vodafone
    » Pogledajte SMS kratke šifre za druge zemlje

    Potvrda

     

    Dobro došli kući!

    Vremenska crta mjesto je na kojem ćete provesti najviše vremena i bez odgode dobivati novosti o svemu što vam je važno.

    Tweetovi vam ne valjaju?

    Prijeđite pokazivačem preko slike profila pa kliknite gumb Pratim da biste prestali pratiti neki račun.

    Kažite mnogo uz malo riječi

    Kada vidite Tweet koji volite, dodirnite srce – to osobi koja ga je napisala daje do znanja da vam se sviđa.

    Proširite glas

    Najbolji je način da podijelite nečiji Tweet s osobama koje vas prate prosljeđivanje. Dodirnite ikonu da biste smjesta poslali.

    Pridruži se razgovoru

    Pomoću odgovora dodajte sve što mislite o nekom tweetu. Pronađite temu koja vam je važna i uključite se.

    Saznajte najnovije vijesti

    Bez odgode pogledajte o čemu ljudi razgovaraju.

    Pratite više onoga što vam se sviđa

    Pratite više računa da biste dobivali novosti o temama do kojih vam je stalo.

    Saznajte što se događa

    Bez odgode pogledajte najnovije razgovore o bilo kojoj temi.

    Ne propustite nijedan aktualni događaj

    Bez odgode pratite kako se razvijaju događaji koje pratite.

    Greg Yang‏ @TheGregYang 19. pro 2019.
    • Prijavi Tweet

    1/ Neural networks are Gaussian Processes --- the Poster Edition from #NeurIPS2019 last week. In case you missed it, here’s a twitter version of the poster presentation, following the format of @colinraffel; and here’s the previous tweet thread https://twitter.com/TheGregYang/status/1202608248534077440?s=20 …pic.twitter.com/lHJgH43gqa

    06:21 - 19. pro 2019.
    • 62 proslijeđena tweeta
    • 208 oznaka „sviđa mi se”
    • 世界のTANEO しゅんたん Giovanni d'Ario てけぴか Hayato Kobayashi Breathe たみ~たみゅたみゅ わさを Kota Matsui
    1 reply 62 proslijeđena tweeta 208 korisnika označava da im se sviđa
      1. Novi razgovor
      2. Greg Yang‏ @TheGregYang 19. pro 2019.
        • Prijavi Tweet

        Greg Yang je proslijedio/a tweet korisnika/ceGreg Yang

        2/ The claim is that “infinitely wide, randomly initialized NNs of any architectures are GPs.” The goal of the poster session is to convey this claim more precisely, while proof of the statement is mostly left to the paper itself (see also https://twitter.com/TheGregYang/status/1202608248534077440?s=20 …)

        Greg Yang je dodan/na,

        Greg Yang @TheGregYang
        1/ Why do wide, random neural networks form Gaussian processes, *regardless of architecture*? Let me give an overview in case you are too lazy to check out the paper https://arxiv.org/abs/1910.12478  or the code https://github.com/thegregyang/GP4A …. The proof has two parts… pic.twitter.com/cKtfpRGMQd
        Prikaži ovu nit
        1 reply 0 proslijeđenih tweetova 5 korisnika označava da im se sviđa
        Prikaži ovu nit
      3. Greg Yang‏ @TheGregYang 19. pro 2019.
        • Prijavi Tweet

        3/ There are two main points I want to clarify here: A) what is a “GP”, especially in the case of RNNs, and B) what is meant by “any architecture.”

        1 reply 0 proslijeđenih tweetova 2 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      4. Greg Yang‏ @TheGregYang 19. pro 2019.
        • Prijavi Tweet

        4A/ Most commonly, a GP is described as a “Gaussian distribution over a function space.” If the function space has output space R, then a random function f is a GP if {f(x1), …, f(xk)} is jointly Gaussian for any set of inputs {x1, …, xk}.pic.twitter.com/2dZixGQthF

        1 reply 1 proslijeđeni tweet 2 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      5. Greg Yang‏ @TheGregYang 19. pro 2019.
        • Prijavi Tweet

        5A/ In this context, “wide, random NN is GP” means that, e.g. if we feed in two different photos into the same random MLP, then we expect the output to be distributed as a Gaussian (with randomness from re-initialization of MLP parameters).pic.twitter.com/wADNydhuCA

        1 reply 1 proslijeđeni tweet 3 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      6. Greg Yang‏ @TheGregYang 19. pro 2019.
        • Prijavi Tweet

        6A/ On the other hand, what does it mean to say an RNN is a GP? More generally, we can extend the definition of a GP to function with *variable-dimensional outputs*: such a function outputs f(x) in R^(l(x)), given some length function l.pic.twitter.com/l9Cgbmuit7

        1 reply 2 proslijeđena tweeta 5 korisnika označava da im se sviđa
        Prikaži ovu nit
      7. Greg Yang‏ @TheGregYang 19. pro 2019.
        • Prijavi Tweet

        7A/ A (word-level) RNN is a function with variable-dimensional output, where an input is a sentence, and an output is a sequence of real numbers, one per input word. The figure here gives an example.pic.twitter.com/dTTuRpy064

        1 reply 1 proslijeđeni tweet 2 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      8. Greg Yang‏ @TheGregYang 19. pro 2019.
        • Prijavi Tweet

        8A/ To say that this RNN is a GP is would imply that all outputs of the RNN, over any finite collection of input sentences, are jointly Gaussian, as indicated above. We empirically verify this claim for the last outputs of the RNN after running over each sentence.pic.twitter.com/Wyt0dD8Rdq

        1 reply 1 proslijeđeni tweet 2 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      9. Greg Yang‏ @TheGregYang 19. pro 2019.
        • Prijavi Tweet

        9A/ Here’s the kernel describing the joint Gaussian distribution of all the RNN outputs. Note how the same words (e.g. “fox”) in the two sentences induce different output from the network depending on context.pic.twitter.com/Mq2T49owBj

        1 reply 1 proslijeđeni tweet 3 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      10. Greg Yang‏ @TheGregYang 19. pro 2019.
        • Prijavi Tweet

        10B/ Now let’s talk about the claim “any architecture.” Our GP limit works for any architecture expressible by a series of matrix multiplications and coordinatewise nonlinearities, with possible reuse of computation results. Such a series is called a “tensor program.”pic.twitter.com/MwDKHT6pbW

        1 reply 1 proslijeđeni tweet 3 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      11. Greg Yang‏ @TheGregYang 19. pro 2019.
        • Prijavi Tweet

        11B/ While at face value, this may seem limited, one can in fact express almost all modern architectures in this framework: resnet, transformer, LSTM, etc. Here are some simple examples of tensor programs expressing NN computation.pic.twitter.com/ObYofpPgIw

        1 reply 1 proslijeđeni tweet 3 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      12. Greg Yang‏ @TheGregYang 19. pro 2019.
        • Prijavi Tweet

        Greg Yang je proslijedio/a tweet korisnika/ceGreg Yang

        12/ Again, see https://twitter.com/TheGregYang/status/1202608248534077440?s=20 … for an outline of the proof.

        Greg Yang je dodan/na,

        Greg Yang @TheGregYang
        1/ Why do wide, random neural networks form Gaussian processes, *regardless of architecture*? Let me give an overview in case you are too lazy to check out the paper https://arxiv.org/abs/1910.12478  or the code https://github.com/thegregyang/GP4A …. The proof has two parts… pic.twitter.com/cKtfpRGMQd
        Prikaži ovu nit
        1 reply 0 proslijeđenih tweetova 2 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      13. Greg Yang‏ @TheGregYang 19. pro 2019.
        • Prijavi Tweet

        13/ These are examples of kernels corresponding to the infinite-width limit of other architectures: GRU, transformer, batchnorm.pic.twitter.com/QAQCfWzUOz

        1 reply 0 proslijeđenih tweetova 3 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      14. Greg Yang‏ @TheGregYang 19. pro 2019.
        • Prijavi Tweet

        14/ Finally, we verify our theory is more and more accurate as the width of the network increases. Here we measure the relative frobenius norm of the empirical kernel to the infinite-width theoretical kernel, and we see that the deviation tends to 0 like 1/sqrt(width)pic.twitter.com/NbOIlejwCq

        0 proslijeđenih tweetova 4 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      15. Greg Yang‏ @TheGregYang 19. pro 2019.
        • Prijavi Tweet

        15/ The tensor program framework is very powerful and has many other consequences, such as the universality of Neural Tangent Kernels. If you would like to know more, check out https://arxiv.org/abs/1902.04760 pic.twitter.com/gNCL5vZEpx

        0 replies 0 proslijeđenih tweetova 10 korisnika označava da im se sviđa
        Prikaži ovu nit
      16. Kraj razgovora

    Čini se da učitavanje traje već neko vrijeme.

    Twitter je možda preopterećen ili ima kratkotrajnih poteškoća u radu. Pokušajte ponovno ili potražite dodatne informacije u odjeljku Status Twittera.

      Sponzorirani tweet

      false

      • © 2020 Twitter
      • O Twitteru
      • Centar za pomoć
      • Uvjeti
      • Pravila o privatnosti
      • Imprint
      • Kolačići
      • Informacije o oglasima