Preskoči na sadržaj
Korištenjem servisa na Twitteru pristajete na korištenje kolačića. Twitter i partneri rade globalno te koriste kolačiće za analize, personalizaciju i oglase.

Za najbolje sučelje na Twitteru koristite Microsoft Edge ili instalirajte aplikaciju Twitter iz trgovine Microsoft Store.

  • Naslovnica Naslovnica Naslovnica, trenutna stranica.
  • O Twitteru

Spremljena pretraživanja

  • obriši
  • U ovom razgovoru
    Ovjeren akauntZaštićeni tweetovi @
Predloženi korisnici
  • Ovjeren akauntZaštićeni tweetovi @
  • Ovjeren akauntZaštićeni tweetovi @
  • Jezik: Hrvatski
    • Bahasa Indonesia
    • Bahasa Melayu
    • Català
    • Čeština
    • Dansk
    • Deutsch
    • English
    • English UK
    • Español
    • Filipino
    • Français
    • Italiano
    • Magyar
    • Nederlands
    • Norsk
    • Polski
    • Português
    • Română
    • Slovenčina
    • Suomi
    • Svenska
    • Tiếng Việt
    • Türkçe
    • Български език
    • Русский
    • Српски
    • Українська мова
    • Ελληνικά
    • עִבְרִית
    • العربية
    • فارسی
    • मराठी
    • हिन्दी
    • বাংলা
    • ગુજરાતી
    • தமிழ்
    • ಕನ್ನಡ
    • ภาษาไทย
    • 한국어
    • 日本語
    • 简体中文
    • 繁體中文
  • Imate račun? Prijava
    Imate račun?
    · Zaboravili ste lozinku?

    Novi ste na Twitteru?
    Registrirajte se
Profil korisnika/ce jacobmbuckman
Jacob Buckman
Jacob Buckman
Jacob Buckman
@jacobmbuckman

Tweets

Jacob Buckman

@jacobmbuckman

PhD student at @MILAMontreal studying deep reinforcement learning. Formerly at @jhuclsp, a @GoogleAI resident, and @SCSatCMU.

jacobbuckman.com
Vrijeme pridruživanja: prosinac 2016.

Tweets

  • © 2020 Twitter
  • O Twitteru
  • Centar za pomoć
  • Uvjeti
  • Pravila o privatnosti
  • Imprint
  • Kolačići
  • Informacije o oglasima
Odbaci
Prethodni
Sljedeće

Idite na profil osobe

Spremljena pretraživanja

  • obriši
  • U ovom razgovoru
    Ovjeren akauntZaštićeni tweetovi @
Predloženi korisnici
  • Ovjeren akauntZaštićeni tweetovi @
  • Ovjeren akauntZaštićeni tweetovi @

Odjava

Blokiraj

  • Objavi Tweet s lokacijom

    U tweetove putem weba ili aplikacija drugih proizvođača možete dodati podatke o lokaciji, kao što su grad ili točna lokacija. Povijest lokacija tweetova uvijek možete izbrisati. Saznajte više

    Vaši popisi

    Izradi novi popis


    Manje od 100 znakova, neobavezno

    Privatnost

    Kopiraj vezu u tweet

    Ugradi ovaj Tweet

    Embed this Video

    Dodajte ovaj Tweet na svoje web-mjesto kopiranjem koda u nastavku. Saznajte više

    Dodajte ovaj videozapis na svoje web-mjesto kopiranjem koda u nastavku. Saznajte više

    Hm, došlo je do problema prilikom povezivanja s poslužiteljem.

    Integracijom Twitterova sadržaja u svoje web-mjesto ili aplikaciju prihvaćate Twitterov Ugovor za programere i Pravila za programere.

    Pregled

    Razlog prikaza oglasa

    Prijavi se na Twitter

    · Zaboravili ste lozinku?
    Nemate račun? Registrirajte se »

    Prijavite se na Twitter

    Niste na Twitteru? Registrirajte se, uključite se u stvari koje vas zanimaju, i dobivajte promjene čim se dogode.

    Registrirajte se
    Imate račun? Prijava »

    Dvosmjerni (slanje i primanje) kratki kodovi:

    Država Kod Samo za korisnike
    Sjedinjene Američke Države 40404 (bilo koje)
    Kanada 21212 (bilo koje)
    Ujedinjeno Kraljevstvo 86444 Vodafone, Orange, 3, O2
    Brazil 40404 Nextel, TIM
    Haiti 40404 Digicel, Voila
    Irska 51210 Vodafone, O2
    Indija 53000 Bharti Airtel, Videocon, Reliance
    Indonezija 89887 AXIS, 3, Telkomsel, Indosat, XL Axiata
    Italija 4880804 Wind
    3424486444 Vodafone
    » Pogledajte SMS kratke šifre za druge zemlje

    Potvrda

     

    Dobro došli kući!

    Vremenska crta mjesto je na kojem ćete provesti najviše vremena i bez odgode dobivati novosti o svemu što vam je važno.

    Tweetovi vam ne valjaju?

    Prijeđite pokazivačem preko slike profila pa kliknite gumb Pratim da biste prestali pratiti neki račun.

    Kažite mnogo uz malo riječi

    Kada vidite Tweet koji volite, dodirnite srce – to osobi koja ga je napisala daje do znanja da vam se sviđa.

    Proširite glas

    Najbolji je način da podijelite nečiji Tweet s osobama koje vas prate prosljeđivanje. Dodirnite ikonu da biste smjesta poslali.

    Pridruži se razgovoru

    Pomoću odgovora dodajte sve što mislite o nekom tweetu. Pronađite temu koja vam je važna i uključite se.

    Saznajte najnovije vijesti

    Bez odgode pogledajte o čemu ljudi razgovaraju.

    Pratite više onoga što vam se sviđa

    Pratite više računa da biste dobivali novosti o temama do kojih vam je stalo.

    Saznajte što se događa

    Bez odgode pogledajte najnovije razgovore o bilo kojoj temi.

    Ne propustite nijedan aktualni događaj

    Bez odgode pratite kako se razvijaju događaji koje pratite.

    Jacob Buckman‏ @jacobmbuckman 18. sij
    • Prijavi Tweet

    New blog post with @carlesgelada -- "A Sober Look at Bayesian Neural Networks": https://jacobbuckman.com/2020-01-17-a-sober-look-at-bayesian-neural-networks/ … Without a good prior, Bayesian uncertainties are meaningless. We argue that BNN priors are likely quite poor, and concretely characterize one specific failure mode.

    20:50 - 17. sij 2020.
    • 102 proslijeđena tweeta
    • 432 oznake „sviđa mi se”
    • Dawn Puskas ആൽവിൻ Prashant K. Sharma lstmpsmdrns Srinivas Ravuri Prateek Verma dumitru malaescu Vein.X Michael Hannecke
    12 replies 102 proslijeđena tweeta 432 korisnika označavaju da im se sviđa
      1. Jacob Buckman‏ @jacobmbuckman 18. sij
        • Prijavi Tweet

        Jacob Buckman je proslijedio/a tweet korisnika/ceCarles Gelada

        This is a more nuanced elaboration on Carles's controversial thread from a few weeks ago:https://twitter.com/carlesgelada/status/1208618401729568768 …

        Jacob Buckman je dodan/na,

        Carles Gelada @carlesgelada
        Controversial opinion: Bayesian NNs make no sense. You only want to use Bayes rule if you have a reasonable prior of what the parameters should be. Nobody knows what is encoded by any prior over the weights of a NN. So why would we use such a prior? 1/4
        Prikaži ovu nit
        0 replies 1 proslijeđeni tweet 5 korisnika označava da im se sviđa
        Prikaži ovu nit
        Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. Poništi
        Poništi
      1. Jacob Buckman‏ @jacobmbuckman 22. sij
        • Prijavi Tweet

        Jacob Buckman je proslijedio/a tweet korisnika/ceJacob Buckman

        We've updated this blog post in response to community discussion & feedback:https://twitter.com/jacobmbuckman/status/1220012977727987712 …

        Jacob Buckman je dodan/na,

        Jacob Buckman @jacobmbuckman
        Updated blog post with @carlesgelada -- "Bayesian Neural Networks Need Not Concentrate": https://jacobbuckman.com/2020-01-22-bayesian-neural-networks-need-not-concentrate/ … Thanks to all for the discussion & feedback. This improved version of the blog post hopefully explains the core claims more clearly, while being less polarizing.
        Prikaži ovu nit
        0 replies 0 proslijeđenih tweetova 3 korisnika označavaju da im se sviđa
        Prikaži ovu nit
        Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. Poništi
        Poništi
      1. Novi razgovor
      2. Corey Yanofsky truly and sincerely‏ @Corey_Yanofsky 22. sij
        • Prijavi Tweet
        Odgovor korisnicima @jacobmbuckman @carlesgelada

        one easy thing to dispute: using a particular optimizer that can't find some optima due to their shapes is *tantamount* to assigning regions of parameter space in which those optima are found negligible prior mass 1/2

        0 proslijeđenih tweetova 2 korisnika označavaju da im se sviđa
      3. Corey Yanofsky truly and sincerely‏ @Corey_Yanofsky 22. sij
        • Prijavi Tweet
        Odgovor korisnicima @Corey_Yanofsky @jacobmbuckman @carlesgelada

        so if some region of parameter space is intrinsically unable to yield good generalization, and this manifests in the shape of the objective function as sharp (hence brittle) optima when fits are good, then the use of SGD does in fact save us 2/2

        1 reply 0 proslijeđenih tweetova 1 korisnik označava da mu se sviđa
      4. Još 15 drugih odgovora
      1. Novi razgovor
      2. Rémi Louf  👾 🛸 ✨‏ @remilouf 18. sij
        • Prijavi Tweet
        Odgovor korisnicima @jacobmbuckman @carlesgelada

        I feel people are having the exact same arguments that have been going on in classical statistics for the past 40 years.

        0 proslijeđenih tweetova 5 korisnika označava da im se sviđa
      3. Jacob Buckman‏ @jacobmbuckman 18. sij
        • Prijavi Tweet
        Odgovor korisnicima @remilouf @carlesgelada

        Certainly Bayesians and frequentists have been arguing for decades, but our specific point is pretty DNN-centric so I'd be surprised if someone had made the exact same argument 40 years ago.

        0 proslijeđenih tweetova 1 korisnik označava da mu se sviđa
      4. Još 1 odgovor
      1. Novi razgovor
      2. Cuong Nguyen‏ @nvietcuong 22. sij
        • Prijavi Tweet
        Odgovor korisnicima @jacobmbuckman @carlesgelada

        The claim that a network that fits C perfectly would do badly on any test set is actually not correct. It would only be bad if C >> D and the labels in C\D are all random (i.e., no structure can be learned from the extra examples and they dominate the dataset).

        1 reply 0 proslijeđenih tweetova 0 korisnika označava da im se sviđa
      3. Cuong Nguyen‏ @nvietcuong 22. sij
        • Prijavi Tweet
        Odgovor korisnicima @nvietcuong @jacobmbuckman @carlesgelada

        In this case, even the normal NN will fail to learn. This is not just a problem of BNN. So I'm not sure why this problem is a criticism of BNN.

        1 reply 0 proslijeđenih tweetova 0 korisnika označava da im se sviđa
      4. Još 9 drugih odgovora
      1. Novi razgovor
      2. Andreas Kirsch‏ @BlackHC 18. sij
        • Prijavi Tweet
        Odgovor korisnicima @jacobmbuckman @carlesgelada

        "Generalization-Agnostic Priors" is a feature not a bug, and a misnomer? It's okay for the bad function and good function to have similar posteriors on D. This gives us uncertainty when integrating over the function distribution to get our prediction distribution.

        1 reply 0 proslijeđenih tweetova 4 korisnika označavaju da im se sviđa
      3. Andreas Kirsch‏ @BlackHC 18. sij
        • Prijavi Tweet
        Odgovor korisnicima @BlackHC @jacobmbuckman @carlesgelada

        You might just need more data for things to separate out. Usually you have some structural biases that distinguish solutions, like smoothness, which will prefer one over another, so the prior probability is unlikely to be equal if you add lots of corrupted data to C.

        0 proslijeđenih tweetova 2 korisnika označavaju da im se sviđa
      4. Još 10 drugih odgovora

    Čini se da učitavanje traje već neko vrijeme.

    Twitter je možda preopterećen ili ima kratkotrajnih poteškoća u radu. Pokušajte ponovno ili potražite dodatne informacije u odjeljku Status Twittera.

      Sponzorirani tweet

      false

      • © 2020 Twitter
      • O Twitteru
      • Centar za pomoć
      • Uvjeti
      • Pravila o privatnosti
      • Imprint
      • Kolačići
      • Informacije o oglasima