Preskoči na sadržaj
Korištenjem servisa na Twitteru pristajete na korištenje kolačića. Twitter i partneri rade globalno te koriste kolačiće za analize, personalizaciju i oglase.

Za najbolje sučelje na Twitteru koristite Microsoft Edge ili instalirajte aplikaciju Twitter iz trgovine Microsoft Store.

  • Naslovnica Naslovnica Naslovnica, trenutna stranica.
  • O Twitteru

Spremljena pretraživanja

  • obriši
  • U ovom razgovoru
    Ovjeren akauntZaštićeni tweetovi @
Predloženi korisnici
  • Ovjeren akauntZaštićeni tweetovi @
  • Ovjeren akauntZaštićeni tweetovi @
  • Jezik: Hrvatski
    • Bahasa Indonesia
    • Bahasa Melayu
    • Català
    • Čeština
    • Dansk
    • Deutsch
    • English
    • English UK
    • Español
    • Filipino
    • Français
    • Italiano
    • Magyar
    • Nederlands
    • Norsk
    • Polski
    • Português
    • Română
    • Slovenčina
    • Suomi
    • Svenska
    • Tiếng Việt
    • Türkçe
    • Български език
    • Русский
    • Српски
    • Українська мова
    • Ελληνικά
    • עִבְרִית
    • العربية
    • فارسی
    • मराठी
    • हिन्दी
    • বাংলা
    • ગુજરાતી
    • தமிழ்
    • ಕನ್ನಡ
    • ภาษาไทย
    • 한국어
    • 日本語
    • 简体中文
    • 繁體中文
  • Imate račun? Prijava
    Imate račun?
    · Zaboravili ste lozinku?

    Novi ste na Twitteru?
    Registrirajte se
Profil korisnika/ce KriegeskorteLab
Kriegeskorte Lab
Kriegeskorte Lab
Kriegeskorte Lab
@KriegeskorteLab

Tweets

Kriegeskorte Lab

@KriegeskorteLab

Nikolaus Kriegeskorte tweeting — mostly about vision, neural networks, and open brain science

Vrijeme pridruživanja: lipanj 2014.

Tweets

  • © 2020 Twitter
  • O Twitteru
  • Centar za pomoć
  • Uvjeti
  • Pravila o privatnosti
  • Imprint
  • Kolačići
  • Informacije o oglasima
Odbaci
Prethodni
Sljedeće

Idite na profil osobe

Spremljena pretraživanja

  • obriši
  • U ovom razgovoru
    Ovjeren akauntZaštićeni tweetovi @
Predloženi korisnici
  • Ovjeren akauntZaštićeni tweetovi @
  • Ovjeren akauntZaštićeni tweetovi @

Odjava

Blokiraj

  • Objavi Tweet s lokacijom

    U tweetove putem weba ili aplikacija drugih proizvođača možete dodati podatke o lokaciji, kao što su grad ili točna lokacija. Povijest lokacija tweetova uvijek možete izbrisati. Saznajte više

    Vaši popisi

    Izradi novi popis


    Manje od 100 znakova, neobavezno

    Privatnost

    Kopiraj vezu u tweet

    Ugradi ovaj Tweet

    Embed this Video

    Dodajte ovaj Tweet na svoje web-mjesto kopiranjem koda u nastavku. Saznajte više

    Dodajte ovaj videozapis na svoje web-mjesto kopiranjem koda u nastavku. Saznajte više

    Hm, došlo je do problema prilikom povezivanja s poslužiteljem.

    Integracijom Twitterova sadržaja u svoje web-mjesto ili aplikaciju prihvaćate Twitterov Ugovor za programere i Pravila za programere.

    Pregled

    Razlog prikaza oglasa

    Prijavi se na Twitter

    · Zaboravili ste lozinku?
    Nemate račun? Registrirajte se »

    Prijavite se na Twitter

    Niste na Twitteru? Registrirajte se, uključite se u stvari koje vas zanimaju, i dobivajte promjene čim se dogode.

    Registrirajte se
    Imate račun? Prijava »

    Dvosmjerni (slanje i primanje) kratki kodovi:

    Država Kod Samo za korisnike
    Sjedinjene Američke Države 40404 (bilo koje)
    Kanada 21212 (bilo koje)
    Ujedinjeno Kraljevstvo 86444 Vodafone, Orange, 3, O2
    Brazil 40404 Nextel, TIM
    Haiti 40404 Digicel, Voila
    Irska 51210 Vodafone, O2
    Indija 53000 Bharti Airtel, Videocon, Reliance
    Indonezija 89887 AXIS, 3, Telkomsel, Indosat, XL Axiata
    Italija 4880804 Wind
    3424486444 Vodafone
    » Pogledajte SMS kratke šifre za druge zemlje

    Potvrda

     

    Dobro došli kući!

    Vremenska crta mjesto je na kojem ćete provesti najviše vremena i bez odgode dobivati novosti o svemu što vam je važno.

    Tweetovi vam ne valjaju?

    Prijeđite pokazivačem preko slike profila pa kliknite gumb Pratim da biste prestali pratiti neki račun.

    Kažite mnogo uz malo riječi

    Kada vidite Tweet koji volite, dodirnite srce – to osobi koja ga je napisala daje do znanja da vam se sviđa.

    Proširite glas

    Najbolji je način da podijelite nečiji Tweet s osobama koje vas prate prosljeđivanje. Dodirnite ikonu da biste smjesta poslali.

    Pridruži se razgovoru

    Pomoću odgovora dodajte sve što mislite o nekom tweetu. Pronađite temu koja vam je važna i uključite se.

    Saznajte najnovije vijesti

    Bez odgode pogledajte o čemu ljudi razgovaraju.

    Pratite više onoga što vam se sviđa

    Pratite više računa da biste dobivali novosti o temama do kojih vam je stalo.

    Saznajte što se događa

    Bez odgode pogledajte najnovije razgovore o bilo kojoj temi.

    Ne propustite nijedan aktualni događaj

    Bez odgode pratite kako se razvijaju događaji koje pratite.

    Kriegeskorte Lab‏ @KriegeskorteLab 26. velj 2019.
    • Prijavi Tweet

    Behold on the right: the missing panel in textbook illustrations of overfitting. Overly simple model can’t fit the data. Intermediate-complexity model fits ok. Complex model overfits. Super-complex model fits best of all. (Low-norm fits minimizing squared error.)pic.twitter.com/HaVjpwh2kJ

    11:21 - 26. velj 2019.
    • 29 proslijeđenih tweetova
    • 116 oznaka „sviđa mi se”
    • Selim Onat Mailhot Amy Christensen Sam Dutter Le Tan Dang Khoa Sandeep Sudarshan Ollin Boer Bohan Dan Saunders Daniyar Turmukhambetov
    29 proslijeđenih tweetova 116 korisnika označava da im se sviđa
      1. Novi razgovor
      2. Kriegeskorte Lab‏ @KriegeskorteLab 26. velj 2019.
        • Prijavi Tweet

        paper by Bansal, al. et Saxe: http://decisions.psy.ox.ac.uk/people/saxe_site/papers/Bansal%20et%20al.%20-%202018%20-%20Minnorm%20training%20an%20algorithm%20for%20training%20over-parameterized%20deep%20neural%20networks.pdf …pic.twitter.com/FKuPgHzxfV

        1 reply 1 proslijeđeni tweet 11 korisnika označava da im se sviđa
        Prikaži ovu nit
      3. Kriegeskorte Lab‏ @KriegeskorteLab 26. velj 2019.
        • Prijavi Tweet

        Small weights correspond to smooth solutions for ReLU nets, so low-norm solutions generalize well when the true function is smooth. Super-complex nets fit the training data perfectly and interpolate smoothly, so generalize well when the truth is smooth and label noise limited.

        1 reply 0 proslijeđenih tweetova 3 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      4. Kriegeskorte Lab‏ @KriegeskorteLab 26. velj 2019.
        • Prijavi Tweet

        This demonstration works with or without label noise. For zero label noise, there’s still overfitting: not in the sense of fitting the noise, but in the sense of accepting large weights to adapt an incorrect model to the data as closely as possible (wrong implicit prior).

        1 reply 0 proslijeđenih tweetova 2 korisnika označavaju da im se sviđa
        Prikaži ovu nit
      5. Kriegeskorte Lab‏ @KriegeskorteLab 26. velj 2019.
        • Prijavi Tweet

        The super-complex ReLU model is also incorrect (the sine is not piecewise linear), but is flexible enough not to overfit (yes exactly!) with the help of the smoothness prior implicit to the low-norm solution.

        0 replies 0 proslijeđenih tweetova 1 korisnik označava da mu se sviđa
        Prikaži ovu nit
      6. Kraj razgovora
      1. Novi razgovor
      2. FerreraLab‏ @FerreraLab 1. lip 2019.
        • Prijavi Tweet
        Odgovor korisniku/ci @KriegeskorteLab

        Panel D looks more like a bad fit than an over fit.

        1 reply 0 proslijeđenih tweetova 0 korisnika označava da im se sviđa
      3. Kriegeskorte Lab‏ @KriegeskorteLab 2. lip 2019.
        • Prijavi Tweet
        Odgovor korisniku/ci @FerreraLab

        We consider the model overfit to the extent that it fits the training data (open symbols) better than new data (solid line). Do you have a different definition in mind?

        1 reply 0 proslijeđenih tweetova 0 korisnika označava da im se sviđa
      4. Još 1 odgovor
      1. Novi razgovor
      2. Rasmus Berg Palm‏ @rasmusbergpalm 27. velj 2019.
        • Prijavi Tweet
        Odgovor korisnicima @KriegeskorteLab @janexwang

        How is "low norm training" different from say l2 regularisation?

        0 proslijeđenih tweetova 2 korisnika označavaju da im se sviđa
      3. Još 1 odgovor
      1. Novi razgovor
      2. correct the record‏ @LydiaManiatis 1. ožu 2019.
        • Prijavi Tweet
        Odgovor korisnicima @KriegeskorteLab @aeronlaffere

        And none of the "models" has any meaning, because the "data" was collected mindlessly and "fitted" post hoc, which means it's all just chance correlations, which makes it exactly equivalent to p-hacking. On what basis can you argue one is better than another?

        1 reply 0 proslijeđenih tweetova 0 korisnika označava da im se sviđa
      3. Kriegeskorte Lab‏ @KriegeskorteLab 31. svi 2019.
        • Prijavi Tweet
        Odgovor korisnicima @LydiaManiatis @aeronlaffere

        @LydiaManiatis here's a great textbook in case you wanted to learn about some of this stuff: https://www.cs.ubc.ca/~murphyk/MLbook/ …

        0 proslijeđenih tweetova 0 korisnika označava da im se sviđa
      4. Još 1 odgovor

    Čini se da učitavanje traje već neko vrijeme.

    Twitter je možda preopterećen ili ima kratkotrajnih poteškoća u radu. Pokušajte ponovno ili potražite dodatne informacije u odjeljku Status Twittera.

      Sponzorirani tweet

      false

      • © 2020 Twitter
      • O Twitteru
      • Centar za pomoć
      • Uvjeti
      • Pravila o privatnosti
      • Imprint
      • Kolačići
      • Informacije o oglasima