Preskoči na sadržaj
Korištenjem servisa na Twitteru pristajete na korištenje kolačića. Twitter i partneri rade globalno te koriste kolačiće za analize, personalizaciju i oglase.

Za najbolje sučelje na Twitteru koristite Microsoft Edge ili instalirajte aplikaciju Twitter iz trgovine Microsoft Store.

  • Naslovnica Naslovnica Naslovnica, trenutna stranica.
  • O Twitteru

Spremljena pretraživanja

  • obriši
  • U ovom razgovoru
    Ovjeren akauntZaštićeni tweetovi @
Predloženi korisnici
  • Ovjeren akauntZaštićeni tweetovi @
  • Ovjeren akauntZaštićeni tweetovi @
  • Jezik: Hrvatski
    • Bahasa Indonesia
    • Bahasa Melayu
    • Català
    • Čeština
    • Dansk
    • Deutsch
    • English
    • English UK
    • Español
    • Filipino
    • Français
    • Italiano
    • Magyar
    • Nederlands
    • Norsk
    • Polski
    • Português
    • Română
    • Slovenčina
    • Suomi
    • Svenska
    • Tiếng Việt
    • Türkçe
    • Български език
    • Русский
    • Српски
    • Українська мова
    • Ελληνικά
    • עִבְרִית
    • العربية
    • فارسی
    • मराठी
    • हिन्दी
    • বাংলা
    • ગુજરાતી
    • தமிழ்
    • ಕನ್ನಡ
    • ภาษาไทย
    • 한국어
    • 日本語
    • 简体中文
    • 繁體中文
  • Imate račun? Prijava
    Imate račun?
    · Zaboravili ste lozinku?

    Novi ste na Twitteru?
    Registrirajte se
Profil korisnika/ce jb_cordonnier
Jean-Baptiste Cordonnier
Jean-Baptiste Cordonnier
Jean-Baptiste Cordonnier
@jb_cordonnier

Tweets

Jean-Baptiste Cordonnier

@jb_cordonnier

PhD student @epfl_en 🇨🇭supervised by Prof. Martin Jaggi. Interested in deep learning on graphs, optimization and NLP. Mountain lover 🏔

jbcordonnier.com
Vrijeme pridruživanja: studeni 2019.

Tweets

  • © 2020 Twitter
  • O Twitteru
  • Centar za pomoć
  • Uvjeti
  • Pravila o privatnosti
  • Imprint
  • Kolačići
  • Informacije o oglasima
Odbaci
Prethodni
Sljedeće

Idite na profil osobe

Spremljena pretraživanja

  • obriši
  • U ovom razgovoru
    Ovjeren akauntZaštićeni tweetovi @
Predloženi korisnici
  • Ovjeren akauntZaštićeni tweetovi @
  • Ovjeren akauntZaštićeni tweetovi @

Odjava

Blokiraj

  • Objavi Tweet s lokacijom

    U tweetove putem weba ili aplikacija drugih proizvođača možete dodati podatke o lokaciji, kao što su grad ili točna lokacija. Povijest lokacija tweetova uvijek možete izbrisati. Saznajte više

    Vaši popisi

    Izradi novi popis


    Manje od 100 znakova, neobavezno

    Privatnost

    Kopiraj vezu u tweet

    Ugradi ovaj Tweet

    Embed this Video

    Dodajte ovaj Tweet na svoje web-mjesto kopiranjem koda u nastavku. Saznajte više

    Dodajte ovaj videozapis na svoje web-mjesto kopiranjem koda u nastavku. Saznajte više

    Hm, došlo je do problema prilikom povezivanja s poslužiteljem.

    Integracijom Twitterova sadržaja u svoje web-mjesto ili aplikaciju prihvaćate Twitterov Ugovor za programere i Pravila za programere.

    Pregled

    Razlog prikaza oglasa

    Prijavi se na Twitter

    · Zaboravili ste lozinku?
    Nemate račun? Registrirajte se »

    Prijavite se na Twitter

    Niste na Twitteru? Registrirajte se, uključite se u stvari koje vas zanimaju, i dobivajte promjene čim se dogode.

    Registrirajte se
    Imate račun? Prijava »

    Dvosmjerni (slanje i primanje) kratki kodovi:

    Država Kod Samo za korisnike
    Sjedinjene Američke Države 40404 (bilo koje)
    Kanada 21212 (bilo koje)
    Ujedinjeno Kraljevstvo 86444 Vodafone, Orange, 3, O2
    Brazil 40404 Nextel, TIM
    Haiti 40404 Digicel, Voila
    Irska 51210 Vodafone, O2
    Indija 53000 Bharti Airtel, Videocon, Reliance
    Indonezija 89887 AXIS, 3, Telkomsel, Indosat, XL Axiata
    Italija 4880804 Wind
    3424486444 Vodafone
    » Pogledajte SMS kratke šifre za druge zemlje

    Potvrda

     

    Dobro došli kući!

    Vremenska crta mjesto je na kojem ćete provesti najviše vremena i bez odgode dobivati novosti o svemu što vam je važno.

    Tweetovi vam ne valjaju?

    Prijeđite pokazivačem preko slike profila pa kliknite gumb Pratim da biste prestali pratiti neki račun.

    Kažite mnogo uz malo riječi

    Kada vidite Tweet koji volite, dodirnite srce – to osobi koja ga je napisala daje do znanja da vam se sviđa.

    Proširite glas

    Najbolji je način da podijelite nečiji Tweet s osobama koje vas prate prosljeđivanje. Dodirnite ikonu da biste smjesta poslali.

    Pridruži se razgovoru

    Pomoću odgovora dodajte sve što mislite o nekom tweetu. Pronađite temu koja vam je važna i uključite se.

    Saznajte najnovije vijesti

    Bez odgode pogledajte o čemu ljudi razgovaraju.

    Pratite više onoga što vam se sviđa

    Pratite više računa da biste dobivali novosti o temama do kojih vam je stalo.

    Saznajte što se događa

    Bez odgode pogledajte najnovije razgovore o bilo kojoj temi.

    Ne propustite nijedan aktualni događaj

    Bez odgode pratite kako se razvijaju događaji koje pratite.

    Jean-Baptiste Cordonnier‏ @jb_cordonnier 10. sij
    • Prijavi Tweet

    Very happy to share our latest work accepted at #ICRL2020: we prove that a Self-Attention layer can express any CNN layer. 1/5 📄Paper: https://openreview.net/pdf?id=HJlnC1rKPB … 🍿Interactive website : https://epfml.github.io/attention-cnn/  🖥Code: https://github.com/epfml/attention-cnn … 📝Blog: http://jbcordonnier.com/posts/attention-cnn/ …pic.twitter.com/X1rNS1JvPt

    02:31 - 10. sij 2020.
    • 348 proslijeđenih tweetova
    • 1.152 oznake „sviđa mi se”
    • Nok Angelos Katharopoulos ChinHuiChen _ Dylan Urquidi bgalvao amirhossein dezhboro Vilson Vieira Sirak Ghebremusse
    5 replies 348 proslijeđenih tweetova 1.152 korisnika označavaju da im se sviđa
      1. Novi razgovor
      2. Jean-Baptiste Cordonnier‏ @jb_cordonnier 10. sij
        • Prijavi Tweet

        Two *necessary* conditions (often met in practice): (a) Multiple heads, ex: 3x3 kernel requires 9 heads, (b) Relative positional encoding to allow translation invariance. Each head can attend on pixels at a fixed shift from the query pixel forming the pixel receptive field. 2/5

        1 proslijeđeni tweet 15 korisnika označava da im se sviđa
        Prikaži ovu nit
      3. Jean-Baptiste Cordonnier‏ @jb_cordonnier 10. sij
        • Prijavi Tweet

        Our work explains the recent success of Transformer architecture applied to vision: Attention Augmented Convolutional Networks. @IrwanBello et al., 2019. https://arxiv.org/abs/1904.09925  Stand-Alone Self-Attention in Vision Models. Ramachandran et al., 2019. https://arxiv.org/abs/1906.05909  3/5

        1 reply 3 proslijeđena tweeta 25 korisnika označava da im se sviđa
        Prikaži ovu nit
      4. Jean-Baptiste Cordonnier‏ @jb_cordonnier 10. sij
        • Prijavi Tweet

        Interactive website displays attention maps: - some heads ignore content and attend on pixels at *fixed* shifts (confirms theory) sliding a grid-like receptive field, - some heads seem to use content-based attention -> expressive advantage over CNN. 🍿 http://epfml.github.io/attention-cnn  4/5

        1 reply 1 proslijeđeni tweet 12 korisnika označava da im se sviđa
        Prikaži ovu nit
      5. Jean-Baptiste Cordonnier‏ @jb_cordonnier 10. sij
        • Prijavi Tweet

        I deeply appreciated the engagement of the reviewers (esp. the critics from Reviewer 3). I am thankful to @loukasa_tweet and Martin Jaggi for their support at @epfl_en. My Ph.D. is funded by @SDSCdatascience, Andreas is supported by @snsf_ch. Adis Ababa, here we come! 🇪🇹🎉 5/5

        1 reply 0 proslijeđenih tweetova 17 korisnika označava da im se sviđa
        Prikaži ovu nit
      6. Kraj razgovora
      1. Novi razgovor
      2. Jan van Gemert‏ @jan_gemert 10. sij
        • Prijavi Tweet
        Odgovor korisniku/ci @jb_cordonnier

        Great paper! Well written and Insightfull. Convolution is a strong inductive prior, alleviating the need to see shifted examples. Fully-connected layers can also learn convolution, but will only do so if the training data has many shifted variants. How is this for attention?

        1 reply 0 proslijeđenih tweetova 8 korisnika označava da im se sviđa
      3. Andreas Loukas‏ @loukasa_tweet 11. sij
        • Prijavi Tweet
        Odgovor korisnicima @jan_gemert @jb_cordonnier

        Thank you for your interest! MHSA layers appear to be more efficient than FC at learning the right inductive biases. Not certain why. My hypothesis is that softmax promotes the learning of sparse (due to exp) semi-orthogonal among heads (due to non-negativity) attention patterns.

        1 reply 0 proslijeđenih tweetova 5 korisnika označava da im se sviđa
      4. Još 3 druga odgovora
      1. Novi razgovor
      2. Behrooz Azarkhalili‏ @deepgradient 11. sij
        • Prijavi Tweet
        Odgovor korisnicima @jb_cordonnier @suzatweet

        #ICRL2020 @threader_app please compile it.

        1 reply 0 proslijeđenih tweetova 0 korisnika označava da im se sviđa
      3. Threader‏ @threader_app 11. sij
        • Prijavi Tweet
        Odgovor korisniku/ci @deepgradient

        Hi, you can read this thread from @jb_cordonnier here: https://threader.app/thread/1215581826187743232 … #ICRL2020

        0 replies 0 proslijeđenih tweetova 1 korisnik označava da mu se sviđa
      4. Kraj razgovora
      1. Novi razgovor
      2. John D. Pope  🦒‏ @johndpope 11. sij
        • Prijavi Tweet
        Odgovor korisniku/ci @jb_cordonnier

        Can someone please try positional encoding with bresenham circle instead of square? I’m sure it will revolutionize this (KxK) space.pic.twitter.com/KYfFyzgXg2

        1 reply 0 proslijeđenih tweetova 0 korisnika označava da im se sviđa
      3. jacobgorm‏ @jacobgorm 11. sij
        • Prijavi Tweet
        Odgovor korisnicima @johndpope @jb_cordonnier

        I tried with mnasnet once for the bigger kernels. It seems you can cut corners without losing much precision.

        1 reply 0 proslijeđenih tweetova 1 korisnik označava da mu se sviđa
      4. Još 1 odgovor

    Čini se da učitavanje traje već neko vrijeme.

    Twitter je možda preopterećen ili ima kratkotrajnih poteškoća u radu. Pokušajte ponovno ili potražite dodatne informacije u odjeljku Status Twittera.

      Sponzorirani tweet

      false

      • © 2020 Twitter
      • O Twitteru
      • Centar za pomoć
      • Uvjeti
      • Pravila o privatnosti
      • Imprint
      • Kolačići
      • Informacije o oglasima