Preskoči na sadržaj
Korištenjem servisa na Twitteru pristajete na korištenje kolačića. Twitter i partneri rade globalno te koriste kolačiće za analize, personalizaciju i oglase.

Za najbolje sučelje na Twitteru koristite Microsoft Edge ili instalirajte aplikaciju Twitter iz trgovine Microsoft Store.

  • Naslovnica Naslovnica Naslovnica, trenutna stranica.
  • O Twitteru

Spremljena pretraživanja

  • obriši
  • U ovom razgovoru
    Ovjeren akauntZaštićeni tweetovi @
Predloženi korisnici
  • Ovjeren akauntZaštićeni tweetovi @
  • Ovjeren akauntZaštićeni tweetovi @
  • Jezik: Hrvatski
    • Bahasa Indonesia
    • Bahasa Melayu
    • Català
    • Čeština
    • Dansk
    • Deutsch
    • English
    • English UK
    • Español
    • Filipino
    • Français
    • Italiano
    • Magyar
    • Nederlands
    • Norsk
    • Polski
    • Português
    • Română
    • Slovenčina
    • Suomi
    • Svenska
    • Tiếng Việt
    • Türkçe
    • Български език
    • Русский
    • Српски
    • Українська мова
    • Ελληνικά
    • עִבְרִית
    • العربية
    • فارسی
    • मराठी
    • हिन्दी
    • বাংলা
    • ગુજરાતી
    • தமிழ்
    • ಕನ್ನಡ
    • ภาษาไทย
    • 한국어
    • 日本語
    • 简体中文
    • 繁體中文
  • Imate račun? Prijava
    Imate račun?
    · Zaboravili ste lozinku?

    Novi ste na Twitteru?
    Registrirajte se
Profil korisnika/ce hardmaru
hardmaru
hardmaru
hardmaru
@hardmaru

Tweets

hardmaru

@hardmaru

research scientist at google brain 🧠 香港人 🏴 ⠀

東京
otoro.net/ml/
Vrijeme pridruživanja: studeni 2014.

Tweets

  • © 2020 Twitter
  • O Twitteru
  • Centar za pomoć
  • Uvjeti
  • Pravila o privatnosti
  • Imprint
  • Kolačići
  • Informacije o oglasima
Odbaci
Prethodni
Sljedeće

Idite na profil osobe

Spremljena pretraživanja

  • obriši
  • U ovom razgovoru
    Ovjeren akauntZaštićeni tweetovi @
Predloženi korisnici
  • Ovjeren akauntZaštićeni tweetovi @
  • Ovjeren akauntZaštićeni tweetovi @

Odjava

Blokiraj

  • Objavi Tweet s lokacijom

    U tweetove putem weba ili aplikacija drugih proizvođača možete dodati podatke o lokaciji, kao što su grad ili točna lokacija. Povijest lokacija tweetova uvijek možete izbrisati. Saznajte više

    Vaši popisi

    Izradi novi popis


    Manje od 100 znakova, neobavezno

    Privatnost

    Kopiraj vezu u tweet

    Ugradi ovaj Tweet

    Embed this Video

    Dodajte ovaj Tweet na svoje web-mjesto kopiranjem koda u nastavku. Saznajte više

    Dodajte ovaj videozapis na svoje web-mjesto kopiranjem koda u nastavku. Saznajte više

    Hm, došlo je do problema prilikom povezivanja s poslužiteljem.

    Integracijom Twitterova sadržaja u svoje web-mjesto ili aplikaciju prihvaćate Twitterov Ugovor za programere i Pravila za programere.

    Pregled

    Razlog prikaza oglasa

    Prijavi se na Twitter

    · Zaboravili ste lozinku?
    Nemate račun? Registrirajte se »

    Prijavite se na Twitter

    Niste na Twitteru? Registrirajte se, uključite se u stvari koje vas zanimaju, i dobivajte promjene čim se dogode.

    Registrirajte se
    Imate račun? Prijava »

    Dvosmjerni (slanje i primanje) kratki kodovi:

    Država Kod Samo za korisnike
    Sjedinjene Američke Države 40404 (bilo koje)
    Kanada 21212 (bilo koje)
    Ujedinjeno Kraljevstvo 86444 Vodafone, Orange, 3, O2
    Brazil 40404 Nextel, TIM
    Haiti 40404 Digicel, Voila
    Irska 51210 Vodafone, O2
    Indija 53000 Bharti Airtel, Videocon, Reliance
    Indonezija 89887 AXIS, 3, Telkomsel, Indosat, XL Axiata
    Italija 4880804 Wind
    3424486444 Vodafone
    » Pogledajte SMS kratke šifre za druge zemlje

    Potvrda

     

    Dobro došli kući!

    Vremenska crta mjesto je na kojem ćete provesti najviše vremena i bez odgode dobivati novosti o svemu što vam je važno.

    Tweetovi vam ne valjaju?

    Prijeđite pokazivačem preko slike profila pa kliknite gumb Pratim da biste prestali pratiti neki račun.

    Kažite mnogo uz malo riječi

    Kada vidite Tweet koji volite, dodirnite srce – to osobi koja ga je napisala daje do znanja da vam se sviđa.

    Proširite glas

    Najbolji je način da podijelite nečiji Tweet s osobama koje vas prate prosljeđivanje. Dodirnite ikonu da biste smjesta poslali.

    Pridruži se razgovoru

    Pomoću odgovora dodajte sve što mislite o nekom tweetu. Pronađite temu koja vam je važna i uključite se.

    Saznajte najnovije vijesti

    Bez odgode pogledajte o čemu ljudi razgovaraju.

    Pratite više onoga što vam se sviđa

    Pratite više računa da biste dobivali novosti o temama do kojih vam je stalo.

    Saznajte što se događa

    Bez odgode pogledajte najnovije razgovore o bilo kojoj temi.

    Ne propustite nijedan aktualni događaj

    Bez odgode pratite kako se razvijaju događaji koje pratite.

    hardmaru‏ @hardmaru 11. sij
    • Prijavi Tweet

    On the Relationship between Self-Attention and Convolutional Layers This work shows that attention layers can perform convolution and that they often learn to do so in practice. They also prove that a self-attention layer is as expressive as a conv layer. https://openreview.net/forum?id=HJlnC1rKPB …pic.twitter.com/iqioR9eXzU

    17:18 - 10. sij 2020. iz: 東京 渋谷区
    • 278 proslijeđenih tweetova
    • 1.132 oznake „sviđa mi se”
    • ⚡️Hudson Mendes Dibya Ranjan Mishra Rahul Kumar Anirudh Som David John Gagne Bijay Gurung Astro Be harsh on me, I live with my failures copasta
    ICLR 2020 i Jean-Baptiste Cordonnier
    7 replies 278 proslijeđenih tweetova 1.132 korisnika označavaju da im se sviđa
      1. Novi razgovor
      2. hardmaru‏ @hardmaru 11. sij
        • Prijavi Tweet

        hardmaru je proslijedio/a tweet korisnika/ceJean-Baptiste Cordonnier

        Self-attention is proving to be a really good unified prior for both image and sequence processing. It can prob also learn useful representations for images that are difficult for conv layers to learn. See author’s thread for blog post and web demo: https://twitter.com/jb_cordonnier/status/1215581826187743232?s=21 …https://twitter.com/jb_cordonnier/status/1215581826187743232 …

        hardmaru je dodan/na,

        Jean-Baptiste Cordonnier @jb_cordonnier
        Very happy to share our latest work accepted at #ICRL2020: we prove that a Self-Attention layer can express any CNN layer. 1/5 📄Paper: https://openreview.net/pdf?id=HJlnC1rKPB … 🍿Interactive website : https://epfml.github.io/attention-cnn/  🖥Code: https://github.com/epfml/attention-cnn … 📝Blog: http://jbcordonnier.com/posts/attention-cnn/ … pic.twitter.com/X1rNS1JvPt
        Prikaži ovu nit
        1 reply 30 proslijeđenih tweetova 139 korisnika označava da im se sviđa
        Prikaži ovu nit
      3. hardmaru‏ @hardmaru 11. sij
        • Prijavi Tweet

        hardmaru je proslijedio/a tweet korisnika/cehardmaru

        With recent work that enables transformer to process very long training sequences, we could be only scratching the surface of the full capabilities of self-attention networks. They may have strong inductive bias to model things like hi-res video sequences. https://twitter.com/hardmaru/status/1210912823221440514?s=21 …https://twitter.com/hardmaru/status/1210912823221440514 …

        hardmaru je dodan/na,

        hardmaru @hardmaru
        Reformer: The Efficient Transformer They present techniques to reduce the time and memory complexity of Transformer, allowing batches of very long sequences (64K) to fit on one GPU. Should pave way for Transformer to be really impactful beyond NLP domain https://openreview.net/forum?id=rkgNKkHtvB … pic.twitter.com/3YwD4A5JQs
        Prikaži ovu nit
        0 replies 9 proslijeđenih tweetova 68 korisnika označava da im se sviđa
        Prikaži ovu nit
      4. Kraj razgovora
      1. Maks Sorokin  🦾‏ @initmaks 11. sij
        • Prijavi Tweet
        Odgovor korisnicima @hardmaru @iclr_conf @jb_cordonnier

        Maks Sorokin  🦾 je proslijedio/a tweet korisnika/ceJean-Baptiste Cordonnier

        Author's tweet:https://twitter.com/jb_cordonnier/status/1215581826187743232?s=21 …

        Maks Sorokin  🦾 je dodan/na,

        Jean-Baptiste Cordonnier @jb_cordonnier
        Very happy to share our latest work accepted at #ICRL2020: we prove that a Self-Attention layer can express any CNN layer. 1/5 📄Paper: https://openreview.net/pdf?id=HJlnC1rKPB … 🍿Interactive website : https://epfml.github.io/attention-cnn/  🖥Code: https://github.com/epfml/attention-cnn … 📝Blog: http://jbcordonnier.com/posts/attention-cnn/ … pic.twitter.com/X1rNS1JvPt
        Prikaži ovu nit
        0 replies 2 proslijeđena tweeta 11 korisnika označava da im se sviđa
        Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. Poništi
        Poništi
      1. 𝔊𝔴𝔢𝔯𝔫‏ @gwern 11. sij
        • Prijavi Tweet
        Odgovor korisnicima @hardmaru @iclr_conf @jb_cordonnier

        𝔊𝔴𝔢𝔯𝔫 je proslijedio/a tweet korisnika/ceQuoc Le

        I predicted that self-attention was learning something similar to convolutions after reading https://twitter.com/quocleix/status/1120498893832237057 … - one more feature engineering bites the dust of the bitter lesson?

        𝔊𝔴𝔢𝔯𝔫 je dodan/na,

        Quoc Le @quocleix
        Exciting new work on replacing convolutions with self-attention for vision. Our paper shows that full attention is good, but loses a few percents in accuracy. And a middle ground that combines convolutions and self-attention is better. Link: https://arxiv.org/abs/1904.09925  pic.twitter.com/eyVYooN8Va
        0 replies 1 proslijeđeni tweet 17 korisnika označava da im se sviđa
        Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. Poništi
        Poništi
      1. The Mint‏ @themintsv 11. sij
        • Prijavi Tweet
        Odgovor korisnicima @hardmaru @iclr_conf @jb_cordonnier

        Both are basically dot products. Multi-head attention is even more like convolutions.

        0 replies 1 proslijeđeni tweet 6 korisnika označava da im se sviđa
        Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. Poništi
        Poništi
      1. Novi razgovor
      2. Julien Perez‏ @perezjln 12. sij
        • Prijavi Tweet
        Odgovor korisnicima @hardmaru @iclr_conf @jb_cordonnier

        Something related: https://arxiv.org/abs/1905.01289 

        1 reply 0 proslijeđenih tweetova 2 korisnika označavaju da im se sviđa
      3. Jean-Baptiste Cordonnier‏ @jb_cordonnier 13. sij
        • Prijavi Tweet
        Odgovor korisnicima @perezjln @hardmaru @iclr_conf

        Yes, very nice work by J.-M. Andreoli (2019). Check out our paper to see how we relate to his work. Convolution, attention and structure embedding Jean-Marc Andreoli (2019) https://arxiv.org/abs/1905.01289 

        0 replies 0 proslijeđenih tweetova 3 korisnika označavaju da im se sviđa
      4. Kraj razgovora
      1. Novi razgovor
      2. Russ‏ @rmarcilhoo 11. sij
        • Prijavi Tweet
        Odgovor korisnicima @hardmaru @iclr_conf @jb_cordonnier

        Is Karpathy's multi-head architecture already implementing something similar in a hybrid CNN/Self attention model?

        1 reply 0 proslijeđenih tweetova 0 korisnika označava da im se sviđa
      3. Jean-Baptiste Cordonnier‏ @jb_cordonnier 13. sij
        • Prijavi Tweet
        Odgovor korisnicima @rmarcilhoo @hardmaru @iclr_conf

        Can you share a link to that paper? Thank you

        0 replies 0 proslijeđenih tweetova 0 korisnika označava da im se sviđa
      4. Kraj razgovora

    Čini se da učitavanje traje već neko vrijeme.

    Twitter je možda preopterećen ili ima kratkotrajnih poteškoća u radu. Pokušajte ponovno ili potražite dodatne informacije u odjeljku Status Twittera.

      Sponzorirani tweet

      false

      • © 2020 Twitter
      • O Twitteru
      • Centar za pomoć
      • Uvjeti
      • Pravila o privatnosti
      • Imprint
      • Kolačići
      • Informacije o oglasima