Siirry sisältöön
Käyttämällä Twitterin palveluita hyväksyt evästeiden käytön. Toimimme yhteistyökumppaneidemme kanssa kansainvälisesti ja käytämme evästeitä muun muassa tilastoihin, mukauttamiseen ja mainoksiin.
  • Etusivu Etusivu Etusivu, nykyinen sivu.
  • Tietoja

Tallennetut haut

  • Poista
  • Tässä keskustelussa
    Varmennettu tiliSuojatut twiitit @
Ehdotetut käyttäjät
  • Varmennettu tiliSuojatut twiitit @
  • Varmennettu tiliSuojatut twiitit @
  • Kieli: suomi
    • Bahasa Indonesia
    • Bahasa Melayu
    • Català
    • Čeština
    • Dansk
    • Deutsch
    • English
    • English UK
    • Español
    • Filipino
    • Français
    • Hrvatski
    • Italiano
    • Magyar
    • Nederlands
    • Norsk
    • Polski
    • Português
    • Română
    • Slovenčina
    • Svenska
    • Tiếng Việt
    • Türkçe
    • Ελληνικά
    • Български език
    • Русский
    • Српски
    • Українська мова
    • עִבְרִית
    • العربية
    • فارسی
    • मराठी
    • हिन्दी
    • বাংলা
    • ગુજરાતી
    • தமிழ்
    • ಕನ್ನಡ
    • ภาษาไทย
    • 한국어
    • 日本語
    • 简体中文
    • 繁體中文
  • Onko sinulla tili? Kirjaudu sisään
    Onko sinulla tili?
    · Unohditko salasanasi?

    Uusi Twitterissä?
    Rekisteröidy
Käyttäjän pmddomingos profiili
Pedro Domingos
Pedro Domingos
Pedro Domingos
@pmddomingos

Tweets

Pedro Domingos

@pmddomingos

Professor of computer science at UW and author of 'The Master Algorithm'. Into machine learning, AI, data science, and anything that makes me curious.

Seattle, WA
pedrodomingos.org
Liittynyt heinäkuu 2015

Tweets

  • © 2022 Twitter
  • Tietoja
  • Ohjekeskus
  • Ehdot
  • Yksityisyyskäytäntö
  • Evästeet
  • Mainosten tiedot
Hylkää
Edellinen
Seuraava

Siirry henkilön profiiliin

Tallennetut haut

  • Poista
  • Tässä keskustelussa
    Varmennettu tiliSuojatut twiitit @
Ehdotetut käyttäjät
  • Varmennettu tiliSuojatut twiitit @
  • Varmennettu tiliSuojatut twiitit @

Mainosta tätä twiittiä

Estä

  • Twiittaa sijainti ilmoittaen

    Voit lisätä twiitteihisi sijainnin, esimerkiksi kaupungin tai tarkemman paikan, verkosta ja kolmannen osapuolen sovellusten kautta. Halutessasi voit poistaa twiittisi sijaintihistorian myöhemmin. Lue lisää

    Listasi

    Luo uusi lista


    Alle 100 merkkiä, valinnainen

    Yksityisyys

    Kopioi linkki twiittiin

    Upota tämä twiitti

    Embed this Video

    Lisää tämä twiitti verkkosivustollesi kopioimalla alla oleva koodi. Lue lisää

    Lisää tämä video verkkosivustollesi kopioimalla alla oleva koodi. Lue lisää

    Hmm, palvelinyhteydessä oli ongelmia.

    Upottamalla Twitter-sisältöä sivustollesi tai sovellukseesi hyväksyt Twitterin kehittäjäsopimuksen ja kehittäjäkäytännön.

    Esikatselu

    Miksi näet tämän mainoksen

    Kirjaudu sisään Twitteriin

    · Unohditko salasanasi?
    Eikö sinulla ole tiliä? Rekisteröidy »

    Rekisteröidy Twitteriin

    Etkö ole Twitterissä? Rekisteröity, virittäydy seuraamaan asioita, joista välität ja vastaanota päivityksiä tapahtumista.

    Rekisteröidy
    Onko sinulla tili? Kirjaudu sisään »

    Kaksisuuntaiset (lähetys ja vastaanotto) lyhytnumerot:

    Maa Koodi Asiakkaille yrityksessä
    Yhdysvallat 40404 (mikä tahansa)
    Kanada 21212 (mikä tahansa)
    Yhdistynyt kuningaskunta 86444 Vodafone, Orange, 3, O2
    Brasilia 40404 Nextel, TIM
    Haiti 40404 Digicel, Voila
    Irlanti 51210 Vodafone, O2
    Intia 53000 Bharti Airtel, Videocon, Reliance
    Indonesia 89887 AXIS, 3, Telkomsel, Indosat, XL Axiata
    Italia 4880804 Wind
    3424486444 Vodafone
    » Näytä muiden maiden lyhytnumerot tekstiviesteille

    Vahvistus

     

    Tervetuloa kotiin!

    Tällä aikajanalla vietät suurimman osan ajastasi ja saat välittömiä päivityksiä sinulle tärkeistä asioista.

    Eivätkö twiitit ole mieleesi?

    Siirrä osoitin profiilikuvan päälle ja napsauta Seurataan-painiketta lopettaaksesi tilien seuraamisen.

    Sano paljon pienellä teolla

    Kun näet twiitin, jota rakastat, napauta sydäntä — siten voit kertoa twiitin kirjoittaneelle henkilölle jakavasi rakkautta.

    Jaa sanomaa

    Nopein tapa jakaa jonkun muun twiitti seuraajillesi on uudelleentwiittaus. Napauta kuvaketta lähettääksesi sen heti.

    Liity keskusteluun

    Lisää ajatuksesi twiittiin vastaamalla. Etsi sinua kiinnostava aihe ja hyppää mukaan keskusteluun.

    Pysy ajan tasalla

    Näe välittömät päivitykset siitä, mistä ihmiset puhuvat juuri nyt.

    Näe enemmän sitä, mitä rakastat

    Seuraa lisää tilejä nähdäksesi välittömät päivitykset sinua kiinnostavista aiheista.

    Selvitä, mitä tapahtuu

    Näe mihin tahansa aiheeseen liittyvät viimeisimmät keskustelut välittömästi.

    Älä jää paitsi hetkestäkään

    Pysy ajan tasalla parhaista tarinoista niiden tapahtuessa.

    1. Pedro Domingos‏ @pmddomingos 25. syysk. 2021

      We won’t find intelligence at the bottom of gradient descent.

      19 vastausta 53 uudelleentwiittausta 369 tykkäystä
    2. Mohammad Alyounes‏ @mohammadalyoune 25. syysk. 2021
      Vastauksena käyttäjälle @pmddomingos

      You have a problem with gradient descent?

      1 vastaus 0 uudelleentwiittausta 1 tykkäys
    3. Pedro Domingos‏ @pmddomingos 25. syysk. 2021
      Vastauksena käyttäjälle @mohammadalyoune

      Yes, it’s an extremely inefficient way to learn.

      6 vastausta 0 uudelleentwiittausta 21 tykkäystä
    4. Yann LeCun‏ @ylecun 26. syysk. 2021
      Vastauksena käyttäjille @pmddomingos ja @mohammadalyoune

      Do you have an alternative approach to learning that is more efficient than gradient-based optimization?

      9 vastausta 2 uudelleentwiittausta 53 tykkäystä
    5. Reisson Saavedra‏ @SaavedraReisson 26. syysk. 2021
      Vastauksena käyttäjille @ylecun, @pmddomingos ja @mohammadalyoune

      Genetic Algorithms?

      1 vastaus 0 uudelleentwiittausta 0 tykkäystä
    6. Yann LeCun‏ @ylecun 26. syysk. 2021
      Vastauksena käyttäjille @SaavedraReisson, @pmddomingos ja @mohammadalyoune

      Certainly not. Gradient-based optimization beats gradient-free any day. Genetic algos are a particular instance of gradient-free algorithms.

      1 vastaus 0 uudelleentwiittausta 7 tykkäystä
    7. Pedro Domingos‏ @pmddomingos 26. syysk. 2021
      Vastauksena käyttäjille @ylecun, @SaavedraReisson ja @mohammadalyoune

      You seem to be missing a lot here. Saying that anything that is not gradient descent is gradient-free optimization and therefore worse is not valid reasoning. Crossover is not local search, evolution is a multiagent game, etc., etc.

      2 vastausta 0 uudelleentwiittausta 10 tykkäystä
    8. Yann LeCun‏ @ylecun 26. syysk. 2021
      Vastauksena käyttäjille @pmddomingos, @SaavedraReisson ja @mohammadalyoune

      Give me a non-gradient-based method that produce decent results in a reasonable amount of time on, say, ImageNet, LibriSpeech, whatever NLP benchmark you want. 1/2

      1 vastaus 0 uudelleentwiittausta 8 tykkäystä
    9. Yann LeCun‏ @ylecun 26. syysk. 2021
      Vastauksena käyttäjille @ylecun, @pmddomingos ja

      Local or not local, swarm or not swarm, the things you mention are just particular ways to do gradient-free optimization.

      2 vastausta 0 uudelleentwiittausta 4 tykkäystä
      Pedro Domingos‏ @pmddomingos 26. syysk. 2021
      Vastauksena käyttäjille @ylecun, @SaavedraReisson ja @mohammadalyoune

      To paraphrase Ulam, using a term like "gradient-free optimization" is like referring to the bulk of zoology as the study of trunk-free animals. GD is fast per step, but extremely inefficient at extracting information from examples. (Nearest-neighbor is better at that!)

      11.38 - 26. syysk. 2021
      • 1 tykkäys
      • ALBIV⚡ MARIA NATALE
      2 vastausta 0 uudelleentwiittausta 1 tykkäys
        1. Uusi keskustelu
        2. Pedro Domingos‏ @pmddomingos 26. syysk. 2021
          Vastauksena käyttäjille @pmddomingos, @ylecun ja

          What you're doing is like arguing a billion years ago that bacteria were the apex of evolution. (They search for food by concentration gradient descent - do you have a better option?) You'll doubtless be proved right in the short term, but (very) wrong in the long term.

          1 vastaus 0 uudelleentwiittausta 8 tykkäystä
        3. Pedro Domingos‏ @pmddomingos 26. syysk. 2021
          Vastauksena käyttäjille @pmddomingos, @ylecun ja

          Even GD's speed advantage is predicated on the unfair advantage of GPUs, and less than it seems given how overparameterized models have to be to overcome local optima - which nonconvex optimizers don't. (E.g., https://homes.cs.washington.edu/~pedrod/papers/iclr18.pdf …)

          0 vastausta 1 uudelleentwiittaus 5 tykkäystä
        4. Keskustelun loppu
        1. Uusi keskustelu
        2. Yann LeCun‏ @ylecun 26. syysk. 2021
          Vastauksena käyttäjille @pmddomingos, @SaavedraReisson ja @mohammadalyoune

          You can measure how well nearest-neighbor "extracts information from examples" by counting how many samples it needs to reach a given error level. Do the same with a neural net trained with gradient descent. The result will not support your statement.

          1 vastaus 0 uudelleentwiittausta 4 tykkäystä
        3. Pedro Domingos‏ @pmddomingos 26. syysk. 2021
          Vastauksena käyttäjille @ylecun, @SaavedraReisson ja @mohammadalyoune

          If you use the dumbest possible form of nearest-neighbor and the smartest possible form of gradient descent, yes. If you're smart about how you map test examples to training ones, no. In any case, I was talking about the information extracted per step, where kNN blows GD away.

          1 vastaus 0 uudelleentwiittausta 3 tykkäystä
        4. Näytä vastaukset

      Lataaminen näyttää kestävän hetken.

      Twitter saattaa olla ruuhkautunut tai ongelma on muuten hetkellinen. Yritä uudelleen tai käy Twitterin tilasivulla saadaksesi lisätietoja.

        Mainostettu twiitti

        false

        • © 2022 Twitter
        • Tietoja
        • Ohjekeskus
        • Ehdot
        • Yksityisyyskäytäntö
        • Evästeet
        • Mainosten tiedot