Siirry sisältöön
Käyttämällä Twitterin palveluita hyväksyt evästeiden käytön. Toimimme yhteistyökumppaneidemme kanssa kansainvälisesti ja käytämme evästeitä muun muassa tilastoihin, mukauttamiseen ja mainoksiin.
  • Etusivu Etusivu Etusivu, nykyinen sivu.
  • Tietoja

Tallennetut haut

  • Poista
  • Tässä keskustelussa
    Varmennettu tiliSuojatut twiitit @
Ehdotetut käyttäjät
  • Varmennettu tiliSuojatut twiitit @
  • Varmennettu tiliSuojatut twiitit @
  • Kieli: suomi
    • Bahasa Indonesia
    • Bahasa Melayu
    • Català
    • Čeština
    • Dansk
    • Deutsch
    • English
    • English UK
    • Español
    • Filipino
    • Français
    • Hrvatski
    • Italiano
    • Magyar
    • Nederlands
    • Norsk
    • Polski
    • Português
    • Română
    • Slovenčina
    • Svenska
    • Tiếng Việt
    • Türkçe
    • Ελληνικά
    • Български език
    • Русский
    • Српски
    • Українська мова
    • עִבְרִית
    • العربية
    • فارسی
    • मराठी
    • हिन्दी
    • বাংলা
    • ગુજરાતી
    • தமிழ்
    • ಕನ್ನಡ
    • ภาษาไทย
    • 한국어
    • 日本語
    • 简体中文
    • 繁體中文
  • Onko sinulla tili? Kirjaudu sisään
    Onko sinulla tili?
    · Unohditko salasanasi?

    Uusi Twitterissä?
    Rekisteröidy
Käyttäjän pmddomingos profiili
Pedro Domingos
Pedro Domingos
Pedro Domingos
@pmddomingos

Tweets

Pedro Domingos

@pmddomingos

Professor of computer science at UW and author of 'The Master Algorithm'. Into machine learning, AI, data science, and anything that makes me curious.

Seattle, WA
pedrodomingos.org
Liittynyt heinäkuu 2015

Tweets

  • © 2022 Twitter
  • Tietoja
  • Ohjekeskus
  • Ehdot
  • Yksityisyyskäytäntö
  • Evästeet
  • Mainosten tiedot
Hylkää
Edellinen
Seuraava

Siirry henkilön profiiliin

Tallennetut haut

  • Poista
  • Tässä keskustelussa
    Varmennettu tiliSuojatut twiitit @
Ehdotetut käyttäjät
  • Varmennettu tiliSuojatut twiitit @
  • Varmennettu tiliSuojatut twiitit @

Mainosta tätä twiittiä

Estä

  • Twiittaa sijainti ilmoittaen

    Voit lisätä twiitteihisi sijainnin, esimerkiksi kaupungin tai tarkemman paikan, verkosta ja kolmannen osapuolen sovellusten kautta. Halutessasi voit poistaa twiittisi sijaintihistorian myöhemmin. Lue lisää

    Listasi

    Luo uusi lista


    Alle 100 merkkiä, valinnainen

    Yksityisyys

    Kopioi linkki twiittiin

    Upota tämä twiitti

    Embed this Video

    Lisää tämä twiitti verkkosivustollesi kopioimalla alla oleva koodi. Lue lisää

    Lisää tämä video verkkosivustollesi kopioimalla alla oleva koodi. Lue lisää

    Hmm, palvelinyhteydessä oli ongelmia.

    Upottamalla Twitter-sisältöä sivustollesi tai sovellukseesi hyväksyt Twitterin kehittäjäsopimuksen ja kehittäjäkäytännön.

    Esikatselu

    Miksi näet tämän mainoksen

    Kirjaudu sisään Twitteriin

    · Unohditko salasanasi?
    Eikö sinulla ole tiliä? Rekisteröidy »

    Rekisteröidy Twitteriin

    Etkö ole Twitterissä? Rekisteröity, virittäydy seuraamaan asioita, joista välität ja vastaanota päivityksiä tapahtumista.

    Rekisteröidy
    Onko sinulla tili? Kirjaudu sisään »

    Kaksisuuntaiset (lähetys ja vastaanotto) lyhytnumerot:

    Maa Koodi Asiakkaille yrityksessä
    Yhdysvallat 40404 (mikä tahansa)
    Kanada 21212 (mikä tahansa)
    Yhdistynyt kuningaskunta 86444 Vodafone, Orange, 3, O2
    Brasilia 40404 Nextel, TIM
    Haiti 40404 Digicel, Voila
    Irlanti 51210 Vodafone, O2
    Intia 53000 Bharti Airtel, Videocon, Reliance
    Indonesia 89887 AXIS, 3, Telkomsel, Indosat, XL Axiata
    Italia 4880804 Wind
    3424486444 Vodafone
    » Näytä muiden maiden lyhytnumerot tekstiviesteille

    Vahvistus

     

    Tervetuloa kotiin!

    Tällä aikajanalla vietät suurimman osan ajastasi ja saat välittömiä päivityksiä sinulle tärkeistä asioista.

    Eivätkö twiitit ole mieleesi?

    Siirrä osoitin profiilikuvan päälle ja napsauta Seurataan-painiketta lopettaaksesi tilien seuraamisen.

    Sano paljon pienellä teolla

    Kun näet twiitin, jota rakastat, napauta sydäntä — siten voit kertoa twiitin kirjoittaneelle henkilölle jakavasi rakkautta.

    Jaa sanomaa

    Nopein tapa jakaa jonkun muun twiitti seuraajillesi on uudelleentwiittaus. Napauta kuvaketta lähettääksesi sen heti.

    Liity keskusteluun

    Lisää ajatuksesi twiittiin vastaamalla. Etsi sinua kiinnostava aihe ja hyppää mukaan keskusteluun.

    Pysy ajan tasalla

    Näe välittömät päivitykset siitä, mistä ihmiset puhuvat juuri nyt.

    Näe enemmän sitä, mitä rakastat

    Seuraa lisää tilejä nähdäksesi välittömät päivitykset sinua kiinnostavista aiheista.

    Selvitä, mitä tapahtuu

    Näe mihin tahansa aiheeseen liittyvät viimeisimmät keskustelut välittömästi.

    Älä jää paitsi hetkestäkään

    Pysy ajan tasalla parhaista tarinoista niiden tapahtuessa.

    1. Pedro Domingos‏ @pmddomingos 17. marrask. 2021

      The gradient almost never points to the minimum, so descending it is an odd idea.

      15 vastausta 1 uudelleentwiittaus 55 tykkäystä
    2. Joscha Bach‏ @Plinz 17. marrask. 2021
      Vastauksena käyttäjälle @pmddomingos

      Of all the directions you can walk towards in a continuous (often high dimensional) space, the gradient offers the highest probability of getting to a minimum, so why would it odd to descend? (I realize that when everyone is descending, a few should explore the mountains, too.)

      2 vastausta 0 uudelleentwiittausta 27 tykkäystä
    3. Pedro Domingos‏ @pmddomingos 17. marrask. 2021
      Vastauksena käyttäjälle @Plinz

      In an convex problem, there's an enormous range of directions that get you to a minimum with probability 1, and it's not clear the gradient is special in any way. In a nonconvex problem, your statement is false.

      2 vastausta 0 uudelleentwiittausta 7 tykkäystä
    4. murat‏ @mayfer 17. marrask. 2021
      Vastauksena käyttäjille @pmddomingos ja @Plinz

      and what do you propose for getting to the minimum then? i suspect you will always need an accurate model of the manifold to guess it well, which is where you get into higher order intelligent learning beyond just perception&reward

      2 vastausta 0 uudelleentwiittausta 1 tykkäys
      Pedro Domingos‏ @pmddomingos 17. marrask. 2021
      Vastauksena käyttäjille @mayfer ja @Plinz

      There are many other methods (e.g., second-order, simulated annealing, crossover). But perhaps the deeper issue is in formulating learning as an optimization problem (as opposed to, e.g., predictive coding or analogical reasoning).

      17.56 - 17. marrask. 2021
      • 11 tykkäystä
      • Sahil Trivedi nano_unanue Aakash Anton Zemlyansky Trademaker Jenny Peters JCorvinus mb veoex
      5 vastausta 0 uudelleentwiittausta 11 tykkäystä
        1. murat‏ @mayfer 17. marrask. 2021
          Vastauksena käyttäjille @pmddomingos ja @Plinz

          sometimes i think the analogical reasoning part has to be based on harmonics, where any physical system can create maps of compatible & incompatible concepts by tuning them to resonate (or be dissonant) with each other as a mechanism of annealing into a valid state

          1 vastaus 0 uudelleentwiittausta 1 tykkäys
          Kiitos. Käytämme tätä aikajanasi parantamiseen. Kumoa
          Kumoa
        1. Amin Amou 𒀀 𒈪 𒅔‏ @amin_amou 17. marrask. 2021
          Vastauksena käyttäjille @pmddomingos, @mayfer ja @Plinz

          do you know any analogical reasoning formulation of learning?

          0 vastausta 0 uudelleentwiittausta 1 tykkäys
          Kiitos. Käytämme tätä aikajanasi parantamiseen. Kumoa
          Kumoa
        1. Uusi keskustelu
        2. Chris  🎅🏻 Carroll‏ @chrisfcarroll 17. marrask. 2021
          Vastauksena käyttäjille @pmddomingos, @mayfer ja @Plinz

          The gradient is the rightish direction if you are close to the solution in a continuous space; there is presumably a class of hybrid Explore&Exploit (eg SA+SGD) approaches that can perform marginally better on some problems? 2nd order not shown to typically improve on SGD?

          1 vastaus 0 uudelleentwiittausta 1 tykkäys
        3. No thanks honey‏ @NoThanksHoney1 18. marrask. 2021
          Vastauksena käyttäjille @chrisfcarroll, @pmddomingos ja

          Such a wishful thinking. What makes you think there is a/1 right direction to begin with? What will you see when you get "there"? What makes you think tweaking all synaptic weights (hence a gradient vector) is "better"? Or why would a neuron care about a target?

          0 vastausta 0 uudelleentwiittausta 0 tykkäystä
        4. Keskustelun loppu
        1. Uusi keskustelu
        2. Patrick Mesana‏ @patrickmesana 18. marrask. 2021
          Vastauksena käyttäjille @pmddomingos, @mayfer ja @Plinz

          Formulating learning as an optimisation problem is what made ML work.

          1 vastaus 0 uudelleentwiittausta 0 tykkäystä
        3. Pedro Domingos‏ @pmddomingos 18. marrask. 2021
          Vastauksena käyttäjille @patrickmesana, @mayfer ja @Plinz

          That was part of it, but now we need to go to the next level.

          1 vastaus 0 uudelleentwiittausta 1 tykkäys
        4. Näytä vastaukset

      Lataaminen näyttää kestävän hetken.

      Twitter saattaa olla ruuhkautunut tai ongelma on muuten hetkellinen. Yritä uudelleen tai käy Twitterin tilasivulla saadaksesi lisätietoja.

        Mainostettu twiitti

        false

        • © 2022 Twitter
        • Tietoja
        • Ohjekeskus
        • Ehdot
        • Yksityisyyskäytäntö
        • Evästeet
        • Mainosten tiedot