this feels like at best a pretty misleading and insensitive comment; 140 characters is limiting, but being more precise might be helpful
-
-
Vastauksena käyttäjille @haldaume3 ja @pmddomingos
other ppl are being nice & providing a partial lit survey, but I suspect you know many of these things, so I'm not sure what your point is
1 vastaus 1 uudelleentwiittaus 29 tykkäystä -
Vastauksena käyttäjille @haldaume3 ja @pmddomingos
if pt is "proven in law", I think (a) that's not even true (cf FB/housing); (b) this shd make us ask ourselves: what is broken abt the law?
1 vastaus 1 uudelleentwiittaus 37 tykkäystä -
Vastauksena käyttäjille @haldaume3 ja @pmddomingos
if pt is "proven in the literature" then it would be nice to know which aspects of the *massive* amount of published results you disagree w.
2 vastausta 2 uudelleentwiittausta 39 tykkäystä -
Vastauksena käyttäjille @haldaume3 ja @pmddomingos
Nothing about the original statement is true, even allowing for specialized definitions.
1 vastaus 0 uudelleentwiittausta 7 tykkäystä -
Vastauksena käyttäjille @AlvinGrissomII ja @pmddomingos
yeah, I'm curious about what was actually meant/intended
3 vastausta 0 uudelleentwiittausta 1 tykkäys -
Vastauksena käyttäjille @haldaume3 ja @AlvinGrissomII
I meant discrimination proved in court where the culprit was the ML algorithm, not the data or the people using it. Do you know of any?
12 vastausta 2 uudelleentwiittausta 8 tykkäystä -
Algorithms can't be tried in court. No algorithm is racist or sexist in design, it is always a fxn of data or implementation. You know this.
3 vastausta 5 uudelleentwiittausta 36 tykkäystä -
By "culprit" I mean "cause", not "guilty party". People/data/hand-coded algorithms can be biased. ML algorithms can't. Many don't know this.
4 vastausta 0 uudelleentwiittausta 3 tykkäystä -
Vastauksena käyttäjille @pmddomingos, @ruchowdh ja
Every ML alg I've worked with over-predicts the majority class. In many classes, that leads to discrimination against human minorities
3 vastausta 16 uudelleentwiittausta 61 tykkäystä
That's poor calibration, not bias. (To solve a problem we need to first diagnose it correctly.)
-
-
Vastauksena käyttäjille @pmddomingos, @haldaume3 ja
So you claim no ML algorithm has discriminated because EVERYONE properly calibrates their ML algorithms?
3 vastausta 2 uudelleentwiittausta 7 tykkäystä -
Vastauksena käyttäjille @tdietterich, @pmddomingos ja
No, most people don't but that does not mean that the algorithm discriminates, but that the designers are incapable.
1 vastaus 0 uudelleentwiittausta 0 tykkäystä - Näytä vastaukset
Uusi keskustelu -
Lataaminen näyttää kestävän hetken.
Twitter saattaa olla ruuhkautunut tai ongelma on muuten hetkellinen. Yritä uudelleen tai käy Twitterin tilasivulla saadaksesi lisätietoja.