টুইট

আপনি @s010n-কে ব্লক করেছেন

আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @s010n অবরোধ মুক্ত হবে না।

  1. পিন করা টুইট
    ১৬ সেপ্টেম্বর, ২০১৭

    Pretty damn excited about my new class on fairness, accountability, and transparency in machine learning!

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  2. পুনঃ টুইট করেছেন
    ১৮ জুলাই

    Folks, last chance to register for tomorrow’s conference. We’ll have experts, activists, artists, and everyone in between.

    পূর্বাবস্থায়
  3. পুনঃ টুইট করেছেন
    ১৮ জুলাই

    An online textbook on fairness and machine learning, work in progress with and available at . We hope you find it useful. Your feedback will shape the book as it grows.

    পূর্বাবস্থায়
  4. পুনঃ টুইট করেছেন
    ১৩ জুলাই

    If you're at this weekend, come join my session with ace colleague and collaborator ! We're going to discuss the hard challenges of fairness & justice in ML, and the dangers of narrow 'tech fixes' 💻🔧🕳️

    পূর্বাবস্থায়
  5. পুনঃ টুইট করেছেন
    ১৪ জুন

    Program for the Mechanism Design for Social Good workshop up!!! and I are very excited to share this incredible line-up of keynote speakers, panelists, and submitted talks with you all!

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  6. পুনঃ টুইট করেছেন
    ১৪ জুন

    1/ I’m thrilled to open registration - and announce our current speakers - for : Government Monitoring of American Religious Minorities (July 19). RSVP here: Why come? Let me tell you.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  7. ১২ জুন

    The next Conference on Fairness, Accountability, and Transparency () will take place early next year in Atlanta, GA. Abstracts due 8/16; full papers due 8/23.

    পূর্বাবস্থায়
  8. পুনঃ টুইট করেছেন
    ৩০ মে

    we are hiring a 3-yr postdoc in algorithmic fairness at : . are you a good translator interested in working with both the technical and legal/soc_sci communities? come and join us!

    পূর্বাবস্থায়
  9. ২৫ মে

    It’s crazy that it’s been 10 years since this book came out. It’s also hard to overstate how much it influenced my academic career. I highly recommend that you grab one of these spaces if you’re in the area…

    পূর্বাবস্থায়
  10. পুনঃ টুইট করেছেন
    ১ মে

    Excited to share some of my work on data, violence, and discrimination: "Data Violence and How Bad Engineering Choices Can Damage Society" - i.e., there's no such thing as "just" an engineer.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  11. ১৩ এপ্রিল
    -কে উত্তর দিচ্ছেন

    As if there weren’t already innumerable reasons to be super grateful for , her gold standard-setting live-tweeting from makes me much less sad that I’m not there in person

    পূর্বাবস্থায়
  12. পুনঃ টুইট করেছেন
    ৪ এপ্রিল

    Excited to announce FAT/ML 2018 in on! This year we’re co-located with in Stockholm 🇸🇪. Call for Papers (due 5/1):

    পূর্বাবস্থায়
  13. পুনঃ টুইট করেছেন
    ৩ এপ্রিল

    Please consider submitting your work to the fairness, accountability and transparency in machine learning workshop at ICML:

    পূর্বাবস্থায়
  14. পুনঃ টুইট করেছেন
    ২২ মার্চ

    The 2nd Workshop on Mechanism Design for Social Good is on at EC '18 (at Cornell)!!! Consider submitting your theory/applied work on algorithms & mechanism design + empirical work that can suggest future directions! CFP: Co-chaired with

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  15. পুনঃ টুইট করেছেন
    ১৫ মার্চ

    Ah, such a wonderful graphic rendering of 's project on Allocative vs. Representational Harms in ML, courtesy Gary Chronicler. 03/13/18 session of our seminar

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  16. পুনঃ টুইট করেছেন
    ১৩ মার্চ

    "Delayed Impact of Fair Machine Learning" tries to get at the often subtle delayed cost of imposing common fairness criteria. Now available

    পূর্বাবস্থায়
  17. পুনঃ টুইট করেছেন
    ১২ মার্চ

    3 days left to submit an abstract for the Amsterdam Privacy Conference. All disciplines welcome, FATML type stuff also very welcome!

    পূর্বাবস্থায়
  18. পুনঃ টুইট করেছেন
    ১২ মার্চ

    New Yorkers! come join for Tuesday's Digital Life seminar , feat. , presenting work in conjunction w. The Problem with Bias: Allocative vs. Representational Harms in Machine Learning

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  19. ৯ মার্চ
    পূর্বাবস্থায়
  20. পুনঃ টুইট করেছেন
    ৯ মার্চ
    পূর্বাবস্থায়
  21. পুনঃ টুইট করেছেন
    ৭ মার্চ

    "Data can be neutralized" is the new "Data is neutral"

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়

লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

    আপনিও পছন্দ করতে পারেন

    ·