Mathieu Blondel

@mblondel_ml

Research scientist at NTT CS labs, scikit-learn core developer. I tweet mainly about machine learning research and scientific programming in Python.

Kyoto, Japan
যোগদান করেছেন জুন ২০০৯

টুইট

আপনি @mblondel_ml-কে ব্লক করেছেন

আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @mblondel_ml অবরোধ মুক্ত হবে না।

  1. পিন করা টুইট
    ২১ জুন

    Our paper studying Fenchel-Young losses, a generic way to construct convex loss functions from a regularizer. They unify many existing losses (logistic, hinge, sparsemax) and allow to create new ones easily Joint work w/ André Martins and

    পূর্বাবস্থায়
  2. পুনঃ টুইট করেছেন
    ১৬ জুলাই

    Scikit-learn cares about quality. We take time to ensure correctness, speed, ease of use, stability... Sometimes, ... a lot of time :)

    পূর্বাবস্থায়
  3. পুনঃ টুইট করেছেন
    ১৩ জুলাই

    . presenting the Celer algorithm for the Lasso at ! 200 times faster than state-of-the-art on the finance dataset 🏎💨 Code available online, using the sk-learn API:

    পূর্বাবস্থায়
  4. পুনঃ টুইট করেছেন
    ১২ জুলাই

    Earlier today Guido announced he will step down as Python’s Benevolent Dictator. The PSF and Pythonistas everywhere are deeply grateful for all he has done creating Python and guiding it for so long.

    পূর্বাবস্থায়
  5. ১১ জুলাই
    পূর্বাবস্থায়
  6. ১০ জুলাই

    presents our work at Talk: Thu Jul 12th 11:20 -- 11:40 AM @ A5 Poster: Thu Jul 12th 6:15 -- 9:00 PM @ Poster 48

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  7. ১০ জুলাই

    Smoothing the max operator in a dynamic program recursion induces a random walk on the computational graph. The expected path on that walk can be computed efficiently by backpropagation, which converges to backtracking as smoothing vanishes.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  8. পুনঃ টুইট করেছেন
    ১০ জুলাই
    পূর্বাবস্থায়
  9. পুনঃ টুইট করেছেন
    ১০ জুলাই

    ✈️ to ! If you're around, come see our SparseMAP talk (Structured Prediction I, 11:20, Wed) or our poster (18:15, Wed) to say hi! Paper: Code: arXiv: +André Martins, , Terminal 1-এ

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  10. পুনঃ টুইট করেছেন
    ৫ জুলাই

    The European commission contracted Elsevier to monitor open science in Europe. This is like putting the mafia in charge of monitoring the police and the justice system. Elsevier has historically done all it can to...

    পূর্বাবস্থায়
  11. ৪ জুলাই
    পূর্বাবস্থায়
  12. ৩ জুলাই
    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  13. পুনঃ টুইট করেছেন
    ২২ জুন

    Thanks for the invitation ! Slides of my lecture on "Likelihood-free inference, effectively" can be found at (joint work with and J. Brehmer)

    পূর্বাবস্থায়
  14. পুনঃ টুইট করেছেন
    ২০ জুন

    Proud to announce that my first research article with & M. Casotto is on arxiv! "Variance Reduced Three Operator Splitting" explores new variants of SAGA & SVRG algorithms for objectives with complex penalties.

    পূর্বাবস্থায়
  15. পুনঃ টুইট করেছেন
    ১৫ মে

    New post on two exciting papers at ICML 2018: Differentiable Dynamic Programs and SparseMAP Inference

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  16. পুনঃ টুইট করেছেন
    ১৬ জুন

    when i was four, i was taken away from my father during an intense custody battle and placed in a group home for several years by an idiot judge. we went to parks and zoos, too, and then i’d cry myself to sleep most nights. the trauma left me bent for years. this is child abuse.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  17. পুনঃ টুইট করেছেন
    ১৫ জুন

    Finally. Latest Keynote 8.1 update brings native LaTeX and MathML equation editing.

    পূর্বাবস্থায়
  18. পুনঃ টুইট করেছেন
    ১৫ জুন

    On Euclidean space, Maximum Mean Discrepancy norms between measures are L2 norms of smoothed versions of the inputs. Equivalently defined as integration against a correlation kernel. Negative Sobolev spaces are special cases.

    পূর্বাবস্থায়
  19. পুনঃ টুইট করেছেন
    ২২ এপ্রিল

    Michael Jordan warns us that e.g. deep learning is going to lead to "... bad medical decisions being made for hundreds of thousands of people per day ... we're not even close to being able to solve those problems and we're acting as if we are."

    পূর্বাবস্থায়
  20. ৮ জুন

    Slides of my talk at École Normale Supérieure de Paris "Smoothing/Regularization Techniques for Probabilistic and Structured Classification" I give the big picture on regularized prediction functions, Fenchel-Young losses, SparseMAP and differentiable DP.

    পূর্বাবস্থায়

লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

    আপনিও পছন্দ করতে পারেন

    ·