Data Science Renee

@BecomingDataSci

Creator/Host of Becoming a Data Scientist Podcast // // Personal acct: // Data Scientist at

Harrisonburg, VA
যোগদান করেছেন ফেব্রুয়ারী ২০১৪

টুইট

আপনি @BecomingDataSci-কে ব্লক করেছেন

আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @BecomingDataSci অবরোধ মুক্ত হবে না।

  1. পুনঃ টুইট করেছেন
    ১৫ ঘন্টা আগে

    ICYMI: Our Tableau Foundation Community Grants are now open! The deadline for applications is July 27—apply today:

    পূর্বাবস্থায়
  2. পুনঃ টুইট করেছেন
    ১৪ জুলাই

    I gave talks at a local University on "What is data science?" before I even became a data scientist! You know something other people don't, and your own experiences are valuable to others' learning!

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  3. পুনঃ টুইট করেছেন
    ১৪ জুলাই

    I've only been doing data science professionally for ~2 yrs (though I've been working with data/analysis my whole career), and I'm giving a keynote at a symposium on how I went from data analyst to data scientist! People can still learn from you even if you're not an "expert".

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  4. পুনঃ টুইট করেছেন
    ১৬ জুলাই

    Just found out there are already more sign-ups for this free online conference than they had last year! 😯 Will be practicing my talk this week! 😅

    পূর্বাবস্থায়
  5. পুনঃ টুইট করেছেন
    ১৫ জুলাই
    পূর্বাবস্থায়
  6. পুনঃ টুইট করেছেন
    ১৭ জুলাই

    Considering going to August 21-24 in NYC this year? Here's a discount code! DATASCI20

    পূর্বাবস্থায়
  7. পুনঃ টুইট করেছেন
    ৫ জুলাই

    Want to help improve the ecosystem and surrounding tools? Volunteer for the Global Sprint, July 28 - August 3 2018!

    পূর্বাবস্থায়
  8. ১৯ ঘন্টা আগে

    Which of you awesome fundraising analytics people will I get to meet at ?

    পূর্বাবস্থায়
  9. পুনঃ টুইট করেছেন
    ১৮ জুলাই

    Equally true for python. Anyone who codes needs google on standby.

    পূর্বাবস্থায়
  10. পুনঃ টুইট করেছেন
    ১৭ জুলাই

    'Awesome Machine Learning': A curated list of awesome machine learning frameworks, libraries and software (by language): >> [by ]

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  11. পুনঃ টুইট করেছেন
    ১৭ জুলাই

    If you use , you'll probably want to bookmark this page: 'Awesome Python', a curated list of awesome Python frameworks, libraries, software and resources.. >> 🐍👍

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  12. ১৭ জুলাই

    Big questions around these practices of pulling in external data to predict risk on your healthcare coverage, loan eligibility, and other data-driven products that impact people's lives.

    পূর্বাবস্থায়
  13. পুনঃ টুইট করেছেন
    ১৭ জুলাই
    উত্তর দিচ্ছেনReplying to এবং অন্য

    It can also affect feature importances. For instance, in Random Forest, it can still work fine classification-wise if you have highly correlated or "redundant" features, but then their importance is "split". If you took either out, the other would become more important.

    পূর্বাবস্থায়
  14. পুনঃ টুইট করেছেন
    ১৭ জুলাই
    উত্তর দিচ্ছেনReplying to এবং অন্য

    if you have a generalized linear model that is not regularized then yes, if it is regularized then no ;)

    পূর্বাবস্থায়
  15. পুনঃ টুইট করেছেন
    ১৭ জুলাই
    উত্তর দিচ্ছেনReplying to এবং অন্য

    you could, but if you don't use generalized models with no regularization you probably won't notice any difference. I think I remember a PR or at least mailing list discussion to add a drop_column param to scikit-learn in future

    পূর্বাবস্থায়
  16. পুনঃ টুইট করেছেন
    ১৭ জুলাই

    3-So should we drop one of the variables after encoding categorical variable into indicator variables or not?

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  17. পুনঃ টুইট করেছেন
    ১৭ জুলাই

    2-LinearRegression() seems to not implement any regularization I made experiments with and without dropping In either case, the coefficients got adjusted only for those categorical variables. Their outputs with same input were the same. The R^2 also did not change.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  18. পুনঃ টুইট করেছেন
    ১৭ জুলাই

    1- We learn that after dummy encoding categorical variables we should drop one of them as otherwise there will be co-linearity in the data or linear dependence. Now if that's the case why does sklearn OneHotEncoding not do that but rather use all the columns?

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  19. পুনঃ টুইট করেছেন
    ১৭ জুলাই

    🤔 Thinking about learning data science and pipelines but don't know where to start? will be teaching "Testing data pipelines: what matters most: data or code" on July 28th at 5pm BST. Save your free seat here:

    পূর্বাবস্থায়
  20. ১৭ জুলাই

    Considering going to August 21-24 in NYC this year? Here's a discount code! DATASCI20

    পূর্বাবস্থায়

লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

    আপনিও পছন্দ করতে পারেন

    ·