ছেড়ে সামগ্রীতে যান
টুইটার পরিষেবাগুলি ব্যবহার করে আপনি আমাদের কুকিজ ব্যবহারএ সম্মতি জানাচ্ছেন৷ আমরা এবং আমাদের পার্টনাররা বিশ্বব্যাপী কাজ করি এবং অ্যানালিটিক্স, ব্যক্তিগতকরণ এবং বিজ্ঞাপন সমেত বিভিন্ন কারণে কুকি ব্যবহার করি৷
  • হোম হোম হোম, বর্তমান পৃষ্ঠা।
  • সম্বন্ধে

সংরক্ষিত অনুসন্ধানসমূহ

  • সরান
  • এই কথা-বার্তাতে
    যাচাইকৃত অ্যাকাউন্টসুরক্ষিত টুইটসমূহ @
প্রস্তাবিত ব্যবহারকারীগণ
  • যাচাইকৃত অ্যাকাউন্টসুরক্ষিত টুইটসমূহ @
  • যাচাইকৃত অ্যাকাউন্টসুরক্ষিত টুইটসমূহ @
  • ভাষা : বাংলা.
    • मराठी
    • हिन्दी
    • ગુજરાતી
    • தமிழ்
    • ಕನ್ನಡ
    • Bahasa Indonesia
    • Bahasa Melayu
    • Català
    • Čeština
    • Dansk
    • Deutsch
    • English
    • English UK
    • Español
    • Filipino
    • Français
    • Hrvatski
    • Italiano
    • Magyar
    • Nederlands
    • Norsk
    • Polski
    • Português
    • Română
    • Slovenčina
    • Suomi
    • Svenska
    • Tiếng Việt
    • Türkçe
    • Ελληνικά
    • Български език
    • Русский
    • Српски
    • Українська мова
    • עִבְרִית
    • العربية
    • فارسی
    • ภาษาไทย
    • 한국어
    • 日本語
    • 简体中文
    • 繁體中文
  • একটি অ্যাকাউন্ট আছে? লগ ইন
    একটি অ্যাকাউন্ট আছে?
    · পাসওয়ার্ড ভুলে গেছেন?

    টুইটার-এ নতুন ?
    নিবন্ধন করুন
goodfellow_ian-এর প্রোফাইল
Ian Goodfellow
Ian Goodfellow
Ian Goodfellow
@goodfellow_ian

Tweets

Ian Goodfellow

@goodfellow_ian

Google Brain research scientist leading a team studying adversarial techniques in AI. Lead author of http://www.deeplearningbook.org 

San Francisco, CA
iangoodfellow.com
যোগদান করেছেন সেপ্টেম্বর ২০১৬

Tweets

  • © 2018 টুইটার
  • সম্বন্ধে
  • সাহায্য কেন্দ্র
  • শর্তাবলী
  • গোপনীয়তা নীতি
  • কুকিগুলো
  • বিজ্ঞপ্তি তথ্য
খারিজ
পূর্ববর্তী
পরবর্তী

একজন ব্যক্তির প্রোফাইলে যান

সংরক্ষিত অনুসন্ধানসমূহ

  • সরান
  • এই কথা-বার্তাতে
    যাচাইকৃত অ্যাকাউন্টসুরক্ষিত টুইটসমূহ @
প্রস্তাবিত ব্যবহারকারীগণ
  • যাচাইকৃত অ্যাকাউন্টসুরক্ষিত টুইটসমূহ @
  • যাচাইকৃত অ্যাকাউন্টসুরক্ষিত টুইটসমূহ @

এই টুইটটির প্রচার করুন

ব্লক করুন

  • একটি অবস্থান সহ টুইট করুন

    আপনি আপনার টুইটগুলিতে ওয়েব থেকে এবং তৃতীয়-পক্ষ অ্যাপ্লিকেশনগুলির মাধ্যমে অবস্থান তথ্য যেমন শহর বা সুনির্দিষ্ট অবস্থান যোগ করতে পারবেন। আপনার কাছে আপনার টুইটের অবস্থান ইতিহাস মোছার বিকল্প থাকবে। আরও জানুন

    আপনার তালিকাসমূহ

    একটি নতুন তালিকা তৈরি করুন


    100 অক্ষরের কম, ঐচ্ছিক

    গোপনীয়তা

    লিঙ্কটিকে টুইটে অনুলিপি করুন

    এই টুইট স্থাপিত কর

    Embed this Video

    নীচের কোডটি অনুলিপি করে আপনার ওয়েবসাইটে এই টুইটটি যোগ করুন। আরও জানুন

    নীচের কোডটি অনুলিপি করে আপনার ওয়েবসাইটে এই ভিডিওটি যোগ করুন। আরও জানুন

    হুম, সার্ভারে পৌঁছনোর একটি সমস্যা ছিল।

    আপনার ওয়েবসাইটে বা অ্যাপে টুইটার সামগ্রী এম্বেড করে আপনি টুইটার ডেভেলপার চুক্তি এবং ডেভেলপার নীতি-এর সাথে সম্মত হচ্ছেন।

    প্রাকদর্শন

    আপনি কেন এই বিজ্ঞাপন দেখছেন

    টুইটারে লগইন করুন

    · পাসওয়ার্ড ভুলে গেছেন?
    কোনও অ্যাকাউন্ট নেই? নিবন্ধন করুন »

    টুইটারে নিবন্ধন করুন

    টুইটারে নেই? নিবন্ধন করুন, আপনির পছন্দের বিষয়গুলির সাথে যুক্ত হন, এবং তাদের বিষয়ে হালনাগাদ পান।

    নিবন্ধন করুন
    একটি অ্যাকাউন্ট আছে? লগ ইন »

    দুটি উপায় (প্রেরণ এবং গ্রহণ) শর্ট কোড:

    দেশ কোড গ্রাহকদের জন্য
    মার্কিন যুক্তরাষ্ট্র 40404 (যে কোন)
    কানাডা 21212 (যে কোন)
    যুক্তরাজ্য 86444 Vodafone, Orange, 3, O2
    ব্রাজিল 40404 Nextel, TIM
    হাইতি 40404 Digicel, Voila
    আয়ারল্যান্ড 51210 Vodafone, O2
    ভারত 53000 Bharti Airtel, Videocon, Reliance
    ইন্দোনেশিয়া 89887 AXIS, 3, Telkomsel, Indosat, XL Axiata
    ইতালি 4880804 Wind
    3424486444 Vodafone
    » অন্য দেশসমুহের এসএসএস সংক্ষিপ্ত কোড দেখুন

    নিশ্চিতকরণ

     

    হোমে স্বাগতম!

    আপনার কাছে গুরুত্বপূর্ণ বিষয়গুলি সম্পর্কে তাত্ক্ষণিক আপডেট পেয়ে সময়রেখাতে আপনি সবচেয়ে বেশী সময় কাটান।

    আপনার জন্য টুইটগুলি কাজ করছে না?

    প্রোফাইল ছবির উপরে যান এবং কোনো অ্যাকাউন্টকে করা অনুসরণ বাতিল করতে অনুসরণ করছি বোতামটি ক্লিক করুন।

    অল্প কথায় অনেক কিছু বলুন

    আপনি যখন পছন্দের কোনো টুইট দেখেন তখন হৃদয়টি আলতো চাপুন — এতে যে ব্যক্তি সেটি লিখেছেন তিনি জানবেন যে আপনি ভালোবাসা শেয়ার করেছেন।

    শব্দ ছড়িয়ে দিন

    আপনার অনুসরণকারীদের সাথে কারোর টুইট শেয়ার করে নেওয়ার সবচেয়ে দ্রুত উপায় হল পুনঃটুইট। অবিলম্বে তা পাঠাতে আইকনটি আলতো চাপুন।

    কথোপকথনে যোগ দিন

    জবাব দিয়ে যেকোনো টুইট সম্পর্কে আপনার মতামত যোগ করুন। আপনার আবেগের কোনো প্রসঙ্গ খুঁজুন ও সরাসরি তাতে চলে যান।

    সাম্প্রতিক জানুন

    লোকেরা এখন কী নিয়ে কথা বলছে তাতে তাত্ক্ষণিক অন্তর্দৃষ্টি পান।

    আপনার ভালোবাসার জিনিস আরও পান

    আপনার আগ্রহের প্রসঙ্গ সম্পর্কে তাত্ক্ষণিক আপডেটগুলি পেতে আরও অ্যাকাউন্ট অনুসরণ করুন।

    কী ঘটছে দেখুন

    অবিলম্বে যেকোনো প্রসঙ্গ সম্পর্কে সাম্প্রতিক কথোপকথনগুলি দেখুন।

    কখনও কোনো মুহূর্ত মিস করবেন না

    সেরা কাহিনীগুলি প্রকাশিত হলে তা অবিলম্বে পান।

    1. Ian Goodfellow‏ @goodfellow_ian ১৫ মে

      A quick thread on two of my favorite theory hacks for machine learning research

      ৪ replies ২৭৬ টি পুনঃটুইট ৯৫৭টি পছন্দ
      এই থ্রেডটি দেখান
    2. Ian Goodfellow‏ @goodfellow_ian ১৫ মে

      A lot of the time, we want to analyze the optimal behavior of a neural net using algebra / calculus. Neural net models are usually too complicated for you to algebraically solve for the parameters that optimize most functions (unless it's some trivial function like weight decay)

      ১ reply ১ টি পুনঃটুইট ৪৮টি পছন্দ
      এই থ্রেডটি দেখান
      Ian Goodfellow‏ @goodfellow_ian ১৫ মে

      To get a less complicated model, a common instinct is to use a linear model. This is nice because it makes a lot of optimization problems convex. But it has a downside: a linear model can't do a lot of things a neural net can do. The solution becomes very oversimplified.

      ৫:১৫ PM - ১৪ মে, ২০১৮
      • ৪টি পুনঃ টুইট
      • ৪৯টি পছন্দ
      • Sabrina castarco Dan Goldberg George Williams ChinHui.ai Chaitanya Bapat Adrian Moldovan Saman Eskandarzadeh Zarreen Naowal Reza
      ১ reply ৪ টি পুনঃটুইট ৪৯টি পছন্দ
        1. নতুন কথা-বার্তা
        2. Ian Goodfellow‏ @goodfellow_ian ১৫ মে

          Theory Hack #1: Model the neural net as an arbitrary function (so you optimize over the space of all functions f, rather than parameters theta for a particular neural net architecture). This is very clean compared to working with parameters and specific architectures.

          ৬ replies ১৮ টি পুনঃটুইট ১০৩টি পছন্দ
          এই থ্রেডটি দেখান
        3. Ian Goodfellow‏ @goodfellow_ian ১৫ মে

          The neural-net-as-function metaphor retains the main advantage of the linear model: many interesting problems are convex! For example, cross-entropy loss for a classifier is convex in function space.

          ২ replies ৫ টি পুনঃটুইট ৫৭টি পছন্দ
          এই থ্রেডটি দেখান
        4. Ian Goodfellow‏ @goodfellow_ian ১৫ মে

          This is also not too inaccurate of an assumption, especially compared to the linear model assumption. The universal approximator theorem says that neural nets can approximate arbitrary functions arbitrarily well.

          ৩ replies ৩ টি পুনঃটুইট ৪১টি পছন্দ
          এই থ্রেডটি দেখান
        5. Ian Goodfellow‏ @goodfellow_ian ১৫ মে

          Theory Hack #2: If you're having trouble thinking about optimizing in the space of all functions, imagine that a function is just a vector with very many entries. Instead of a function evaluation f(x) with x in R^n, imagine a vector lookup f_x where x is an integer index.

          ১ reply ১৩ টি পুনঃটুইট ৮৪টি পছন্দ
          এই থ্রেডটি দেখান
        6. Ian Goodfellow‏ @goodfellow_ian ১৫ মে

          With Theory Hack #2, now optimizing over functions is just a regular calculus problem. Hack #2 is intuitive but not 100% accurate. For a more formal version and some information on restrictions about when you can use it, see http://www.deeplearningbook.org/contents/inference.html … sec 19.4.2

          ১ reply ৬ টি পুনঃটুইট ৭৪টি পছন্দ
          এই থ্রেডটি দেখান
        7. Ian Goodfellow‏ @goodfellow_ian ১৫ মে

          My co-authors and I used both theory hack #1 and #2 to derive eq 2 of the GAN paper: https://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf …

          ২ replies ১১ টি পুনঃটুইট ১১৩টি পছন্দ
          এই থ্রেডটি দেখান
        8. Ian Goodfellow‏ @goodfellow_ian ১৫ মে

          Bonus: A great source of related theory hacks is Sec 3.2 of https://web.stanford.edu/~boyd/cvxbook/bv_cvxbook.pdf … . You can use these properties to prove that functions of functions are convex by construction using composition rules. No need to prove that second functional derivatives are positive, etc.

          ৪ replies ৩৮ টি পুনঃটুইট ২৩১টি পছন্দ
          এই থ্রেডটি দেখান
        9. কথা-বার্তা শেষ

      লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

      টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

        বিজ্ঞাপিত টুইট

        false

        • © 2018 টুইটার
        • সম্বন্ধে
        • সাহায্য কেন্দ্র
        • শর্তাবলী
        • গোপনীয়তা নীতি
        • কুকিগুলো
        • বিজ্ঞপ্তি তথ্য