1/ Tensorflow eager mode in 12 tweets. You are going to love tweet #12
To begin, import and enable eager mode:pic.twitter.com/5UloE69nEp
আপনি আপনার টুইটগুলিতে ওয়েব থেকে এবং তৃতীয়-পক্ষ অ্যাপ্লিকেশনগুলির মাধ্যমে অবস্থান তথ্য যেমন শহর বা সুনির্দিষ্ট অবস্থান যোগ করতে পারবেন। আপনার কাছে আপনার টুইটের অবস্থান ইতিহাস মোছার বিকল্প থাকবে। আরও জানুন
5/ Tensorflow eager knows how to compute the gradient for this loss, relatively to the implicit weights and biases of your layers. "grads" is now a function of the same parameters as your loss function.pic.twitter.com/134PBH43d9
7/ And finally the training loop. You are passing your model as a parameter to grads so it is pretty obvious what weights and biases are being modified by the training.pic.twitter.com/l2aoPOWFhF
8/ To pipe data into your training loop, my_next_batch() can be implemented with vanilla Python or use the http://tf.data .Dataset API which allows training on out of memory datasets. In eager mode, it is very natural to use:pic.twitter.com/ygggQGjizG
9/ For power-users, there are alternative functions for computing gradients in eager mode: implicit_value_and_gradients gets the value of the loss at the same time as gradients. The code above can be made slightly more efficient:pic.twitter.com/q2eUvBzQWJ
10/ Also, tfe.GradientTape for differentiating any piece of code against any set of variables. Handy if you do not want to wrap your loss into a function and know the list of trainable variables explicitly, as in Keras Models where the list is in model.variables.pic.twitter.com/zs7sXgyrDC
11/ The code in a colab notebook for you to play with:https://drive.google.com/file/d/1WjjGLESzzyL2WLRjcpNBCmz1vFwsDNev/view?usp=sharing …
12/ And now the really cool part. Here is my model paused during training in a vanilla Python debugger: the values of weights, biases, activations, you name it are now visible. Yay! Eager rocks!pic.twitter.com/LiSTVwCvGy
টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।