টুইট

আপনি @fly51fly-কে ব্লক করেছেন

আপনি কি এই টুইটগুলি দেখতে চাওয়ার বিষয়ে নিশ্চিত? টুইটগুলি দেখা হলে @fly51fly অবরোধ মুক্ত হবে না।

  1. পুনঃ টুইট করেছেন
    ১৯ এপ্রিল

    Why yes, we did just train CIFAR10 ~2000% faster than the previous best on DAWNBench, using fastai and . :) Blog post on how we did it coming soon - but first we have some more experiments to run...

    পূর্বাবস্থায়
  2. পুনঃ টুইট করেছেন
    ১৮ এপ্রিল

    Yet another paper using compression to get generalization bounds (on large neural networks). One difference, this paper does the hard work to actually turn them into nonvacuous bounds. I think this step is important.

    পূর্বাবস্থায়
  3. পুনঃ টুইট করেছেন
    ১৮ এপ্রিল

    The integration of TensorFlow with 's TensorRT optimizes neural network models & speeds up inference across GPU-accelerated platforms. Users can expect high inference performance plus a near transparent workflow Learn more on the TensorFlow blog ↓

    পূর্বাবস্থায়
  4. পুনঃ টুইট করেছেন
    ১৮ এপ্রিল

    Nice work from OpenAI on evolving loss functions to quickly master new tasks:

    পূর্বাবস্থায়
  5. পুনঃ টুইট করেছেন
    ১৭ এপ্রিল

    Fantastic new paper from FAIR folks: Mechanical Turker Descent or a procedure to collect high quality annotations from multiple Turkers.

    পূর্বাবস্থায়
  6. পুনঃ টুইট করেছেন
    ১৭ এপ্রিল

    Self-driving cars are often used an example of how adversarial attacks can do harm in the real world. In our new preprint, , , and I argue that medicine is the perfect storm of incentive + opportunity for adversarial attacks:

    পূর্বাবস্থায়
  7. পুনঃ টুইট করেছেন
    ১৭ এপ্রিল
    পূর্বাবস্থায়
  8. পুনঃ টুইট করেছেন
    ১৭ এপ্রিল

    “This result leads to a new way of initializing gate biases in LSTMs and GRUs. This new ‘Chrono Initialization’ is shown to greatly improve learning of long term dependencies, with minimal implementation effort.”

    পূর্বাবস্থায়
  9. পুনঃ টুইট করেছেন
    ১৭ এপ্রিল

    I am a huge fan of any attempts to SIMPLIFY existing approaches. We need more of this, rather than the overfitting circus that seems to be the norm. The unreasonable effectiveness of the forget gate

    পূর্বাবস্থায়
  10. পুনঃ টুইট করেছেন
    ১৭ এপ্রিল

    This week's winner looks at uses decision trees to study dementia outcomes

    পূর্বাবস্থায়
  11. পুনঃ টুইট করেছেন
    ১৭ এপ্রিল

    RNN's gating mechanisms can be derived from the invariance to general time transformations. Based on this insight they proposed a new initialization "chrono initialization" that adjust the biases of gates, that can deal with long-term dependencies.

    পূর্বাবস্থায়
  12. পুনঃ টুইট করেছেন
    ১৭ এপ্রিল

    Released Chainer/CuPy v4.0.0! : Major performance improvements including TensorCore support and iDeep backend, NCCL2 support, Caffe export. : CUDA 9.1 support, wheel package, FFT support, etc. More in the blog post and release notes.

    পূর্বাবস্থায়
  13. পুনঃ টুইট করেছেন
    ১৭ এপ্রিল
    পূর্বাবস্থায়
  14. পুনঃ টুইট করেছেন
    ১৭ এপ্রিল

    Summary of winning solution for Data Science Bowl 2018 - modified U-Net > Mask-RCNN - add borders btw cells as targets - heavy augmentations - deep encoders: DPN-92, Resnet-152, InceptionResnetV2 - watershed + morphology for postprocessing

    পূর্বাবস্থায়
  15. পুনঃ টুইট করেছেন
    ১৭ এপ্রিল

    A step-by-step walkthrough (with Keras implementation) of & Juergen's "World Models" paper:

    পূর্বাবস্থায়
  16. পুনঃ টুইট করেছেন
    ১৭ এপ্রিল
    পূর্বাবস্থায়
  17. পুনঃ টুইট করেছেন
    ১৬ এপ্রিল

    The unreasonable effectiveness of the forget gate: they stripped LSTM of all but the forget gate

    পূর্বাবস্থায়
  18. পুনঃ টুইট করেছেন
    ১৬ এপ্রিল

    Much like boolean algebra isn't fundamental to computing & programming in an abstract sense, but rather is an arbitrary low-level design choice, I don't think brains are fundamental to intelligence. I'd posit the most compact substrate for defining cognition is mathematics.

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়
  19. পুনঃ টুইট করেছেন
    ১৩ এপ্রিল

    The major finding is: ”The forecasting accuracy of ML forecasting methods is lower than the worst of statistical ones while the accuracy of more than half the ML methods is lower than a random walk”.

    পূর্বাবস্থায়
  20. পুনঃ টুইট করেছেন
    ১৬ এপ্রিল

    MUNIT: Multimodal unsupervised image-to-image translation. Learn to translate one input dog image to a distribution of cat images without paired training data. paper: code: by

    এই থ্রেডটি দেখান
    পূর্বাবস্থায়

লোড হতে বেশ কিছুক্ষণ সময় নিচ্ছে।

টুইটার তার ক্ষমতার বাইরে চলে গেছে বা কোনো সাময়িক সমস্যার সম্মুখীন হয়েছে আবার চেষ্টা করুন বা আরও তথ্যের জন্য টুইটারের স্থিতি দেখুন।

    আপনিও পছন্দ করতে পারেন

    ·