Tweetovi
- Tweetovi, trenutna stranica.
- Tweetovi i odgovori
- Medijski sadržaj
Blokirali ste korisnika/cu @_stefan_munich
Jeste li sigurni da želite vidjeti te tweetove? Time nećete deblokirati korisnika/cu @_stefan_munich
-
Prikvačeni tweet
My lab (actually its only me + a self build workstation) trained a large-scale multi-lingual language model (157 languages) that achieves SOTA on nearly all language understanding tasks (except one). Unfortunately, I can't release the full model due to responsible disclosure...
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Training on TPU with fairseq - coming soon
Can't wait to train own RoBERTa models and using them with @huggingface Transformers library
See this GitHub issue:https://github.com/pytorch/fairseq/issues/1045 …Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Stefan proslijedio/la je Tweet
▓░░░░░░░░░░░░░░ 9%
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Thanks for your positive reactions
I'll try to answer all questions now
The repo for Turkish BERT model can be found here:https://github.com/stefan-it/turkish-bert …Prikaži ovu nitHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Turkish-
#NLP: Anyone interested in a Turkish BERT and wants to evaluate it on downstream tasks? I did evaluation only for UD PoS tagging - any help is really appreciated! Would really like to have a proper evaluation before adding it to the@huggingface Transformers hub
Prikaži ovu nitHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Stefan proslijedio/la je Tweet
▓░░░░░░░░░░░░░░ 8%
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
-
Stefan proslijedio/la je Tweet
▓░░░░░░░░░░░░░░ 6%
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Stefan proslijedio/la je Tweet
And the winner of the
#ONBLabs challenge 2019 is
Marcus Bitzl. Congratulations! https://labs.onb.ac.at/en/topic/labs-challenge-2019-winner/ …
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Training corpus was OPUS + OSCAR with a total size of 81GB. More details:https://github.com/dbmdz/berts
Prikaži ovu nitHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Italian
#NLP update: We release our cased and uncased XXL BERT models for Italian
Model can be used with the awesome
/ Transformers library from @huggingface model hub:pic.twitter.com/OPAhz6FD9R
Prikaži ovu nitHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Stefan proslijedio/la je Tweet
▓░░░░░░░░░░░░░░ 5%
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Stefan proslijedio/la je Tweet
▓░░░░░░░░░░░░░░ 4%
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Stefan proslijedio/la je Tweet
(please retweet, thanks)
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Stefan proslijedio/la je Tweet
░░░░░░░░░░░░░░░ 3%
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Stefan proslijedio/la je Tweet
So why do programmers prefer dark mode?
Because light attracts bugs.

Prikaži ovu nitHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Stefan proslijedio/la je Tweet
Now that neural nets have fast implementations, a bottleneck in pipelines is tokenization: strings
model inputs.
Welcome
Tokenizers: ultra-fast & versatile tokenization led by @moi_anthony: -encode 1GB in 20sec -BPE/byte-level-BPE/WordPiece/SentencePiece... -python/js/rust...pic.twitter.com/1TfJ1Hm1xx
Prikaži ovu nitHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Waiting for it
I would like to integrate it into
/ Transformers!
https://twitter.com/stanfordnlp/status/1214637012805799939 …
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Stefan proslijedio/la je Tweet
America, please don’t re-elect this ignorant, dangerous man.
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi -
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
-
Chinese ALBERT models are out
#nlphttps://github.com/google-research/ALBERT …Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
Čini se da učitavanje traje već neko vrijeme.
Twitter je možda preopterećen ili ima kratkotrajnih poteškoća u radu. Pokušajte ponovno ili potražite dodatne informacije u odjeljku Status Twittera.
Member:
-
(
