We now have 70+ contributed community models, which you can download and use right now! See the list here:https://huggingface.co/models
-
-
Prikaži ovu nitHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
-
-
-
Is pretraining from scratch also supprted in the new version?
-
Depends on the model. Without
@GoogleAI releasing BERT's wordpiece tokenizer, it's not possible to really retrain / "replicate" the model exactly. Closely proxy would be to use@taku910 sentencepiece or@RicoSennrich BPE in place of wordpiece when retraining Google's BERT. - Još 2 druga odgovora
Novi razgovor -
-
-
@umobugafeiditai look, it has RoBERTa and now it has UmBERToHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
-
-
-
Are you planning to integrate Reformer?
- Kraj razgovora
Novi razgovor -
-
-
Training from scratch a feature I was waiting :)
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
-
-
-
@sandropezzelle too late for flaubertHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
-
-
-
Looking forward to more multi-modal models!
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
-
-
-
Nice library, so fast to catch it's updates.
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
-
Čini se da učitavanje traje već neko vrijeme.
Twitter je možda preopterećen ili ima kratkotrajnih poteškoća u radu. Pokušajte ponovno ili potražite dodatne informacije u odjeljku Status Twittera.
- Training transformers from scratch is now supported
- New models, including *FlauBERT*, Dutch BERT, *UmBERTo*
- Revamped documentation
- First multi-modal model, MMBT from 