You mean "fewer errors" :-)
-
-
-
This may have been avoided if the tweet was passed through the LaserTagger model that was trained for the GEC task!
Kraj razgovora
Novi razgovor -
-
-
I'm surprised this hasn't been done before! I know folks have done sequence tagging for extractive summarization at the level of deciding which sentences to keep. Is this the first work on doing the same at the token level? Or is it the focus on inference speed that's novel?
-
I haven't read the paper in detail yet, but I remember something similar for sentence simplificationhttps://www.aclweb.org/anthology/P19-1331/ …
- Još 1 odgovor
Novi razgovor -
-
-
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
-
-
-
Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
-
-
-
@ZiyadMestour this one is for u manHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
-
-
-
This sounds good but it also contain lot of work and most importantly to apply what is been think or visualize...

Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
-
-
-
@GoogleAI um it's actualy spelled generatting*Hvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
-
-
-
€**()¥7¥£¥78())98£()₩008£())000
@ftHvala. Twitter će to iskoristiti za poboljšanje vaše vremenske crte. PoništiPoništi
-
Čini se da učitavanje traje već neko vrijeme.
Twitter je možda preopterećen ili ima kratkotrajnih poteškoća u radu. Pokušajte ponovno ili potražite dodatne informacije u odjeljku Status Twittera.