@JohnMu, you know that crawlers don't visit small website as frequent as big ones. So for any update on key pages and indexing faster we depend on the URL submission tool. By removing the access to the tool, you are favoring big websites and hitting hard on small ones.https://twitter.com/JohnMu/status/1325723111480758273 …
-
-
Theory and practice always the same concern : we want a real efficient indexing and not out and wait between 3 and 10 days to index a new article. Will the manual function come back or will it be complicated?
Bedankt, Twitter gebruikt dit om je tijdlijn te verbeteren. Ongedaan makenOngedaan maken
-
-
-
John yes sitemap is a minimal baseline but there are still errors "Couldn't fetch" in submitting sitemaps since the launch of the new Search Console version... Is it normal? https://support.google.com/webmasters/search?q=couldn%27t+fetch …pic.twitter.com/79VJAqL58P
Bedankt, Twitter gebruikt dit om je tijdlijn te verbeteren. Ongedaan makenOngedaan maken
-
-
-
it depends on the size of a website. If you have 10/100/1000 pages you can be a serious website even without a sitemap. The sitemap is mainly useless in a lor of use cases.
Bedankt, Twitter gebruikt dit om je tijdlijn te verbeteren. Ongedaan makenOngedaan maken
-
Het laden lijkt wat langer te duren.
Twitter is mogelijk overbelast of ondervindt een tijdelijke onderbreking. Probeer het opnieuw of bekijk de Twitter-status voor meer informatie.