Esperto di Semalt: una guida per impedire a Google di eseguire la scansione di vecchie Sitemap

Man mano che il tuo sito web cresce, farai del tuo meglio per trovare modi per migliorare la sua visibilità e credibilità su Internet. A volte, gli effetti di come funzionavano i nostri siti rimangono indietro, ed è qui che dovremmo prestare attenzione.

Segui i seguenti suggerimenti da Max Bell, il Customer Success Manager di Semalt , al fine di impedire a Google di eseguire la scansione di vecchi siti.

Alcune settimane fa, uno dei miei clienti mi ha detto che aveva un sito web di e-commerce. Ha subito varie modifiche: dalla struttura dell'URL alla Sitemap, tutto è stato modificato per rendere il sito più visibile.

Il cliente ha notato alcune modifiche nella sua Console di ricerca di Google e ha trovato lì gli errori di scansione. Quello che ha osservato che c'era un gran numero di vecchi e nuovi URL che generavano traffico falso. Alcuni, tuttavia, mostravano errori di Accesso negato 403 e Non trovato 404.

Il mio cliente mi ha detto che il problema più grande che aveva era una vecchia sitemap che esisteva nella cartella principale. Il suo sito Web utilizzava in passato una varietà di plug-in Sitemap XML di Google, ma ora dipendeva da WordPress SEO di Yoast per la mappa del sito. Vari vecchi plug-in sitemap, tuttavia, hanno creato un pasticcio per lui. Erano presenti nella cartella principale denominata sitemap.xml.gz. Da quando ha iniziato a utilizzare i plug-in Yoast per creare sitemap per tutti i post, le categorie di pagine e i tag, non aveva più bisogno di quei plug-in. Sfortunatamente, la persona non ha inviato sitemap.xml.gz a Google Search Console. Aveva inviato solo la sua Sitemap per Yoast e anche Google stava eseguendo la scansione delle sue vecchie Sitemap.

Cosa strisciare?

La persona non ha eliminato la vecchia Sitemap dalla cartella principale, quindi anche questo veniva indicizzato. Sono tornato da lui e gli ho spiegato che una sitemap è solo un suggerimento di ciò che dovrebbe essere sottoposto a scansione nei risultati del motore di ricerca. Probabilmente pensi che l'eliminazione delle vecchie Sitemap impedirà a Google di eseguire la scansione dell'URL defunto, ma non è vero. La mia esperienza dice che Google tenta di indicizzare ogni vecchio URL più volte al giorno, assicurandosi che gli errori 404 siano reali e non un incidente.

Googlebot può archiviare la memoria di vecchi e nuovi collegamenti che troverà nella mappa del sito. Visita il tuo sito Web a intervalli regolari, assicurandosi che ogni pagina sia indicizzata correttamente. Googlebot tenta di valutare se i collegamenti sono validi o non validi in modo che i visitatori non riscontrino alcun problema.

È ovvio che i webmaster saranno confusi quando aumenta il numero dei loro errori di scansione. Tutti vogliono ridurlo in larga misura. Come informare Google di ignorare tutte le vecchie Sitemap? Puoi farlo uccidendo tutte le ricerche indesiderate e strane Sitemap. In precedenza, l'unico modo per renderlo possibile era i file .htaccess. Grazie a WordPress per averci fornito alcuni plugin.

I siti Web WordPress hanno questo file nelle loro cartelle principali. Quindi, devi solo accedere all'FTP e abilitare i file nascosti in cPanel. Vai all'opzione File Manager per modificare questo file secondo i tuoi requisiti. Non dimenticare che modificarlo in modo errato può danneggiare il tuo sito, quindi dovresti sempre eseguire il backup di tutti i dati.

Dopo aver aggiunto lo snippet al file, tutti gli URL scaduti scompariranno dagli errori di scansione in pochissimo tempo. Non dimenticare che Google vuole che tu mantenga il tuo sito attivo, riducendo le possibilità di errori 404.