Le penalizzazioni di Google: scopriamo cosa sono e come evitarle

Quando lavoriamo sull’ottimizzazione di un sito, uno degli aspetti da tenere maggiormente in considerazione è quello di non incorrere nel rischio di penalizzazioni Google: un repentino calo delle visite o, peggio, l’improvvisa scomparsa dalle SERP di Google, possono letteralmente “bruciare” il lavoro di anni.

In questo articolo vedremo insieme cosa si intende per penalizzazione manuale e algoritmica e come evitarla.

Cosa è una penalizzazione Google?

Ci troviamo di fronte a una penalizzazione algoritmica quando il nostro sito viene declassato interamente (o per specifiche pagine web) dagli indici del motore di ricerca. I motivi possono essere di vario genere: il più delle volte si parla di violazione delle linee guida di Google.

Le penalizzazioni possono essere di due tipologie: manuali o algoritmiche.

Le penalizzazioni manuali vengono effettuate dai quality raters di Google e vengono segnalate con un messaggio di avviso da parte di Webmaster Tool (che indica appunto la causa della penalizzazione). Esse sono in genere molto semplici da gestire: una volta effettuate le opportune modifiche, è possibile procedere alla richiesta di riconsiderazione attraverso un apposito link messo a disposizione da Google stesso.

Discorso diverso, invece, per quanto riguarda le penalizzazioni di tipo algoritmico: questo tipo di penalizzazioni vengono generate dalla modifica dell’algoritmo di Google e colpiscono senza alcun tipo di preavviso l’intero dominio . La rimozione di queste richiede molto tempo e una conoscenza approfondita del settore; per questa ragione la maggior parte dei siti colpiti ha necessità di affidarsi a specialisti SEO che riescano nel tempo a comprenderne prima le ragioni e poi rimettere il sito in carreggiata.

In entrambi i casi, lo scopo della penalizzazione è quello di dare agli utenti che eseguono una ricerca contenuti pertinenti e privi di spam.

Google in questi anni ha rilasciato diverse versioni di algoritmi (di cui ha svelato alcuni parametri) che hanno portato a nuove penalizzazioni, vi citiamo i piu’ conosciuti e le rispettive date di rilascio:

∙       2003 – 2007: Google rilascia diversi aggiornamenti con lo scopo di colpire i siti sovra-ottimizzati. Tra i principali ricordiamo sicuramente Florida Update (il primo update che segna la fine di tecniche illecite come il keyword stuffing), l’Austin Update (che penalizza le tecniche di ottimizzazione on-page ingannevoli come il testo invisibile e i meta tag pieni di keywords) e il Brandy Update(che si focalizza sulla rilevanza dei contenuti con l’introduzione del Latent Semantic Indexing inteso come capacità di comprendere i sinonimi delle parole chiave).

∙       2009: Nel 2009 viene rilasciato Caffeine, l’algoritmo progettato appositamente per accelerare la fase di crawling ed espandere l’indice: il nuovo algoritmo privilegia i contenuti freschi e rilevanti, generati dagli utenti con lo scopo di restituire pagine sempre aggiornate grazie a un servizio di indicizzazione piu’ rapido. Il motivo che ha spinto Google a rivedere il suo sistema di indicizzazione è stato proprio l’espandersi di video, immagini e contenuti in tempo reale (causato principalmente dall’espansione dei social network e dei blog).

∙       2010: L’uscita dell’algoritmo May Day colpisce i siti che hanno una grande quantità di contenuti poveri

∙       2011: Il 2011 è l’anno di  Panda, l’algoritmo Google che più di tutti impatta nelle ricerche Google. Panda, che è la naturale evoluzione di Caffeine, penalizza i siti considerati di bassa qualità effettuando delle analisi basate su modelli di valutazione umana. Lo scopo, anche in questo caso, è quello di eliminare i contenuti “scopiazzati” e poco utili per gli utenti (con un chiaro attacco alle Content Farm!) a favore di contenuti freschi e di qualità.

∙       2012: L’anno successivo vengono rilasciati due famosi aggiornamenti: il primo, Venice, è orientato alla visualizzazione dei risultati organici sulla base della località in cui si trova l’utente. Il secondo aggiornamento, un po’ piu’ importante, si chiama Google Penguin: il Pinguino (come ribattezzato dagli esperti del settore) agisce su diversi fattori di spam e penalizza tutti quei siti che hanno scalato le SERP di Google grazie ad attività di keyword stuffing e ripetizione forzata di parole chiave, nonché costruzione di link artificiali (interni o esterni) verso siti di bassa qualità che hanno subito penalizzazioni Google.

∙       2013: L’ultimo aggiornamento si chiama Google Hummingbirg: il “Colibri’”, considerato da molti come uno dei tentativi piu’ ambiziosi di risolvere definitivamente i problemi legati alla qualità dei contenuti , mira a comprendere meglio l’intento delle ricerche  ed ha come intento quello di poter rispondere in modo preciso a query sempre piu’ articolate.

Come evitare di incorrere in una penalizzazione

Come detto, Google ci fornisce diverse linee guida per la creazione di siti web conformi alla sua politica anti-spam. Vediamo insieme cosa NON bisogna fare quando si opera nel settore SEO per evitare una penalizzazione:

1)      Scrivere un cattivo contenuto: Google detesta i contenuti poco originali, duplicati, di pessima qualità, artefatti automaticamente o con errori grossolani (l’algoritmo Panda punta a declassare proprio i siti di questo tipo!). Bisogna piuttosto cercare di creare contenuti originali e di valore per il proprio settore!

2)      Utilizzare link artefatti: la maggior parte dei SEO focalizza la propria attività sul concetto di link building, ovvero sulla possibilità di ottenere dei link da siti web che trattano argomenti pertinenti al proprio settore. Google ha recentemente deciso di penalizzare tutti quei siti che hanno provato ad ottenere link tramite pratiche di spam come i link a pagamento, lo scambio di link con il solo scopo del passaggio di page rank e i link nascosti (nei template o nei contatori, ad esempio).

3)      Utilizzo di pratiche di keyword stuffing: Per keyword stuffing si intende la pratica di “imbottire” pagine web con parole chiave (spesso non correlate al tema della pagina) col solo scopo di posizionare il sito. L’inserimento continuo e insensato di parole chiave è ormai da tempo bandito da Google che ha trovato il modo di riconoscere queste pratiche (mascherate spesso con i CSS da parte dei webmaster più furbetti) e di inserire i siti che ne fanno uso all’interno di specifiche blacklist.

4)      Utilizzo di pagine doorway/gateway: sono pagine web dai contenuti testuali pensati in maniera specifica per i motori di ricerca (e non per il lettore umano) e focalizzate su una specifica parola chiave. La specificità di queste pagine sta nel fatto che esse contengono del codice di ridirezione automatica che può essere interpretato da un normale browser testuale ma non dal motore di ricerca. In questo modo la ridirezione viene attuata solo quando un utente “umano” entra sul sito: anche questo è un tentativo di falsare i risultati dei motori di ricerca! Gli algoritmi di Google si sono evoluti e sono attualmente in grado di riconoscere questo tipo di tecniche di ridirezione riconoscendole il piu’ delle volte come tecniche di spam.

5)      Utilizzare tecniche di cloacking: le pagine che adottano tecniche cloacking mostrano contenuti diversi a seconda di chi la visita. Lo scopo, anche in questo caso, è quello di fornire al motore di ricerca contenuti utili a migliorare artificiosamente il posizionamento. Google infligge pesanti penalizzazioni a chi fa uso di queste tecniche per posizionare il proprio sito.

Questi sono solo alcuni consigli da tenere presente per evitare le penalizzazioni Google. Evitare i punti sopra citati è sicuramente un ottimo punto di partenza, ricordiamo comunque che gli algoritmi sono in continua evoluzione e i parametri possono cambiare con grande velocità, per questa ragione il consiglio è quello di leggere spesso le linee guida Google aggiornate ma soprattutto di pensare all’utente finale, creando contenuti e funzionalità interessanti e che aggiungono valore alla rete.