Negative SEO: cos’è e come proteggersi

La negative SEO è ormai una realtà consolidata e purtroppo a Mountain View non sembrano intenzionati a sconfiggerla.
Come possiamo tutelarci? Quali strumenti possiamo utilizzare per proteggerci dai malintenzionati?

 

Cos'è la negative SEO?

Cos’è la negative SEO?

Come se gli imprenditori non avessero abbastanza “grattacapi” nell’atto di estendere il proprio business online, ecco che una ulteriore minaccia si presenta ad aggravare la situazione: concorrenza senza scrupoli nel tentativo di far bannare i siti web dei competitors dai motori di ricerca, o comunque di comprometterne drasticamente il posizionamento causando la discesa negli “inferi” delle SERP.

Di cosa stiamo parlando? Di “negative SEO“!

 

Cos’è la negative SEO?

Si tratta di tecniche scorrette che vengono messe in atto per danneggiare il posizionamento e/o la reputazione di determinati siti web.

Non è certo una novità, ma le ultime “mosse” di Google hanno messo particolarmente in luce questo tipo di attività, soprattutto grazie all’attenzione che è stata dedicata alla qualità dei backlinks dei siti da parte degli algoritmi di ranking. Sono ormai famosi il tweet ed i video di Matt Cutts in cui “terrorizzava” i webmaster.

Matt Cutts: backlinks e negative seo

Matt Cutts: backlinks e negative seo

Ultimamente, sono stati, infatti, particolarmente penalizzati i siti web con backlinks

  • definiti “non naturali“,
  • site wide” (ovvero quelli inseriti nei footer o nelle sidebar, che quindi si presentano su tutte – o quasi – le pagine del sito),
  • do follow” inseriti nei forum e in altre strutture di community.

Direi che probabilmente la situazione è sfuggita leggermente di mano a “Big G“: teoricamente, secondo le dichiarazioni, Google sarebbe perfettamente in grado di classificare i link in modo da distinguere i “buoni” dai “cattivi“, ma alcune clamorose penalizzazioni hanno dimostrato il contrario.

Per non parlare degli errori di attribuzione dei contenuti. Esistono casi in cui..

..siti web palesemente generati da scraping (attività attraverso la quale vengono estratti i contenuti da un sito attraverso applicazioni software) hanno ottenuto un posizionamento migliore di quelli copiati!

 

Come viene eseguita, praticamente, la negative SEO?

Negative SEO: come viene messa in pratica?

Negative SEO: come viene messa in pratica?

I sistemi di attuare una campagna di negative SEO sono molteplici. Vediamone in dettaglio qualcuno.

1) Utilizzo di link di scarsa qualità (Google Bowling)

Consiste nel mettere Google nelle condizioni di considerare il sito bersaglio uno SPAM-site. Tale pratica è la più diffusa e può essere eseguita in diversi modi. Ad esempio, creando link di bassa qualità, e magari inseriti nelle posizioni altamente penalizzanti, verso il sito web da “affossare“.
Facendo qualche ricerca su Google possiamo renderci conto della semplicità con la quale è possibile acquistare, per pochi dollari, un elevato numero di link di dubbia provenienza.

In alternativa, una soluzione ancora più semplice: trovando uno o più URL del sito da colpire che genera duplicazione dei contenuti (piccole variazioni di qualche parametro dell’URL che fanno giungere alla stessa pagina), ed inserendoli in siti web (forum, community, ecc.) che non li rendono “no follow“, Google può attivarsi per una penalizzazione dovuta a contenuti duplicati.

In entrambi i casi, come ciliegina sulla torta, assocerei i link ad un’anchor text raffigurante delle parole chiave con le quali il sito web è ben posizionato.

 

L'hacking dei siti web sfruttandone i bug

L’hacking dei siti web sfruttandone i bug

2) Hacking del sito web

Sfruttando i bug più comuni dei siti web (solitamente vengono colpiti i form), i malintenzionati possono riuscire ad “iniettare” in alcuni file del codice malevolo che viene interpretato come dannoso. I siti web che non intervengono tempestivamente, chiaramente rischiano di essere bannati dall’indice di Google.

Anche in questo caso, esiste il modo di accelerare il processo di danneggiamento segnalando a Google una infrazione delle linee guida per il sito web colpito.

Per esperienza personale, posso assicurare che questo tipo di azione è davvero frequente ed i tentativi che vengono effettuati sono innumerevoli.

 

3) Richiesta di rimozione dei link preziosi
Richiesta di eliminazione dei link - Negative SEO

Richiesta di eliminazione dei link – Negative SEO

Il metodo in questione, ahimè, va a colpire i backlinks più preziosi che sono stati ottenuti lavorando sodo nel tempo. Come avviene la richiesta di rimozione? Con procedure assurde e complesse?
Assolutamente no, proviamo a riflettere.. basta inviare una mail, meglio se con tono “avvocatese“, al webmaster del sito contenente il link ed avanzare la richiesta.
E’ chiaro che se non esiste un rapporto confidenziale tra il webmaster del sito web colpito e quello del sito web che ospita il link, di fronte ad un’azione di questo tipo, probabilmente chiunque, per non rischiare inutili noie, rimuoverebbe il link.

Davvero spregevole, non trovate?

 

4) Furto della “paternità” dei contenuti
Negative SEO  e la duplicazione dei contenuti

Negative SEO e la duplicazione dei contenuti

Immaginate cosa accadrebbe se pubblicassi un contenuto nel mio sito web ed un malintenzionato, per danneggiarmi, eseguisse uno scraping, generando, a sua volta, lo stesso contenuto in un altro sito web.. se venisse indicizzato prima il “contenuto copia“, per Google la situazione sarebbe opposta rispetto alla realtà ed il sito web “copiato” verrebbe penalizzato per duplicazione dei contenuti.

Mantenere una sitemap XML sempre sincronizzata e l’utilizzo corretto del rel=”canonical” possono scoraggiare la pratica di scraping ed aiutare Google ad eseguire un’assegnazione corretta.

 

5) Duplicazione / SPAM /redirect 301

Il sistema più ingegnoso e “diabolico“. Una volta individuato il sito web da colpire se ne crea una copia identica più fedele possibile. Google, a questo punto, avendo un po’ di pazienza (non servirà averne molta) penalizzerà la copia, ritenendola SPAM.
Fino a questo punto, nulla di strano, ma ecco il colpo di scena: ottenuta la penalizzazione, viene creato un redirect 301 verso il sito da penalizzare e… indovinate come finisce la storia!?

 

Come possiamo tutelarci ed intervenire nel caso ne siamo stati vittime?

Il segreto è un monitoraggio costante

Il segreto è un monitoraggio costante

I segreti per proteggersi dalla negative SEO sono il monitoraggio costante e la reattività di risposta, nel caso in cui notiamo delle anomalie.

Gli strumenti che possiamo utilizzare per tenere sotto controllo il nostro sito web sono Google Strumenti per i Webmaster (potrebbe essere utile utilizzare anche Strumenti per webmaster di Bing) e Google Analytics; inoltre consiglio, come ho già fatto in post precedenti, Majestic SEOMOZ e Ahrefs.

Questi tool permettono di verificare in ogni momento e con precisione i link entranti e forniscono numerosi altri servizi a supporto.

Non dimentichiamo, inoltre, il tool più semplice e naturale: le query su Google e l’analisi delle SERP. Sono utili, ad esempio ad individuare la duplicazione dei contenuti. Un piccolo trucco: se eseguiamo le ricerche di blocchi di testo tra virgolette, avremo un riscontro immediato.

Hacking: cosa fare in caso di iniezione di codice malevolo o attacco DoS?

Hacking: codice malevolo o attacco DoS?

Nel caso di hacking, se viene inserito del codice malevolo tra i file del sito web,  Strumenti per i Webmaster ci avvertirà immediatamente e ci indicherà dove intervenire: meglio farlo prima possibile, eliminando il problema e indagando sulle modalità con le quali si è verificato.

Se invece fossimo vittima di un attacco DoS (di cosa si tratta?), eseguito per penalizzare un sito web rendendolo non raggiungibile al passaggio di googlebot, consiglio di rivolgersi al fornitore dell’hosting per far attivare le dovute contromisure (ad esempio facendo configurare il “mod_evasive” su Apache Web Server).

Nel caso in cui ci accorgessimo di essere stati penalizzati a causa di negative SEO dovuta a link nocivi, o semplicemente di essere puntati da backlinks indesiderati, non dimentichiamo che possiamo contare su due tool potentissimi messi a disposizione da Google:

  • Disavow Links Tool, che permette di dichiarare di voler rifiutare determinati link che fanno riferimento al nostro sito web;
  • Richiesta di riconsiderazione, da effettuare una volta che si sono eliminate le cause ci hanno condotto alla penalizzazione.

 

Perché Google permette la negative SEO?

Negative SEO: qualche consiglio a Google

Negative SEO: qualche consiglio a Google

Google, attraverso la politica “chi tenta di manipolare il posizionamento naturale attraverso tecniche particolari, viene sistematicamente penalizzato“, apparentemente, combatte duramente la negative SEO, ma  se non viene cambiato qualche criterio di valutazione la ritengo un fenomeno non arginabile.

Secondo il mio punto di vista, Google potrebbe togliere definitivamente la possibilità ai webmaster di penalizzarsi reciprocamente, ad esempio, ignorando i link nell’algoritmo di ranking!
Oppure, se si ritiene che i link siano un elemento troppo importante nella valutazione della reputazione, proporrei che i link di scarsa qualità venissero semplicemente non considerati.

Potrebbe, inoltre, creare delle linee guida chiare per l’inserimento dei link all’interno delle pagine web, magari rispettando gli standard W3C (World Wide Web Consortium – cos’è il W3C?).. in realtà sarebbe più corretto che le linee guida venissero definite SOLO da un’organizzazione di aziende ed istituzioni (il W3C, appunto, del quale Google fa già parte), e non da un’azienda quotata in borsa.

 

Conclusioni

Negative SEO: perché esiste e come proteggersi

Negative SEO: perché esiste e come proteggersi

Riassumendo, la negative SEO si è diffusa per vari motivi:

  1. perché esistono webmaster che preferiscono impiegare le proprie energie nel penalizzare il lavoro di altri invece di concentrare i propri sforzi nel creare qualcosa di innovativo ed utile;
  2. perché Google sta dando molta importanza ai backlinks e a ciò che accade esternamente al nostro sito web (off-site);
  3. perché gli algoritmi che utilizza Google, come visto precedentemente, commettono errori nell’assegnazione dei contenuti e quindi qualche atto di scraping viene addirittura premiato;
  4. per errori di programmazione o distrazione dei webmaster che si traducono in falle di sicurezza.

I due punti centrali non lasciano margine a misure preventive: l’unica soluzione è il monitoraggio continuo, attraverso l’analisi delle serp e gli strumenti che abbiamo visto.

Per quanto riguarda l’ultimo punto, la soluzione è creare applicazioni sicure dotate di controlli accurati che non lasciano nulla al caso. Utilizziamo CMS e/o librerie open source? Se si, è fondamentale che tutto sia sempre aggiornato all’ultima versione stabile!

Relativamente al primo punto, mi piace pensare che

se miglioriamo noi stessi, tutto il mondo migliorerà intorno a noi.

Sono forse un illuso?
Comunque sia, ricordo che attività di questo tipo, se provate, costituiscono reato e si può essere citati in giudizio.

 

Loading Facebook Comments ...