contenuti duplicati cosa sono e come prevenirli

Contenuti duplicati, cosa sono e come prevenirli facilmente..

Condividi l'articolo!

Tutti noi conosciamo l’importanza di prevenire la duplicazione dei contenuti web per non rischiare un’inutile e dannosa penalizzazione da parte dei motori di ricerca. Ma in cosa consiste esattamente? Parliamo di contenuti duplicati quando una porzione importante di un testo o addirittura un’intera pagina web compare contemporaneamente sullo stesso dominio o su domini diversi. La cosa è decisamente più comune di quanto possa sembrare, nonostante sia ormai noto a tutti che i motori di ricerca la considerano come negativa, penalizzando fortemente le pagine in questione. L’unicità dei contenuti, cioè la loro originalità, è dunque alla base del funzionamento dei motori di ricerca stessi che reputano poco utili o addirittura dannosi i contenuti ripetitivi.

Ecco alcune situazioni in cui si verificano duplicazioni di contenuti potenzialmente dannose per il sito che le pubblica:

  1. Pagine web o interi siti completamente o parzialmente clonati sono considerali SPAM e dunque fortemente penalizzati dai motori di ricerca. Queste azioni, normalmente frutto di plagio o comunque di pratiche illegali, vengono messe in atto da operatori senza scrupoli con finalità diverse, non ultima quella di danneggiare l’indicizzazione dei contenuti del sito che li ha realmente prodotti.
  2. Contenuti di articoli, news o post che con azione fraudolenta vengono letteralmente copiati ed incollati apportando alcune piccole variazioni con la completa nuova attribuzione della paternità di origine.
  3. Siti web, spesso E-commerce che per poca fantasia o scarsa competenza, pur di riempire la pagina vuota con qualche riga di testo, duplicano contenuti come descrizioni di prodotti o addirittura le copiano direttamente dai siti dei produttori.

Se temiamo che i nostri contenuti siano stati clonati a nostra insaputa, per tentare di danneggiare il nostro sito o per qualsiasi motivo, potrebbe esserci estremamente utile questo tool disponibile in rete gratuitamente. Si chiama Copyscape ed é in grado, inserendo l’URL del nostro sito, di fornirci eventuali altre URL riportanti i nostri contenuti originali, anche in forma parziale. Ma cosa fare nel caso di un risultato positivo? Come agire nel caso in cui ci accorgessimo che i nostri contenuti hanno subito un plagio? E’ complicato da dire, bisognerebbe esaminare caso per caso e comunque sarebbe un problema di non facile risoluzione, direi che potrebbe essere il tema di un prossimo post di approfondimento.

copyscape_screenshot

I motivi che portano alla duplicazione di contenuti sono diversi e non sono tutti da considerare come frutto di azioni consapevoli o deliberatamente fraudolente. Un esempio classico, che porta a duplicare una pagina quasi inconsapevolmente, è quello di produrre il medesimo contenuto con finalità diverse. Ad esempio produrre lo stesso contenuto in formato html, per la visualizzazione a monitor, ed in formato Pdf per il download e la stampa. Questa è di fatto una duplicazione.

In realtà i motori di ricerca moderni sono molto attenti a non penalizzare situazioni di questo tipo, i loro complessi algoritmi sono attrezzati per fare fronte brillantemente a queste evenienze. Il compito dello spider è quello di ricercare situazioni in cui la duplicazione è voluta al fine di forzare l’ottimizzazione, di conseguenza provvedere all’immediata penalizzazione del contenuto stesso tramite la retrocessione nelle SERP.

Il modo migliore per prevenire la duplicazione involontaria dei contenuti del nostro sito è sempre quella di curare attentamente l’organizzazione dei files in fase di creazione ed amministrazione.

Cercare di eliminare qualunque elemento ripetitivo, ove possibile, in ogni caso cercare di ridurli al minimo di modo che non possano nuocere al resto del contenuto apparendo come porzioni di testo duplicate. Nel caso la cosa risulti difficile da mettere in pratica, inserire tutti gli elementi ripetuti possibilmente in coda alla pagina per tentare di attenuarne il valore semantico rispetto al totale e cercare di passare inosservati.

Nominare le pagine con nomi sempre diversi, possibilmente esplicativi del contenuto, e non creare cartelle diverse con nomi di files uguali del tipo index.html, pagina_1.html, pagina-2.html etc.

Utilizzare in modo costruttivo il file robots.txt per impedire l’accesso dello spider ai files duplicati in modo volontario ma funzionali al sito stesso, come visto nell’esempio precedente. In questo modo possiamo essere pressoché certi di indicizzare esclusivamente il contenuto da noi selezionato senza includere niente di indesiderato.

La penalizzazione di una pagina web da parte dei motori di ricerca è sempre un evento spiacevole, considerato il tempo e la fatica impiegati per renderla visibile e migliorarne l’indicizzazione e quanto ancora potrebbe volerci per invertire la tendenza e tornare al punto di partenza. Il consiglio è quello di mettere in pratica le poche ma importanti regole citate nel post per evitare di creare inutili inconvenienti e, se possiamo, proteggiamo attivamente i nostri contenuti dai malintenzionati sottoponendoli a manutenzioni periodiche al fine di prevenire o correggere le spiacevoli conseguenze.

Condividi l'articolo!

© Copyright - Vietata la copia non autorizzata dei contenuti di questa pagina!

Lascia un commento

*

code