Google Mobile Search, nuove regole 2017 per semplificare l’accesso ai siti web da dispositivi mobili!

google mobile nuove regole 2017

Dopo la annunciata rivoluzione “Mobilegaddon”, con l’intento di semplificare l’accesso ai siti web da dispositivi mobili, Google cambia passo e dichiara guerra ai messaggi intrusivi, spesso pubblicitari ma non solo, presenti in quantità su alcuni siti web che rendono difficile se non impossibile una corretta navigazione mobile. Per capire meglio, parliamo dei cosiddetti interstitial o per intenderci quei fastidiosi popup che perseguitano da sempre gli utenti web impedendo loro di accedere immediatamente ai contenuti principali.

A partire da Gennaio 2017, infatti, saranno ulteriormente aggiornati gli algoritmi del motore di ricerca che andrà pian piano a penalizzare il rank dei siti in palese contrasto con le nuove regole. Saranno retrocesse nelle SERP le pagine che contengono interstitial, almeno quelli più invasivi, con l’intento di migliorarne l’accessibilità da dispositivi mobili. Per il momento si parla soltanto di SERP provenienti da ricerca Mobile, ma non è detto che in futuro la cosa non si possa applicare a tutte le ricerche. Importante specificare che la scure di Google si abbatterà soltanto su interstitial grossolani ed invasivi, comunque non utili alla navigazione ed alla vera fruizione dei contenuti. Per esempio saranno tenuti fuori dalla penalizzazione gli avvisi come quelli legati all’utilizzo dei cookie o verifiche ed informative varie.

Google Webmaster Central Blog riporta le specifiche delle novità con le regole di applicazione ed un chiaro cenno alle eccezioni.

Ecco le modalità che saranno penalizzate da Google Mobile Search:

  • Mostrare qualunque tipo di popup che si sovrapponga alla pagina coprendo interamente i contenuti principali ed impedendo la navigazione.
  • Mostrare qualunque interstitial intrusivo che richieda una specifica azione da parte dell’utente per poter continuare la navigazione.
  • Mostrare qualunque interstitial parzialmente intrusivo, disposto a margine superiore o inferiore della pagina, anche nel caso in cui lo stesso lasci intravvedere il contenuto per intero.

interstitial_not_allowed

Ecco invece le modalità, utili alla navigazione, che non rischiano la penalizzazione:

  • Avviso di utilizzo di cookie con pulsante di accettazione.
  • Interstitial per la verifica della maggiore età dell’utente e consentire un accesso consapevole al contenuto.
  • Piccoli banner pubblicitari marginali e poco invasivi.

interstitial_allowed

Il mondo del web si dimostra particolarmente diviso sulla decisione di Google, naturalmente gli interessi di chi usa la rete come utente e chi invece lo fa da editore sono sostanzialmente diversi e spesso contrastanti.

Gli utenti di internet, quelli che usano la rete per svago o per lavoro, sono sempre più infastiditi da alcune forme di comunicazione particolarmente invadenti e ritengono sia giusto cercare di arginare il fenomeno all’interno di un regolamento certo e valido per tutti. Gli editori, dal canto loro, si sentono oggetto di costrizioni sempre più stringenti e poco naturali, ritengono di avere diritto di esercitare le loro strategie nel modo più e congeniale alle loro esigenze senza troppi vincoli. Personalmente ritengo, senza voler fare torto a nessuno, che uno schema etico, un codice deontologico, sia sempre più necessario per un uso responsabile della rete, ancor di più quando si parla di grandi numeri. La presa di coscienza dei limiti necessari al buon funzionamento di qualsiasi meccanismo sociale è sempre utile al meccanismo stesso e non implica una minore libertà d’azione o d’espressione ma soltanto una regola a cui attenersi. Il compito non è di certo facile, gli interessi contrastanti delle parti in gioco sono enormi, speriamo che per questa volta si possa pensare ad una soluzione utile a tutti.

© Copyright - Vietata la copia non autorizzata dei contenuti di questa pagina!

Contenuti duplicati, cosa sono e come prevenirli facilmente..

contenuti duplicati cosa sono e come prevenirli

Tutti noi conosciamo l’importanza di prevenire la duplicazione dei contenuti web per non rischiare un’inutile e dannosa penalizzazione da parte dei motori di ricerca. Ma in cosa consiste esattamente? Parliamo di contenuti duplicati quando una porzione importante di un testo o addirittura un’intera pagina web compare contemporaneamente sullo stesso dominio o su domini diversi. La cosa è decisamente più comune di quanto possa sembrare, nonostante sia ormai noto a tutti che i motori di ricerca la considerano come negativa, penalizzando fortemente le pagine in questione. L’unicità dei contenuti, cioè la loro originalità, è dunque alla base del funzionamento dei motori di ricerca stessi che reputano poco utili o addirittura dannosi i contenuti ripetitivi.

Ecco alcune situazioni in cui si verificano duplicazioni di contenuti potenzialmente dannose per il sito che le pubblica:

  1. Pagine web o interi siti completamente o parzialmente clonati sono considerali SPAM e dunque fortemente penalizzati dai motori di ricerca. Queste azioni, normalmente frutto di plagio o comunque di pratiche illegali, vengono messe in atto da operatori senza scrupoli con finalità diverse, non ultima quella di danneggiare l’indicizzazione dei contenuti del sito che li ha realmente prodotti.
  2. Contenuti di articoli, news o post che con azione fraudolenta vengono letteralmente copiati ed incollati apportando alcune piccole variazioni con la completa nuova attribuzione della paternità di origine.
  3. Siti web, spesso E-commerce che per poca fantasia o scarsa competenza, pur di riempire la pagina vuota con qualche riga di testo, duplicano contenuti come descrizioni di prodotti o addirittura le copiano direttamente dai siti dei produttori.

Se temiamo che i nostri contenuti siano stati clonati a nostra insaputa, per tentare di danneggiare il nostro sito o per qualsiasi motivo, potrebbe esserci estremamente utile questo tool disponibile in rete gratuitamente. Si chiama Copyscape ed é in grado, inserendo l’URL del nostro sito, di fornirci eventuali altre URL riportanti i nostri contenuti originali, anche in forma parziale. Ma cosa fare nel caso di un risultato positivo? Come agire nel caso in cui ci accorgessimo che i nostri contenuti hanno subito un plagio? E’ complicato da dire, bisognerebbe esaminare caso per caso e comunque sarebbe un problema di non facile risoluzione, direi che potrebbe essere il tema di un prossimo post di approfondimento.

copyscape_screenshot

I motivi che portano alla duplicazione di contenuti sono diversi e non sono tutti da considerare come frutto di azioni consapevoli o deliberatamente fraudolente. Un esempio classico, che porta a duplicare una pagina quasi inconsapevolmente, è quello di produrre il medesimo contenuto con finalità diverse. Ad esempio produrre lo stesso contenuto in formato html, per la visualizzazione a monitor, ed in formato Pdf per il download e la stampa. Questa è di fatto una duplicazione.

In realtà i motori di ricerca moderni sono molto attenti a non penalizzare situazioni di questo tipo, i loro complessi algoritmi sono attrezzati per fare fronte brillantemente a queste evenienze. Il compito dello spider è quello di ricercare situazioni in cui la duplicazione è voluta al fine di forzare l’ottimizzazione, di conseguenza provvedere all’immediata penalizzazione del contenuto stesso tramite la retrocessione nelle SERP.

Il modo migliore per prevenire la duplicazione involontaria dei contenuti del nostro sito è sempre quella di curare attentamente l’organizzazione dei files in fase di creazione ed amministrazione.

Cercare di eliminare qualunque elemento ripetitivo, ove possibile, in ogni caso cercare di ridurli al minimo di modo che non possano nuocere al resto del contenuto apparendo come porzioni di testo duplicate. Nel caso la cosa risulti difficile da mettere in pratica, inserire tutti gli elementi ripetuti possibilmente in coda alla pagina per tentare di attenuarne il valore semantico rispetto al totale e cercare di passare inosservati.

Nominare le pagine con nomi sempre diversi, possibilmente esplicativi del contenuto, e non creare cartelle diverse con nomi di files uguali del tipo index.html, pagina_1.html, pagina-2.html etc.

Utilizzare in modo costruttivo il file robots.txt per impedire l’accesso dello spider ai files duplicati in modo volontario ma funzionali al sito stesso, come visto nell’esempio precedente. In questo modo possiamo essere pressoché certi di indicizzare esclusivamente il contenuto da noi selezionato senza includere niente di indesiderato.

La penalizzazione di una pagina web da parte dei motori di ricerca è sempre un evento spiacevole, considerato il tempo e la fatica impiegati per renderla visibile e migliorarne l’indicizzazione e quanto ancora potrebbe volerci per invertire la tendenza e tornare al punto di partenza. Il consiglio è quello di mettere in pratica le poche ma importanti regole citate nel post per evitare di creare inutili inconvenienti e, se possiamo, proteggiamo attivamente i nostri contenuti dai malintenzionati sottoponendoli a manutenzioni periodiche al fine di prevenire o correggere le spiacevoli conseguenze.

© Copyright - Vietata la copia non autorizzata dei contenuti di questa pagina!

SEO, i fattori esterni che influenzano il posizionamento.

fattori seo che influenzano il posizionamento

Sono numerosi fattori che influenzano il posizionamento di una pagina web sui motori di ricerca, questi si dividono in fattori on-pageoff-page. In questo post ci concentreremo soltanto sui fattori esterni, quelli non dipendenti dal contenuto della pagina e non completamente controllabili in fase di costruzione del sito. Cerchiamo di fare un pò di chiarezza!

Il primo e più importante di questi fattori é senz’altro il link esterno in entrata o backlink che normalmente determina il Page Rank. Come tutti noi sappiamo, é fondamentale il numero di collegamenti diretti alle nostre pagine, definibile come una forma di popolarità del sito stesso, ma é determinante in particolare la qualità e dunque la provenienza dei link stessi. Per un ristorante é più importante la recensione di dieci clienti consumatori o il parere competente di un critico affermato? Un parere competente offre maggiori garanzie sulla bontà della cucina e la sulla scelta dei vini?

In realtà, un link di qualità certificata offre maggiori garanzie sui contenuti che consiglia, li rende affidabili agli occhi “innocenti” del motore di ricerca. Un link di qualità é normalmente un link che proviene da un sito con un buon Page Rank di base, diretto ad una pagina che pubblica argomenti con forte attinenza con la pagina di partenza.

Un link da respingere é invece quello proveniente da siti di dubbia fama o con scarsa attinenza con i nostri contenuti, ancor peggio da siti off limits come “link farm” etc. Ricordiamo di selezionare al massimo, dove possibile, l’origine dei backlink rivolti al nostro sito che produrranno un decisivo incremento del traffico in entrata, sia dai siti che producono i links che dai motori di ricerca che approvano.

E’ molto importante inoltre che i backlink vengano accumulati in un lasso di tempo verosimile e non nel giro di poche settimane o addirittura nell’arco della stessa giornata. In caso contrario, l’algoritmo del motore di ricerca potrebbe entrare in allerta e giudicare sospetto l’accumulo repentino dei link.

Altro fattore che concorre al buon posizionamento della pagina é dato dal dominio di provenienza del link in ingresso. Normalmente i domini con estersione .gov, .edu e .org, ad esempio, offrono secondo gli algoritmi dei motori un vantaggio perchè in apparenza più affidabili. Al contrario, i domini .com, .info etc. non offrono questo vantaggio, pur non creando nessuna penalizzazione a chi li riceve.

L’età anagrafica del backlink e del dominio che lo produce é certamente importante perchè trasmette fiducia e certifica la durata nel tempo dello link stesso confermando la regola che ne presume maggiore affidabilità. L’età del link, ad occhi più critici, potrebbe essere vista come portatrice di contenuti vecchi o sorpassati, la cosa non é sempre vera perchè i contenuti si aggiornano continuamente. Non é giusta dunque neanche la logica contraria per cui un link giovane non produce risultati affidabili solo in quanto giovane, un ottimo esempio é portato dai tantissimi blog presenti in rete che producono ogni giorno contenuti freschi di grande qualità e competenza.

Il link di ritorno proveniente da una delle tante directory web, soprattutto quelle specializzate, gode di grande autorevolezza presso i motori di ricerca, le directory hanno la patente di certificare alcuni siti come affidabili e scartarne altri come inaffidabili o comunque poco rilevanti in generale.

Parliamo ora dei fattori esterni insiti nel sito stesso che possono influenzare positivamente il posizionamento di una pagina web, cioè nulla a che vedere con link di ritorno o altre azioni dall’esterno.

Il primo fattore importante é l’età anagrafica del sito, o meglio quella di registrazione del dominio a cui fa capo. Possiamo certamente affermare che un sito consolidato negli anni ha minori fluttuazioni di indicizzazione ed un posizionamento più stabile di altri più recenti. In tutta onestà, esistono tantissimi siti di vecchia pubblicazione con contenuti di valore assai modesto e siti più recenti estremamente interessanti e dotati di contenuti di grande qualità.

Le prestazioni, intese come tempo di caricamento delle pagine, sono uno dei fattori più importanti che determinano il posizionamento di un sito. Ottimizzare le prestazioni di un sito é uno dei primi passi per renderlo appetibile ai motori di ricerca. E’ buona abitudine monitorare il sito prima di metterlo online ma anche durante la vita del sito stesso, potrebbe capitare infatti che il server che ci ospita si trovi in una situazione di sovra popolamento non riuscendo a fornire a tutti le risorse promesse. In questo caso potremmo porre rimedio prima che la cosa diventi difficilmente risolvibile.

Un problema a cui trovare immediata soluzione é quello dei link non funzionanti. Al di la del giudizio di un visitatore della pagina che si trova davanti ad una pagina di errore 404 e declina l’invito ad approfondire la visita, la cosa assume grande importanza soprattutto dal punto di vista dello spider del motore di ricerca che tende a svalutare un sito con molti link non funzionanti, addirittura in molti casi a cancellarlo dagli indici creando un danno notevole. La causa più frequente, quella che normalmente ingenera il problema, é il cambiamento dell’ URL della pagina su cui sono diretti i link di ritorno senza avere l’accortezza di informare i siti da cui provengono per richiedere una correzione. Il risultato é che quei link che portavano vantaggio al nostro sito, di punto in bianco si trasformano in link contro producenti e dannosi.

Le situazioni sono molteplici e non sempre facili da gestire, sta a noi capire l’importanza di ciascuno di questi fattori e correggerli sulla base delle nostre specifiche esigenze.

Buone vacanze e buon lavoro a tutti!

© Copyright - Vietata la copia non autorizzata dei contenuti di questa pagina!

Costruzione dei link in ingresso, gettiamo le basi!

Costruzione dei link in ingresso, gettiamo le basi!

Il processo di Link Building é uno dei fattori più importanti, alla base di ogni progetto di Search Engine Optimization. Chiunque di noi abbia avuto occasione di cimentarsi nel compito, conosce bene i tempi e la fatica necessari per portare al nostro sito risultati degni di nota. E’ ormai noto che il numero, ma soprattutto la qualità dei link che convergono verso il nostro sito, possono rappresentare un fattore di successo decisivo, in grado di migliorare il posizionamento delle pagine nei risultati dei motori di ricerca.

Il modo più efficace, a detta di tutti, per sviluppare link utili a migliorare il posizionamento del nostro sito web é sempre quello di produrre contenuti di alta qualità e fare in modo che i nostri lettori ci linkino spontaneamente attribuendoci il merito per l’interesse destato della nostra pagina, con l’intento di condividerla con altri potenziali lettori. Questo tipo di acquisizione, detta “link naturale”, al contrario di quanto si possa pensare é senza dubbi la scelta migliore per ottenere il massimo in termini di visibilità, contenuti interessanti, originali e ben scritti, produrranno certamente il risultato che ci si aspetta senza bisogno di altro. Una volta innescato questo loop virtuoso del link, probabilmente non sarà più necessario lavorare per acquisirne di nuovi.

Tutto questo potrebbe apparire come il massimo del riconoscimento ma, in realtà, non basta. Occorre invece mettere in pratica una vera e propria strategia fatta di metodo, duro lavoro con qualche stratagemma utile che ci aiuti a chiudere il cerchio. Il tutto, a mio parere, nasce dall’esigenza di implementare un sistema di link che risultino assimilabili a link naturali, per pertinenza e provenienza, dando così l’idea che la cosa sia avvenuta in modo graduale. Allora come fare per attuare la strategia giusta? Mi permetto di suggerire alcuni punti che potrebbero fare al caso nostro!

La prima cosa da fare, forse banale ma certamente utile, é quella di richiedere il link direttamente o comunque mettere il lettore nella condizione di inserirlo con il minimo sforzo, in un percorso guidato. La richiesta esplicita tramite pulsanti che consentono il link alla pagina o la condivisione nei Social Networks, ad esempio sono metodi schietti, veloci ed efficaci.

Creare una Newsletter per l’invio diretto dei contenuti in anteprima che, con pochissimo investimento, permette di creare un ambiente di amichevole condivisione ed interesse reciproco. Attenzione! Offrire il servizio solo su richiesta esplicita dell’utente, altrimenti l’effetto potrebbe essere diverso da quanto ci aspettiamo.

La condivisione nei Social Networks come Facebook, Twitter, Google+ etc. é certamente il primo passo per una diffusione omogenea ed efficace del contenuto. Qualcuno sostiene che Google non tenga conto delle azioni social come dei veri e propri link di ritorno ma comunque, anche se fosse, sarebbero da considerare come qualcosa di estremamente positivo ed utile.

Costruire un sistema di cosiddette “esche” che ci permetta di generare link di ritorno in modo intelligente, soltando distribuendo al meglio i contenuti del nel nostro sito. I sistemi sono diversi, tutti di ottima efficacia e consistono ad esempio nel proporre contenuti di immediato interesse pubblico, come news, contenuti umoristici ed originali che favoriscano il passaparola ed il conseguente sviluppo virale del marchio o del nome. Naturalmente, mi rendo che la cosa non può valere per tutti e che in alcuni casi potrebbe addirittura essere contro producente. Questo é comunque il modo migliore per dare spazio alla fantasia e permettere ai nostri contenuti di varcare la soglia del sito o del blog promuovendolo il più possibile.

Condividere i nostri link attraverso siti di Social Bookmarking. Questi sono dei grossi contenitori organizzati di link che distribuiscono in rete, offrendo agli utenti iscritti un servizio di accesso ai contenuti di loro interesse. Servono inoltre ai siti web che li utilizzano per diffondere i loro contenuti ad usufruire di validi link di ritorno. Una cosa interessante da aggiungere é che i siti di Social Bookmarking organizzano normalmente le loro liste di link sulla base di categorie o comunque di interessi specifici e degli utenti iscritti, producendo dunque link di qualità, più mirati e graditi ai motori di ricerca. Ecco un sito esempio da visitare Digg.com. Per gli utenti più esigenti, tratteremo l’argomento in modo più approfondito in un post dedicato.

La Syndication é un’altro importante standard per la distribuzione automatica dei contenuti in rete. Si basa su un sistema che organizza e ritrasmette i contenuti messi a disposizione da qualsiasi sito ne consenta la diffusione tramite feed Atom o RSS, per offrirli a chi ne fosse interessato attraverso uno servizio apposito chiamato Reader. Tratteremo anche questo argomento in maniera più estesa in un’altro post dedicato.

Inserire il proprio link in una delle tante Web Directory generiche o specializzate presenti in rete per ottenere la pubblicazione é considerata un buon espediente. Importante valutare prima il PageRank del sito onde evitare che la cosa possa nuocere anzichè portare dei reali vantaggi. Proporre sempre titoli e descrizioni ottimizzate e personalizzate per le diverse directory, la cosa migliora l’effetto dell’eventuale link di ritorno. Ricordiamo la classica Dmoz.org, la directory generica più importante ed ambita del web per la quale sarà necessaria una procedura di inserimento lunga e non sempre certa.

Cercare di pubblicare il nostro link in qualsiasi sito ci dia affidamento dal punto di vista della credibilità e omogeneità con gli argomenti trattati da noi. Ad esempio, postare commenti inserendo il proprio link nei numerosi forum o blog esistenti potrebbe essere una buona soluzione, assicuriamoci soltanto che il sito non utilizzi l’attributo “nofollow”, altrimenti lo sforzo sarà del tutto vanificato.

In conclusione al nostro post, un pò condensato vista la vastità dell’argomento, mi sembra fondamentale sottolineare l’importanza di partire con contenuti di qualità, originali ed interessanti che ci distinguano dalla massa di informazioni omologate e scopiazzate presenti in abbondanza in internet.

© Copyright - Vietata la copia non autorizzata dei contenuti di questa pagina!

Cosa sono le sitemaps? Perchè usarle?

Cosa sono le sitemaps? Perchè usarle?

L’argomento sitemap non é certo una novità dell’ultima ora, sono presenti ormai da tempo ed utilizzate dalla maggioranza dei siti web esiststenti. Nonostante ciò, il loro funzionamento e la loro utilità non sono ancora cose note a tutti. Il concetto base é estremamente semplice, la funzione principale equivale a quella dell’indice di un libro, la suddivisione dei contenuti in capitoli, paragrafi e quant’altro per permettere al lettore di conoscere in anticipo, a sommi capi gli temi trattati.

In principio erano delle normali pagine HTML che venivano utilizzate per facilitare l’utente nella navigazione del sito, descrivendo in modo dettagliato i contenuti ed i link interni disponibili. Col tempo, i motori di ricerca, hanno fiutato le potenzialità di queste pagine e capito i vantaggi impliciti che potevano produrre in termini di aiuto alla corretta e veloce indicizzazione delle pagine all’interno dei loro archivi. Nel 2005 nacque il Google Sitemap Protocol, ribattezzato in seguito XML Sitemap Protocol e gestito in modo autonomo da Sitemaps.org. Tutti gli altri protagonisti del mondo della ricerca, come Yahoo, Microsoft etc. si adeguarono presto alla cosa che assunse valore universale.

Il protocollo Sitemap XML aiuta gli spider dei motori di ricerca nell’ indicizzazione delle pagine web fornendo informazioni essenziali per una corretta e veloce comprensione del contenuto. Naturalmente, avere una sitemap non é obbligatorio ne necessario per trovare spazio all’interno dei motori di ricerca, ed é corretto dire che niente e nessuno penalizzerà mai un sito che non ne possiede una.

Esistono due principali categorie che identificano le sitemap:

Le sitemap con estensione HTML, in sostanza delle normali pagine web destinate agli utenti dei siti web, utili a reperire velocemente le informazioni che cercano e conoscere i contenuti in indice..

Le sitemap con estensione XML a completo uso e consumo dei motori di ricerca..

Perchè é utile usare le sitemap? I principali motivi sono quelli già visti in precedenza e dunque aiutare il visitatore del sito o lo spider del motore di ricerca nella comprensione delle pagine del sito. In realtà ci sono tanti altri buoni motivi per farlo, cercheremo di elencarne alcuni tra i più importanti. Naturalmente, é bene chiarire che per motivi pratici, in questo post tralasceremo “la ricetta per una sitemap perfetta!“, che probabilmente riprenderemo più avanti, soffermando la nostra attenzione esclusivamente sull’utilità della cosa.

  • Aiuta il motore di ricerca a conoscere l’esistenza e ad incrementare le visite degli URL. C’é da aggiungere che, da sua ammissione, Google pur impegnandosi a farlo non garantisce nulla in termini di visite o indicizzazione dell’URL.
  • Offre la possibilità di richiedere la frequenza delle visite degli spider, il che comporta vantaggi evidenti soprattutto per i siti nuovi o pagine con aggiornamenti periodici.
  • Permette un‘indicizzazione tempestiva della pagina con la conseguente e reale attribuzione della paternità intellettuale dei contenuti al suo interno. In questo modo eviteremo che qualcuno si assuma il merito dei nostri sforzi con un semplice copia e incolla. Dunque, chi prima pubblica il contenuto sarà ritenuto autore dello stesso e gli verrà riconosciuta l’autenticità. Bel vantaggio!
  • Fornisce una linea di priorità, una classifica in funzione dell’importanza delle pagine pubblicate, in modo da fornire un metodo di lavoro al motore di ricerca che così conoscerà l’ordine gerarchico dei contenuti. Questo é possibile soltanto con l’uso del protocollo XML.
  • Aiuta inoltre a fornire al motore di ricerca traccia reale delle modifiche temporali fatte al sito, comprese aggiunte, miglioramenti etc.

Naturalmente, il consiglio é quello di tenere il più possibile aggiornata la sitemap.xml del vostro sito per permettere agli spider di svolgere al meglio il loro compito.

© Copyright - Vietata la copia non autorizzata dei contenuti di questa pagina!

Il tag title, quando il buon giorno si vede dal mattino!

Il tag title, quando il buon giorno si vede dal mattino!

Uno dei primi e più importanti fattori SEO on-page che influenzano il posizionamento di una pagina web é il meta tag <title>, che i più sprovveduti trascurano ponendolo in secondo piano e utilizzando semplificazioni o addirittura codici personali di identificazione dei contenuti, ovviamente incomprensibili per qualsiasi motore di ricerca.

NO: <title>…</title>
NO: <title>Pagina 1</title>
NO: <title>Pagina Default</title>

La cosa importante da ricordare é che il titolo della nostra pagina sarà la prima cosa a comparire nelle SERP di una ricerca e dunque cerchiamo di renderlo breve, chiaro e rilevante nei termini usati.

Compiliamo il tag in modo che contenga una descrizione del contenuto che andrà a proporre, integriamo con parole chiave, solo le più importanti presenti nel testo, che aiutino a comprenderne il reale significato.

Intitolare la pagina con un nome generico, ad esempio quello di un’azienda sarebbe poco rilevante e passerebbe certamente inosservato, cerchiamo invece di completare il tutto con una breve descrizione che contenga il settore merceologico di riferimento, i prodotti venduti etc.

NO: <title>MagmaWebNews</title>
SI: <title>MagmaWebNews, SEO blog, articoli e news settimanali</title>

Ricordiamo inoltre che i titoli che appaiono nei risultati di ricerca hanno una lunghezza massima prestabilita il che ci limita nella compilazione. In questo caso, cerchiamo di concentrare i concetti e le parole chiave più importanti all’inizio della frase per evitare che qualcosa vada preduto lungo strada.

© Copyright - Vietata la copia non autorizzata dei contenuti di questa pagina!

HTTP e HTTPS, cosa c’é da sapere..

http o https

Come faccio a sapere se un sito web é sicuro? Posso sempre verificare l’URL per sapere se utilizza il protocollo di sicurezza HTTPS al posto del normale HTTP! Ottima idea, ma quali sono le reali differenze tra i due protocolli? Intanto, solo per dare una definizione corretta, HTTP sta per Hyper Text Transfer Protocol mentre HTTPS per é la stessa cosa ma con l’aggiunta di una S che non é altro che l’inizio dell’acronimo SSL o Secure Sockets Layer. In sostanza HTTPS aggiunge al normale protocollo di trasferimento di ipertesto un protocollo di crittografia che ne consolida la sicurezza proteggendo i dati al suo interno.

E’ importante conoscere il livello di sicurezza di un sito web perchè in esso sono normalmente custoditi i nostri dati sensibili come informazioni personali, numeri di carte di credito, conti bancari etc. In mancanza di una reale protezione, tutti questi dati potrebbero destare interesse e diventare vulnerabili ad hacker o melintenzionati.

E’ dunque necessario, in molti casi ma non in tutti, alzare il nostro livello di sicurezza utilizzando strumenti a protezione dei dati che inseriamo. Potrebbe essere una buona abitudine quella di rivolgersi ad applicazioni come HTTPS Everywhere, o qualsiasi altra estensione compatibile con i maggiori browsers che rende più sicura ogni commessione emulando un protocollo HTTPS.

In realtà, il livello di sicurezza raggiungibile da un collegamento SSL é unico e non paragonabile a nessun altro sistema o palliativo. E’ dunque interesse primario di qualunque sito web non ne sia ancora fornito, quello di acquistare  un proprio certificato SSL. La maggior parte degli hosting providers e fornitori di servizi web presenti sul mercato offre certificati SSL a prezzi abbordabili, é possibile acquistarne uno anche per meno di 50 euro l’anno.

Sempre dal punto di vista del titolare del sito web potremmo aggiungere un ulteriore vantaggio offerto dall’ implementazione di un pacchetto di crittografia, ed é la spinta in termini di posizionamento, che normmalmente i motori di ricerca offrono a chi eleva il livello di sicurezza del proprio sito. Questa é una prassi SEO comunemente utilizzata e riconosciuta da Google.

© Copyright - Vietata la copia non autorizzata dei contenuti di questa pagina!