La grande guida alla Search Engine Optimization

No Comments

Completa e aggiornata con tutte le principali tecniche SEO per scalare le SERP e migliorare il posizionamento Google del tuo sito web tra i risultati organici.

Questa guida raccoglie una serie di regole di SEO (Vedi Cos’è la Search Engine Optimization) per migliorare la posizione di un qualsiasi sito internet tra le pagine dei risultati di ricerca organici – SERP in gergo tecnico – di Google e dei motori di ricerca in genere. La guida racchiude tutte le informazioni e le attività fondamentali per ottimizzare efficacemente il ranking di qualsiasi sito: blog, e-commerce, portali corporate, landing page, etc.. La guida è principalmente indirizzata al miglioramento tra le SERP di Google, per il semplice fatto che a tutt’oggi è il più utilizzato al mondo, ma le tecniche illustrate funzionano egregiamente anche per aumentare la visibilità sugli altri Search Engines come Bing, Yahoo, Ecosia, Qwant, eccetera. Google ha più volte dichiarato che il numero di parametri presi in considerazione per il calcolo del ranking all’interno dei risultati è dell’ordine delle centinaia e che l’algoritmo di calcolo è in continua evoluzione: identificarli tutti è impossibile anche perché l’algoritmo è tutelato da copyright e segreto industriale. E’ però sempre possibile sperimentare, analizzare i risultati e giudicare di conseguenza.

Ed è quello che è necessario fare tutti i giorni per capire cosa funziona… e cosa no.

Clicca sulle immagini per accedere alle sezioni principali della guida,
oppure clicca su Tutte le sezioni qui sopra per l’indice completo.

Come viene calcolata la posizione del mio sito?

Calcoli ed equazioni
Il processo di indicizzazione e la SERP: frequenza delle scansioni, triggers, personalizzazione dei risultati di ricerca, calcolo del ranking e come verificare la posizione per parole chiave.

Regole e tecniche principali per apparire in prima pagina su Google

Le regole e le tecniche principali che devi soddisfare per ottenere un ottimo posizionamento tra i risultati di ricerca di Google, per il tuo sito internet.
Le regole e le tecniche principali che devi soddisfare per ottenere un ottimo posizionamento tra i risultati di ricerca di Google, per il tuo sito internet.

Strategie e metodi aggiuntivi di ottimizzazione

Metodi e strategie aggiuntive per perfezionare la visibilità del sito ed ambire ad arrivare primi su Google.
Metodi e strategie aggiuntive per perfezionare la visibilità del sito ed ambire ad arrivare primi su Google.

Metodologie e misure di SEO opzionali

Metodologie supplementari per affinare ulteriormente il piazzamento del sito in classifica. Influiscono in modo marginale o comunque solo in determinati contesti.
Metodologie supplementari per affinare ulteriormente il piazzamento del sito in classifica. Influiscono in modo marginale o comunque solo in determinati contesti.

Fattori inutili e obsoleti

Fattori obsoleti, ritenuti inutili dalla maggior parte dei motori.
Fattori obsoleti, ritenuti inutili dalla maggior parte dei motori.

Software e strumenti utili

Software fondamentali e professionali per la SEO, per il controllo dei backlink e della velocità di pagina, per l'analisi delle keywords.
Software fondamentali e professionali per la SEO, per il controllo dei backlink e della velocità di pagina, per l’analisi delle keywords.

Ottenere la prima posizione, o ache solo arrivare in prima pagina su Google, spesso non è un compito semplice. Richiede sicuramente studio, tempo e pazienza, esperienza, intuito, capacità … e in qualche caso anche un pizzico di fortuna! Per raggiungere la vetta può essere necessario avere una buona conoscenza dei linguaggi di programmazione usati sul Web (PHP, VB.Net, Java ecc.), della struttura dell’HTML, del funzionamento generale dei motori di ricerca. Occorre saper scrivere ottimi contenuti, realizzare strumenti accattivanti, avere conoscenze di Marketing e così via. D’altronde, se fosse un lavoro semplice, sarebbero tutti primi su Google!

Oltre a questo è indispensabile sapere cosa piace ai motori e cosa non piace, e per farlo bisogna avere informazioni aggiornate su quali siano le corrette tecniche da adottare. Questo è il compito fondamentale di ogni specialista di Web Marketing che si voglia occupare in particolare di Search Engine Optimization. Premesso tutto questo, è chiaro che per ottenere un risultato soddisfacente è indispensabile avere un buon bagaglio di esperienza alle spalle ed investire quantomeno del proprio tempo per svolgere tutte le attività necessarie a scalare le vette del ranking. In mancanza del tempo o dell’esperienza necessaria, il consiglio è sempre di affidarsi ad uno specialista in materia di SEO o a un team di esperti.

Prima di buttarti a capofitto nella lettura o di ingaggiare qualcuno che pensi sia in grado di “posizionare” il tuo sito, ti invitiamo a leggere l’articolo “Essere Primi su Google: Quando è possibile e quando non lo è“. Nell’articolo abbiamo cercato di spiegare con metodi semplici quando è possibile ottenere risultati, con quale sforzo (di tempo o economico), e quando invece forse è meglio lasciar perdere.

buona lettura e buon lavoro

Come viene calcolata la posizione del mio sito?

In quale modo Google (ed in genere, i motori di ricerca) stabiliscono dove inserire un sito all’interno di un insieme di risultati? Spendiamo due parole per descrivere quale sia il processo per il quale una certa pagina web appare o meno all’interno di una pagina di Google o in generale di un motore di ricerca qualsiasi (Bing, Yahoo!!, Virgilio ecc. adottano strategie simili). Abbiamo volutamente sostituito il termine pagina web, al posto del più generico “sito”, perché la classifica nelle SERP è calcolata differentemente pagina per pagina. Non solo, la posizione di ogni singola pagina è differente in base alla parola chiave che viene ricercata, alla localitàdalla quale viene effettuata la ricerca ed ad un’infinità di altri fattori. Andiamo per ordine.

Calcoli ed equazioni

L’indicizzazione: ovvero, fai sapere ai motori che esisti

Innanzi tutto Google deve conoscere il sito: deve insomma sapere che il sito esiste sul Web e corrisponde ad un ben preciso indirizzo URL (Uniform Resource Locator). Questo meccanismo prende il nome di indicizzazione ed è il punto di partenza di qualsiasi strategia di Search Engine Optimization. In realtà si tratta per tutti i motori di un meccanismo composto da molti passaggi, ma possiamo riassumere questo processo in tre passaggi fondamentali:

  • Conoscenza – Il motore di ricerca deve sapere che esiste un nuovo sito in rete, il vostro. Prima il motore vi conosce, prima indicizzerà e visiterà il sito.
  • Scansione/Spidering – Una volta a conoscenza della presenza del sito, il motore deve poter visitare le pagine leggendone i contenuti, i link, le immagini, i meta tag, gli attributi fondamentali e così via. Queste operazioni vengono denominate spidering e sono effettuate, nel caso di Google, da GoogleBot. Lo spider di Google, che naviga tutte le pagine del sito e le invia allo Storage centrale, un grosso “magazzino” di bit dove le pagine vengono temporaneamente memorizzate per essere successivamente analizzate.
  • Archiviazione ed indicizzazione – In base ai risultati ottenuti dallo spider, il motore decide se archiviare ed indicizzare le pagine per mostrarle tra i risultati di ricerca.

Aver portato un sito online non necessariamente garantisce che questi due passaggi vengano eseguiti in breve tempo. Per questo motivo è sempre meglio comunicare a Google ed agli altri motori di ricerca l’esistenza del sito appena possibile utilizzando le funzionalità messe a disposizione dai motori stessi. Ad esempio, installando e configurando Google Search Console nel caso di Google o gli Strumenti per Webmaster di Bing per velocizzare l’indicizzazione su Bing, Yahoo e tutti gli altri motori di casa Microsoft (Trovi i link alla sezione strumenti).

Bisogna considerare che questo processo di indicizzazione, per siti appena pubblicati, può durare da pochi minuti a diverse settimane, in base alle dimensioni ed all’autorità del sito. Per dare un metro di paragone, un sito di grandi dimensioni lanciato con una campagna pubblicitaria attraverso i mass media, viene normalmente indicizzato in pochi minuti. Viceversa, un sito di poche pagine relativo ad un’attività locale o che comunque nessuno conosce, potrebbe metterci diverse settimane o addirittura, mesi.

Esistono tecniche SEO particolari per “sveltire” l’indicizzazione ma per la maggior parte dei siti il tempo di attesa è grossomodo questo. Bisogna quindi avere pazienza: durante questo lasso temporale il sito semplicemente è invisibile e non è posizionato per nessuna parola chiave.

Se hai già eseguito gli opportuni passaggi ma il sito non ti sembra ancora indicizzato, puoi verificare a questa pagina l’indicizzazione su tutti i motori e leggere qualche consiglio aggiuntivo su come velocizzare l’indicizzazione.

L’elaborazione delle pagine per il calcolo del ranking

Le pagine indicizzate vengono tutte elaborate per definirne il Ranking: l’indice di autorevolezza che il motore attribuisce alla singola pagina rispetto ad una o più parole chiave, dalla quale poi se ne stabilisce la posizione all’interno di ogni pagina di risultati, comunemente detta SERP. Nel caso di Google, l’elaborazione delle pagine procede prima di tutto attribuendo uno o più Topics (Argomenti) ad ogni pagina, rilevati in base all’analisi semantica della pagina stessa. Per esempio una pagina che spiega una ricetta vegana sarà plausibilmente classificata con argomenti simili a “cucina”, “verdure”, “natura” e “ricette”. Non sappiamo con esattezza quali siano i topic che i vari motori usano ma è probabile che vengano utilizzate classificazioni simili a quelle rilevate in ADWords.

Google è in grado di classificare ogni sito internet in base agli argomenti che tratta, a vari segmenti di affinità e probabilmente a molti altri cluster (insiemi) di informazioni a noi non noti. E’ ovvio quindi che il piazzamento di ogni pagina sia derivato anche da questo tipo di classificazioni.

Google è in grado di classificare ogni sito in base agli argomenti che tratta
Google è in grado di classificare ogni sito in base agli argomenti che tratta
Google è anche in grado di classificarli in base a segmenti di mercato specifici
Ed è anche in grado di classificarli in base a segmenti di mercato specifici

Oltre alla classificazione per argomenti, Google provvede ad analizzare il testo di ogni pagina alla ricerca delle parole chiave della pagina stessa. Il concetto di keyword density ormai è obsoleto e bene o male tutti i motori si affidano a tecniche di analisi semantica molto più avanzate. Google ad esempio è in grado di riconoscere sinonimi, parole derivate che utilizzano lo stesso lemma, parole correlate o logicamente connesse e così via. Rilevate le parole chiave, il motore inizia a sperimentare con la pagina, visualizzandola agli utenti in posizioni inizialmente molto lontane dalla cima (Normalmente, ben oltre il 100° risultato) e solo su cosiddette long tail: ovvero frasi chiave molto lunghe e molto specifiche. In molti casi il motore agisce in maniera conservativa privilegiando i risultati già consolidati rispetto ai nuovi risultati introdotti ogni giorno sul web. Se la nuova pagina piace al motore e agli utenti per una certa parola/frase chiave, il ranking della pagina cresce per quella parola chiave, inizia a crescere di conseguenza per i lemmi ad essa correlati e in definitiva a scalare la classifica verso l’alto per short tail a traffico più elevato. In condizioni normali, la crescita per ogni keyword procede fino a stabilizzarsi in un certo punto della SERP Google. Se viceversa la pagina non piace, il ranking scende di conseguenza e la pagina… sparisce nel nulla.

Esempio
Ritorniamo all’esempio della ricetta vegana e supponiamo che tratti una nuova ricetta per cucinare un hamburger di soia. Google potrebbe iniziare a sperimentare visualizzando la pagina per le parole chiave “come cucinare un hamburger di soia“, “come si prepara un hamburger di soia” e “come si fa un hamburger di soia“. Se la pagina “piace”, crescerà sia per queste parole chiave lunghe sia per parole chiave più corte come “hamburger di soia” o “hamburger”.

Anche le parole chiave vengono suddivise per cluster. Basta digitare qualche lettera nella casella di ricerca Google per accorgersene!
Anche le parole chiave vengono suddivise per cluster. Basta digitare qualche lettera nella casella di ricerca Google per accorgersene!

Crawling e frequenza delle scansioni

La frequenza sia delle scansioni sia delle elaborazioni è variabile da sito a sito: tipicamente siti che hanno già un ranking elevato per diverse parole chiave, contenuti aggiornati di frequente ed un buon traffico di visitatori vengono scansionati ed elaborati più volte al giorno mentre siti a basso Ranking, con contenuti meno dinamici e basso traffico vengono scansionati e rielaborati nell’arco di qualche settimana o di qualche mese. Anche su questo aspetto bisogna quindi avere pazienza: I siti neonati subiscono ricalcoli con frequenze molto basse e qualsiasi modifica facciate ai contenuti ha bisogno di settimane o mesi prima di essere “reinterpretata” dai vari motori.

A questa regola generale esistono diverse eccezioni grazie ad un’infinità di cosiddetti Trigger : regole particolari che scatenano scansioni, valutazioni e riposizionamenti molto rapidi dei siti spesso dovute a particolari tendenze che il motore rileva nella giornata (Per esempio, grandi eventi, tragedie e incidenti o altri trend di ricerca ) e che hanno l’intento di offrire agli utenti informazioni aggiornate rapidamente.

Esempi di trigger e variazione istantanea del ranking

Un esempio tipico dell’applicazione di un trigger sono gli eventi catastrofici: Se Google in una data ora rileva una crescita anomala nel numero di ricerche sulla parola chiave “terremoto” e annesse, immediatamente fa comparire ai primi posti in classifica le pagine aggiornate di recente contenenti la parola chiave “terremoto” (o parole correlate), pescandole prima di tutto dai siti con maggior autorità. Questo tipo di posizionamento istantaneo del sito tipicamente non perdura a lungo a meno che i visitatori non mostrino un interesse costante nel tempo nella pagina.

Un altro trigger piuttosto conosciuto è quello casuale. Durante la sperimentazione, il motore decide di inserire temporaneamente in alto in classifica pagine che normalmente sono più in basso, per analizzare come si comportano i visitatori con il nuovo risultato: Se i visitatori mostrano in qualche modo interesse nei contenuti (Rimanendo a lungo sul sito, iniziando a “parlare” del sito in rete creando menzioni, backlink e così via), il motore valuta che la pagina sia più interessante di quelle già presenti tra i risultati ed automaticamente ne migliora la posizione in modo duraturo. Viceversa se durante questo lasso di tempo i visitatori non dimostrano interesse sufficiente, la pagina perde la collocazione in classifica e torna al livello originale, o scompare dalla Top 100.

Posizione relativa e personalizzazione dei risultati di ricerca in base alle informazioni che il motore ha … su di te

A questi meccanismi si aggiungono una serie di logiche che personalizzano il risultato per ogni singolo utente utilizzando:

  • La cronologia delle visite dell’utente
  • La sua ubicazione geografica
  • Le metriche inerenti le preferenze e gli interessi dell’utente

e molti altri parametri che il motore di ricerca ha registrato, al fine di restituire un risultato il più possibile pertinente con ciò che l’utente sta cercando.

Per questo motivo se visiti spesso un sito web (Per esempio, il tuo), Google tende a farlo comparire nelle prime posizioni tra i risultati di ricerca per parole attinenti ai contenuti del sito stesso. Questo non significa assolutamente che il sito sia realmente in quel punto: significa solo che tu lo vedi lì perché Google presuppone tu abbia la necessità di arrivare rapidamente al tuo sito. Tutti gli altri utenti lo vedono inserito in punti diversiche possono tranquillamente essere decine o centinaia di posti più indietro in classifica.

Come rilevare la posizione del sito?

Per sapere con un po’ più di accuratezza in quale posizione naturale si trova il sito:

  • Puoi utilizzare le modalità di navigazione in Incognito di Google Chrome o Mozilla Firefox digitando la frase chiave per la quale ti interessa conoscere il ranking.
  • Puoi utilizzare gli strumenti di analisi messi a disposizione dei motori (Vedi i link all’inizio della guida). Questi strumenti, per molte parole chiave ma non per tutte, riportano la posizione media tra i risultati di ricerca.
  • Infine, puoi utilizzare lo strumento per la ricerca del posizionamento . Attualmente sono supportati Google, Bing e Yahoo! ed è possibile simulare la ricerca in diverse lingue e nazioni.

L’Algoritmo di calcolo

Il processo di elaborazione e ricalcolo dei risultati è piuttosto complesso. Nessuno dei motori di fatto ha mai rilasciato ufficialmente l’algoritmo di calcolo attraverso il quale vengono presentati i risultati. Google tuttavia ha fornito diverse volte informazioni più o meno dettagliate su quali siano le principali variabili delle quali tiene conto e ha messo a disposizione di tutti alcune sintetiche guide alla Search Engine Optimization con indicazioni da seguire, per lo più tuttavia già conosciute a chi si interessa di SEO. La guida di Google tuttavia, omette volutamente alcuni parametri che sono invece molto importanti per ottenere successo.

Le ragioni per cui ne Google ne gli altri motori hanno mai rilasciato la versione completa del proprio algoritmo di calcolo sono almeno due:

  • La prima è che gli algoritmi in sé sono coperti da Copyright. Nel caso di Google ad esempio, questo è uno dei due elementi (L’altro è l’estrema semplicità d’uso) che ha consentito a Google di sbaragliare tutti gli altri concorrenti a fine anni ’90 grazie all’accuratezza dei risultati prodotti.
  • La seconda è che, conoscendo l’algoritmo, tutti sarebbero in grado di ottimizzare i propri siti al meglio per ottenere le prime posizioni ed i risultati quindi non sarebbero più attendibili per chi effettua le ricerche.

Essendo fondamentalmente un software, l’algoritmo per la classificazione subisce piccole modifiche quasi quotidianamente e grandi modifiche ad intervalli più o meno regolari di qualche mese: Agli addetti ai lavori sono piuttosto note le modifiche denominate “Panda” e “Penguin” di Google che nel 2012 hanno colpito vigorosamente il Web declassando (Ed in alcuni casi eliminando completamente) un buon numero di siti Web. Così come l’introduzione dell’algoritmo di machine learning nel 2016 o dell’indice mobile first tra il 2017 ed il 2018 (Vedi anche l’articolo Il messaggio “Mobile-first indexing enabled for”).

Analisi della concorrenza

La concorrenza gioca un ruolo fondamentale nel calcolo del posizionamento di un sito internet. Per ottenere risultati è indispensabile infatti analizzare la concorrenza e cercare di capire i motivi per i quali i siti dei concorrenti sono piazzati meglio del tuo: procedimento che prende il nome di gap analysis. Analizzare la situazione dei siti ai primi posti su Google per le stesse parole chiave su cui vuoi competere ti aiuta ad ottenere un’idea chiara del lavoro necessario a raggiungerli, delle attività di Search Engine Optimization da compiere per ottenere un certo obiettivo e dello sforzo da mettere sul piatto per raggiungere o superare i concorrenti. E con un po’ di fortuna, ti aiuta a diventare il primo. Ad esempio, se il sito web al terzo posto ha 1.000.000 di link in ingresso, 1000 pagine di contenuti ed un dominio registrato da 10 anni mentre il tuo sito neonato ha solo 2 link e 10 pagine, scalare il 3° in classifica sarà ovviamente un compito impossibile nel breve termine. Analizzando il quinto concorrente però potresti scoprire che possiede solo 100 link in ingresso, 10 pagine di contenuti e magari non rispetta appieno tutte le buone norme di SEO contenute in questa guida: in questo caso il compito di raggiungere e superare il 5° o il 4° piazzamento dovrebbe essere molto più semplice.

I parametri da tenere in considerazione sono tutti quelli enunciati nella guida: Qualità e quantità dei contenuti, link in ingresso, struttura del sito, url, meta tag, anzianità del dominio e così via. Condurre un’analisi di questo tipo ha sempre un costo in termini di tempo o denaro ma è spesso necessaria per capire fin dove possiamo spingere con l’attività di SEO e definire bene quale sia la probabilità di raggiungere il livello desiderato in classifica.

Le regole e le tecniche principali che devi soddisfare per ottenere un ottimo posizionamento tra i risultati di ricerca di Google, per il tuo sito internet.
Le regole e le tecniche principali che devi soddisfare per ottenere un ottimo posizionamento tra i risultati di ricerca di Google, per il tuo sito internet.

Regole e tecniche principali per apparire in prima pagina su Google

Regole, metodi e tecniche SEO fondamentali per migliorare il posizionamento del sito su Google, e sui motori di ricerca. Il rispetto di queste regole garantisce un buon risultato in termini di ranking se la concorrenza non è eccessiva. Viceversa, ignorare questi principi significa quasi sicuramente non ottenere nessun piazzamento in classifica oppure ottenere risultati deludenti. Le regole riportate, in questa e nelle sezioni successive, valgono per qualsiasi tipo di sito web:

  • Portali, blog, e siti vetrina dinamici (Costruiti con WordPress, Drupal, Joomla, ) o su piattaforme online (Blogger, Wix, Weebly, Jimdo, etc.)
  • E-commerce (Magento, Prestashop, Woocommerce, etc.)
  • Landing pages dinamiche o statiche (Bootstrap, Angular, ReactJS, etc.)

A prescindere dalle tecnologie utilizzate, tutti i siti seguono le stesse regole agli occhi di Google. 

Scegliere il nome di dominio perfetto

Il primo passo da prendere in considerazione per raggiungere il successo sotto l’aspetto dell’ottimizzazione SEO di un sito web è … la scelta del nome di dominio, ovviamente. Acquistare e registrare il nome di dominio più appropriato è il primo importante step che è importante centrare per evitare problemi successivamente.

Quale nome di dominio è meglio scegliere allora? E’ tutt’oggi pratica diffusa, inserire le parole chiave attinenti ai propositi generali del sito nel nome del dominio o meglio, registrare direttamente il nome di dominio con parole chiave che per così dire risultano “interessanti” ai fini della propria attività commerciale o comunque dell’attività cui punta il sito. I nomi di dominio così creati vengono denominati anche Exact Match Domain (EMD). Se il sito tratta per esempio di botanica e giardinaggio fai da te, il nome di dominio EMD relativo potrebbe essere semplicemente www.botanicagiardinaggiofaidate.it oppure www.botanica-giardinaggio-fai-da-te.it. Se invece hai un’attività locale, ad esempio un fiorista a Belluno, un nome di dominio adatto potrebbe essere www.fioristabelluno.it oppure www.bellunofiori.com. Se da un lato è vero che questa pratica può ancora portare a ottimi risultati in termini di SEO, fino addirittura a raggiungere la 1° posizione su Google in alcuni casi, bisogna prestare molta attenzione nella scelta. Per vari motivi:

  • Nomi di dominio troppo mirati possono risultare artificiosi agli occhi degli utenti spingendoli quindi a cliccare su risultati più naturali.
  • Gli utenti hanno difficoltà a ricordare i nomi di dominio troppo lunghi.
  • E’ discretamente probabile che il dominio si posizioni solo per quelle parole chiave.
  • Google ha introdotto penalizzazioni nei confronti dei domini con parole chiave esatte, e ne introdurrà anche in seguito.

Nella pratica, il nome di dominio perfetto può semplicemente essere il tuo nome se sei un blogger o un professionista, oppure il nome della tua attività commerciale, del tuo marchio, brand o prodotto se sei un imprenditore. In questo modo Il sito risulta sicuramente più appetibile agli utenti, non rischi penalizzazioni, aumenti la fiducia nei visitatori e l’awareness nel dominio, brand o prodotto. In tutti i casi, meglio registrare un nome unico, distintivo e non troppo lungo.

Scegliere il nome di dominio migliore per attività locali (Negozi, ristoranti e pizzerie, immobiliare/edilizia, concessionari …)

Se hai un’attività locale, ovvero servi clienti all’interno di una certa distanza dalla tua attività, come ad esempio un negozio, un agriturismo, un panificio, una palestra e via discorrendo, puoi anche acquistare un nome di dominio combinato, concatenando il nome della tua attività con il tipo di attività che svolgi ed eventualmente la località all’interno della quale puoi servire i clienti. In questo modo:

<nome attività> + <tipo attività> + <località> (opzionale) = nome di dominio

oppure

<tipo attività> + <nome attività> + <località> (opzionale) = nome di dominio

Alcuni esempi:

carrozzeria + Rossi S.r.l = www.carrozzeriarossi.com oppure www.carrozzeriarossisrl.it

Beltrami S.n.c + serramenti e infissi + Torino = www.beltramiserramentitorino.com oppure www.beltramiinfissitorino.it

rivenditore auto + Car special S.a.s + Novi ligure = www.autousatecarspecial.com 
oppure www.carspecialautonoviligure.com

CLB S.p.A. + costruzioni + Bari = www.clbcostruzionibari.com oppure www.clbediliziabari.com

E così via. I nomi di dominio risultanti sono spesso molto lunghi e poco facili da ricordare, tuttavia non comportano in genere penalità dai motori e con un po’ di ingegno possono essere un’ottima scelta: in termini di visibilità infatti, il sito tende a comparire tra le prime pagine di Google sia per chi cerca nelle vicinanze il brand (Rispettivamente Rossi, Beltrami etc.), sia per chi è in cerca del tipo di attività (Rispettivamente una carrozzeria, serramenti o auto usate, etc.).

I nomi di dominio costruiti in questo sono molto efficaci per migliorare sensibilmente il posizionamento del sito sui motori, specialmente per le piccole e medie aziende. Attirano esattamente i visitatori di cui hai bisogno e sono in grado di far apparire anche una semplicissima landing page in prima posizione su Google per i termini di ricerca che portano maggior valore al tuo negozio, alla tua attività commerciale o alla tua azienda.

Quale estensione scegliere, estensioni e domini multipli

Quale estensione devo scegliere per il mio nuovo nome di dominio?

La risposta è: dipende dai tuoi obiettivi e dal pubblico a cui intendi rivolgerti. Normalmente, per domini che si rivolgono ad un pubblico italiano, le estensioni che funzionano meglio e alle quali non dovresti rinunciare sono .it e .com.

  • L’estensione .com funziona in media meglio per le attività commerciali
  • L’estensione .it per siti a carattere più generico/informativo.

Se il tuo obiettivo è di creare un sito in lingua straniera per una nazione specifica, è meglio adottare l’estensione principale di quella nazione. Per esempio, .de per siti indirizzati al pubblico Tedesco, .ch per la Svizzera, .co.uk per il Regno Unito e così via.

Scegliere l'estensione giusta per il tuo nuovo nome di dominio, significa anche scegliere quella che ti consente una buona visibilità sui motori di ricerca
Scegliere l’estensione giusta per il tuo nuovo nome di dominio, significa anche scegliere quella che ti consente una buona visibilità sui motori di ricerca

Come scoprire in modo semplice quale estensione fa al caso tuo

Per fugare qualsiasi dubbio, puoi adottare una semplicissima tecnica di indagine:

  1. Cerca su Google una o più parole chiave per le quali vorresti competere. Per esempio “Scarpe ortopediche”, se produci scarpe.
  2. Verifica le estensioni dei domini riportati in prima pagina fra i risultati organici di Google.
  3. Adotta l’estensione più frequente fra le precedenti

Se per ipotesi, tra i domini in prima pagina Google vedi molto spesso l’estensione “.it” (Come nell’esempio di figura), è evidente che Google sta in qualche modo premiando i siti con quell’estensione o comunque, non li sta penalizzando. Non sbaglierai sicuramente adottando quell’estensione. In modo analogo, puoi analizzare i nomi di dominio presenti tra i risultati per capire quali funzionano, e quali no.

Esempio di determinazione dell'estensione per il nuovo dominio
Esempio di determinazione dell’estensione per il nuovo dominio

I posizionamenti migliori nei motori di ricerca comunque, statisticamente li ottengono i siti i quali:

  • Possiedono più nomi di dominio. Per esempio una versione estesa ed una abbreviata: carlorossicarrozzeria.it , crcarrozzeria.itcarlorossi.it, crc.it ecc.
  • Corrispondono un maggior numero di estensioni. In particolare, per siti web localizzati in Italia, le estensioni “.it”, “.com”, “.eu”, “.net”, “.org” e “.edu” sono le più importanti ai fini del ranking, con le prime due che rivestono un ruolo di primaria importanza per siti a carattere commerciale e le ultime due molto importanti per siti a carattere divulgativo/ informativo e comunque non a scopo di lucro.

Registrare più domini e più estensioni comporta sicuramente un costo lievemente maggiore ma agli occhi di Google in particolare, è segno di affidabilità del sito. Per evitare penalizzazioni tuttavia, occorre sempre ricordarsi di utilizzare la tecnica delle redirezioni 301 (Che analizziamo più avanti nella guida) per fare in modo che tutti i domini e le estensioni puntino ad un unico dominio principale. Se ciò non fosse, Google potrebbe decidere che i siti sono diversi con il rischio di penalizzazioni dovute alla duplicazione di contenuti ecc. ecc. Per i siti internazionalizzati in più lingue invece le cose sono uno’ diverse, ce ne occuperemo in una sezione della guida specifica più avanti.

Negli ultimi anni stanno progressivamente arrivando sul mercato nuove estensioni di dominio, ad esempio .shop, .online, .srl, .tech, .agency e così via. Non è ancora ben chiaro tuttavia come i motori si comporteranno con queste estensioni. Nel dubbio è probabilmente meglio ancora optare per le estensioni già consolidate, eventualmente riservando ed acquistando lo stesso dominio con qualche nuova estensione aggiuntiva per il futuro.

L’importanza dei contenuti

Il fattore principe che guida un sito web al vertice della classifica di Google sono i contenuti. Non a caso gli specialisti di SEO utilizzano spesso la frase “Content is King” (Il contenuto è Re). Come già accennato, lo spider di Google scandisce accuratamente le pagine di ogni sito web e le analizza semanticamente per definirne l’autorevolezza. Non solo, Google è in grado di valutare l’interesse da parte degli utenti premiando le pagine che apportano un valore aggiunto al visitatore. Informazioni utili, scrittura creativa ed emotiva, una buona impaginazione, sono tutti elementi fondamentali da non trascurare: l’obiettivo principale di ogni testo dev’essere di catturare l’attenzione del visitatore e invogliarlo alla lettura.

Creare contenuti utili, in modo originale, favorisce enormemente la SEO
Creare contenuti utili, in modo originale, favorisce enormemente la SEO

Molto schematicamente, i contenuti devono:

  • Essere pertinenti con la ricerca che ha svolto l’utente. Come già accennato nella parte introduttiva, la parola chiave ricercata può sottintendere diversi intenti di ricerca. Un esempio estremo sono i polisensi: Una pagina che tratta di pesca sportiva è molto probabile venga visualizzata per parole chiave annesse alla pesca sportiva, molto meno probabile che sia presente in classifica se l’utente sta cercando il frutto “pesca”.
  • Contenere le parole chiave su cui ci interessa competere, sinonimi delle stesse o parole chiave che hanno un nesso logico con esse. Google e molti altri motori effettuano delle analisi semantiche del testo (lemmatizzazione, stemming, etc. etc.) per capire a chi proporre le pagine. Attenzione a non eccedere.
  • Essere soprattutto originali, innovativi e completi. Devono portare informazioni nuove all’utente, destarne l’interesse, invogliarlo alla lettura ed a rimanere sul vostro sito. Originalità e novità sono parole chiave sotto tutti gli aspetti quando si parla di Search Engine Optimization!
  • Aggiornati di frequente. Come già spiegato, Google attribuisce miglior ranking a siti che contengono informazioni “fresche” per gli utenti. E in tutti i casi, gli utenti preferiscono le informazioni aggiornate rispetto a quelle troppo vecchie. Inoltre, in base alla frequenza di aggiornamento dei contenuti, i motori di ricerca potrebbero decidere di aumentare la frequenza di scansione delle pagine o di aggiungere altre varianti di snippet della pagina tra i risultati di ricerca. E tutto a vostro beneficio.
  • In buona quantità. A siti con più pagine e con maggior quantità di testo corrispondono sempre collocazioni molto migliori tra le SERP Google ed una maggiore probabilità che alcune delle pagine raggiungano la TOP 10 per le parole chiave più attinenti.

I testi sono e saranno sempre più un elemento chiave per la SEO e scrivere è un lavoro specialistico come qualsiasi altro: quindi se non pensi di essere in grado di scrivere un buon testo valuta sempre l’opzione di assumere un buon Copywriter/Ghostwriter che lo scriva per te.

Non esistono solo i contenuti testuali: nuovi strumenti software gratuiti, pagine con video o musica, forum dove offri aiuti e consigli, risposte a domande che ancora non hanno una risposta, guide in PDF … sono solo alcuni esempi di contenuti che rappresentano un enorme valore aggiuntoper i tuoi visitatori e che possono rendere il tuo sito primo su Google in poche ore, a prescindere da tutto il resto! Un esempio? I quotidiani online pubblicano decine di articoli di attualità e novità sui fatti della giornata. E molti di questi articoli finiscono in prima pagina Google in molto meno di 24 ore! 

Ottimizzare il sito per il mondo mobile

Rendere il sito compatibile con telefonini, tablet e smart device, ovvero essere “Mobile Frendly”, è ormai diventato un must per chiunque voglia raggiungere le prime pagine sui motori. Negli ultimi anni il mondo dei dispositivi mobile, grazie anche al contributo di Apple, ha subito una brusca impennata. Qualsiasi sito quindi dovrebbe essere agevolmenteutilizzabile e fruibile da dispositivi quali smartphone, tablet e dispositivi mobile in genere. I motori di ricerca dal canto loro stanno già privilegiando i siti compatibili, Google nella fattispecie ha iniziato il passaggio all’indice mobile-first nel 2017, ragion per cui a molti utenti è arrivato il messaggio “Mobile-first indexing enabled for“. La preparazione di versioni alternative del sito costruite apposta per consentire la navigazione di questi dispositivi (Per esempio in XHTML o HTML5) oppure l’utilizzo di layout di tipo Responsive o Fluid che si adattano dinamicamente alla risoluzione dello schermo è ormai indispensabile: Molti motori sono in grado anche in questo caso di rilevarne la presenza e attribuire punteggi superiori ai siti che rispettano questa regola. A questo si aggiunge la possibilità di avere un maggior numero di utenti che visitano il sito perché l’utilizzo di dispositivi mobile, come già visto, è in costante crescita e se un utente cerca di esplorare un sito che non consente un’adeguata esplorazione, la sua visita sarà piuttosto breve!

Esempio di un sito non-responsive, che si vede solo parzialmente, su Nexus 5
Esempio 1 – In questo esempio di sito non responsive, la pagina è caricata solo parzialmente e parte del contenuto non è visibile.

La maggior parte dei motori penalizza sensibilmente i siti non adatti all’esplorazione mobile, per verificare se il tuo sito è compatibile, puoi leggere l’articolo di approfondimento 4 modi per controllare se il tuo sito è Responsive.

A tutt’oggi ottenere backlink di qualità è ancora fondamentale per arrivare a buoni risultati in termini di SEO. La popolarità di un sito in rete è in parte misurata da qualità e dalla quantità di backlinks e menzioni che possiede, ovvero dal numero di siti che fanno riferimento ad esso utilizzando un link all’interno dei propri contenuti, ed influisce in modo determinante per aumentare il posizionamento del sito su praticamente tutti i motori di ricerca. In fondo, ogni backlink ha un significato specifico: qualcuno in rete sta “parlando” del sito … quindi l’interesse generale sta aumentando. E l’interesse complessivo da parte degli utenti, è una metrica tenuta in considerazione da tutti i search engines. In pratica, ogni link viene trattato come un voto che il sito di origine implicitamente invia al sito di destinazione. Il meccanismo di votazione in realtà è estremamente complesso ed utilizza logiche di appetibilità di ogni link (“link juice”) calcolate a partire:

  • Dal page rank delle pagine di origine e destinazione
  • Dall’autorità complessiva che Google attribuisce ai rispettivi domini e brand
  • Dal tipo e dalla quantità di interconnessioni tra i due domini
  • … e molto altro.

In estrema sintesi comunque, avere backlinks in gran numero e soprattutto di qualità, da siti che Google ritiene importanti è di fondamentale importanza ai fini dell’ottenimento del ranking. Anche i link interni alle pagine del sito sono importanti, ogni link da una pagina ad un’altra attribuisce un voto e contribuisce a migliorarne l’autorevolezza.

Alcune linee guida:

  • I link migliori arrivano da siti che trattano argomenti simili o correlati agli argomenti che tratta il sito di destinazione. Siti specializzati, Blog, Forum e Directory ove si trattano informazioni simili. Il testo “vicino” al link in particolare deve essere attinente con i contenuti della pagina di destinazione cui il link rimanda. Viceversa, ottenere backlink da pagine che non c’entrano nulla con l’argomento trattato, nella migliore delle ipotesi non porta ad alcun beneficio. Nella peggiore delle ipotesi, può tramutarsi in una penalità manuale o algoritmica con effetto totalmente opposto (Abbassamento del ranking o perdita dell’indicizzazione).
  • Il Page Rank e la qualità dei siti che vi linkano e dei siti che voi linkate è fondamentale. A miglior qualità corrispondono voti più alti. Rivestono particolare importanza i domini con estensioni .gov, .org ed .edu, ritenuti normalmente di grande autorità.
  • Prestare attenzione ed evitare assolutamente siti che trattino di argomenti illegali, utilizzino tecniche black hat, o contengano virus o malware. Il ban in questi casi è immediato e difficile da recuperare.
  • Non è utile avere tanti link da un unico dominio, tendenzialmente il voto inviato da ogni dominio decresce molto rapidamente al crescere del numero di link da quel dominio al vostro. Approssimativamente 100 link da domini diversi contano come 100 “voti” singoli mentre avere 100 link da un unico dominio conta molto approssimativamente come da 1 a 5 “voti”
  • I’Anchor Text dei link (Il testo sottolineato che “contiene” il link) dovrebbe essere inerente o vicino alle parole chiave o a sinonimi delle parole chiave per le quali intendete posizionare il sito. L’esagerazione nell’uso di questa tecnica SEO però può portare a penalizzazioni da parte di tutti i motori e conviene sempre avere un buon mix di anchor text differenti, di cui la maggior parte riportanti semplicemente il nome del brand o del dominio. Google nella fattispecie, a partire dall’update Panda del 2011, attribuisce un valore particolare alla diffusione ed all’utilizzo delle menzioni del Brand per il calcolo dell’autorità complessiva del sito.
  • Il tempo di creazione tra un back link e l’altro è importante: I motori controllano la rapidità con cui questi vengono creati e potrebbero decidere di classificare la creazione come tentativo “artificioso” di innalzare la reputazione del sito.
  • La durata temporale dei link è anch’essa importante, maggiore è la permanenza di un link in rete, più alto è il voto che esso invia.
  • A migliorare l’autorevolezza ed il ranking delle pagine non sono solo i link diretti. Nell’epoca di YouTube e Facebook, pubblicare video, slide show, documenti ed elementi multimediali che abbiano link alle tue pagine è un metodo eccezionale di ottimizzazione del ranking per tutti i motori di ricerca.
  • Anche i link interni al sito sono fondamentali per il ranking complessivo delle pagine. Per la creazione dei link interni valgono le stesse regole che vengono adottate per i backlink: Anchor Text con parole chiave, testo “vicino” attinente ai contenuti di pagina eccetera. Inoltre, statisticamente le pagine che ricevono il maggior numero di link interni sono anche quelle che vengono maggiormente considerate dal motore per la ricerca e la presentazione dei risultati, ergo posizionate più facilmente.

L’attività di creazione di nuovi backlinks prende il nome di link building. Nonostante la credenza popolare, il link building non è totalmente vietato da Google. Tuttavia Google raccomanda alcune norme specifiche per evitare penalità. In tutti i casi, nulla ti vieta di fare link building sponsorizzando in totale autonomia il sito, e per iniziare a farlo puoi dare un’occhiata alla lista di siti utili da cui ottenere backlinks.

Essere presenti sui Social Media

L’influenza dei Social sulla presenza in SERP è ormai piuttosto chiara. Oggi è indispensabile aver almeno uno tra i principali account social: Facebook, LinkedIn, Twitter, Instagram o altri in base al social che meglio si adatta alle tue esigenze (Vedi anche la guida Introduzione al Social Media Marketing per scegliere il social che fa al caso tuo. Disponibile sia in versione online che PDF).

Non solo, l’account deve essere tenuto attivo: aggiornando periodicamente le informazioni di profilo, pubblicando novità e contenuti multimediali interessanti, condividendo informazioni etc. In definitiva, informazioni sempre “fresche”, in qualche modo attinenti con le tematiche dei contenuti del sito ed interessanti per gli utenti che visitano il tuo account. Con l’obiettivo di ottenere un buon numero di follower interessati a seguire l’account, a condividerne le informazioni ed a commentarne i post. Non è tanto l’account in se a fare la differenza, quanto più la “quantità di interesse” che gli utenti manifestano nei confronti dell’account.

In genere i motori di ricerca, Google in primis, sono in grado di rilevare e premiare i siti cui corrispondono account di questo tipo e sono anche in grado di misurare le metriche distintive di ogni social network: Ad esempio il numero di retweet su twitter, il numero di likes, di condivisioni, di amici su Facebook e così via. Il sito acquisirà comunque maggior traffico e popolarità oltre che un maggior numero di contatti – potenziali prospect/deal per gli addetti ai lavori che si occupano di vendite – grazie alla presenza all’interno di queste reti. Mantenere account su più di un Social Network non farà altro che migliorare ulteriormente la situazione ed è un modo molto efficace per perfezionare il posizionamento nei motori di ricerca, Google per primo. Oltre agli account, è importante aggiungere le apposite funzionalità per la valutazione (Pulsanti “Like”) e la condivisione (“Share”) all’interno delle pagine del sito: Statisticamente a un maggior numero di valutazioni positive corrisponde una posizione migliore ed un maggior numero di visitatori.

Volume di traffico e numero di visitatori

Il numero di utenti che visitano il sito giornalmente non solo influisce direttamente sulla visibilità in SERP, anzi, è tra i fattori in grado di far arrivare il sito in prima pagina su Google alla velocità della luce. Più utenti visitano il sito, migliore è la posizione che i motori in genere gli attribuiscono. Il ragionamento è logico, se si considera che una delle componenti fondamentali per la valutazione del ranking è l’autorità, e l’autorità aumenta al crescere degli utenti che ritengono possa essere utile visitare i contenuti del sito web. Più un sito è visitato, più deve essere interessante, e l’obiettivo principale di qualsiasi search engine è proporre ai navigatori cose interessanti!

Il numero complessivo giornaliero o mensile di utenti che visitano il sito è composto da diverse componenti, le 3 principali sono:

  • Traffico diretto – Ovvero tutti quegli utenti che digitano direttamente un URL del sito nel browser, oppure ad esempio che hanno salvato l’URL di una pagina tra i preferiti del browser. Queste visite arrivano direttamente ad una delle pagine del sito, senza passare da motori di ricerca o altri siti intermedi.
  • Traffico indiretto o da referral – Formato da tutti quei visitatori che arrivano al sito seguendo un link da un altro sito internet o da un altro mezzo (Per esempio, un link su un documento viene classificato come traffico da referral, così come il link contenuto in un’email).
  • Traffico organico – Il traffico formato da tutti gli utenti che hanno ricercato su un motore di ricerca e sono arrivati al sito cliccando su uno dei risultati restituiti dal motore.

Da questi poi potrebbero essere distinti anche il traffico dai social o da sponsorizzazioni a pagamento. Dal punto di vista puramente teorico, sia questi che il traffico organico non sono altro che un sottoinsieme del traffico da referral per il semplice fatto che Google, Bing e gli altri motori sono siti di passaggio intermedi.

Panoramica Acquisizione utenti di Google Analytics - Grafico a torta
La Panoramica Acquisizione utenti di Google Analytics mostra chiaramente le varie componenti di traffico

Tutte queste componenti contribuiscono a formare il volume complessivo di visitatori del sito, e per tornare alla considerazione iniziale: Il volume complessivo del traffico organico è in buona parte proporzionale alla somma di traffico diretto ed indiretto. Aumentando quindi il traffico diretto e indiretto ad un sito, si aumenta progressivamente il ranking medio delle pagine.

Come aumentare il traffico verso il sito? Un metodo a basso costo è l’advertising online ad esempio con ADWords, YouTube o tramite siti affiliati che pubblichino la vostra pubblicità. Un altro esempio tipico sono le campagne sui mass media: il traffico online indotto da questo tipo di advertising è molto elevato (Anche se molto costoso), ma induce ad una rapidissima crescita del traffico organico per via del numero di utenti che cerca il brand, l’organizzazione o il prodotto associato alla pubblicità.

Anzianità del dominio

Più un dominio è datato, meglio i motori di ricerca ne valutano l’autorità, meglio il sito è posizionato. La regola vale sia per il passato sia in parte per il futuro: sfruttando i servizi WHOIS i motori di ricerca sono in grado di sapere da quanto tempo è stato registrato un dominio e se il dominio è già stato prenotato per i prossimi anni. Anche in questo caso, statisticamente a periodi di registrazione e di prenotazione più lunghi corrisponde in genere un miglior posizionamento sui motori di ricerca.

Non solo, i siti più vecchi sono già stati scansionati e indicizzati, i motori hanno già avuto modo di capire quali pagine funzionano meglio per gli utenti e per quali parole chiave, hanno già un bacino di utenti fidelizzati, e via discorrendo. Insomma, i domini ed i siti presenti da più tempo su internet godono sempre di un beneficio di “anzianità” al punto di vista della SEO: hanno dato prova di stabilità, continuità e affidabilità nel tempo, ragion per cui è logico che siano privilegiati rispetto ai più “giovani”, che hanno ancora tutto da dimostrare e per i quali serve quindi un po’ di pazienza in più. Per questo motivo c’è chi preferisce acquistare domini o interi siti già avviati da altri, anche a caro prezzo: perché portano con sé tutti i vantaggi dovuti all’anzianità. Un po’ lo stesso principio utilizzato da commercianti e imprenditori che rilevano attività e negozi già avviati. Per contro, se stai per registrare un nuovo dominio, ricordati di riservare il nome di dominio per qualche anno in più se ne hai possibilità e … armati di pazienza, perché la crescita, in molti casi, è lenta e progressiva.

User Experience

La User Experience degli utenti gioca, da qualche anno, un ruolo fondamentale nell’ambito della SEO. Il RankBrain di Google in particolare, tiene in considerazione le principali metriche utente per valutare quanto sia interessante un contenuto o un insieme di contenuti:

  • La frequenza di Rimbalzo degli utenti, ovvero la percentuale di utenti che abbandona la pagina dopo un breve lasso di tempo. A pagine con minore frequenza di rimbalzo sono associati punteggi migliori.
  • La permanenza degli utenti – Il tempo speso all’interno del sito stesso, misurato da Google in termini di pagine mediamente visualizzate e tempo medio di visita.
  • Il numero e la frequenza dei ritorni – Rispettivamente utenti che esplorano nuovamente le stesse pagine dopo un certo periodo di tempo.
  • Il CTR o Click Trough Rate – Il numero di utenti che cliccano sul risultato organico dopo che il risultato è stato visualizzato tra i risultati.

A siti che abbiano un buon numero di utenti, tempi medi di visita elevati, bassi rimbalzi e frequenti ritorni sono normalmente associati ottimi piazzamenti su Google. Viceversa siti con poche visite, elevati rimbalzi e ritorni nulli sono associate posizioni di poco rilievo. Questo meccanismo è in qualche modo circolare. E’ certo però che se un sito ottiene la prima pagina su Google per un periodo più o meno breve ed in questo lasso di tempo non riesce a maturare un buon traffico, buoni tempi di attraversamento/visita e così via, automaticamente la valutazione dei contenuti sarà negativa ed il sito subirà un declassamento.

Tutti questi parametri possono essere misurati abbastanza accuratamente utilizzando Google Analytics (Il link è disponibile alla sezione software) o altri strumenti di terze parti installati sul sito.

Leggibilità e usabilità

Tra le pratiche utili a migliorare l’esperienza utente, ci sono quelle per ottimizzare la leggibilità e l’usabilità delle pagine. Per ottenere il massimo risultato, i contenuti del sito dovrebbero essere facilmente fruibili da tutti, in particolare:

  • Font utilizzati dovrebbero essere di dimensione tale da essere facilmente leggibili anche da chi ha problemi di vista.
  • menù non dovrebbero essere troppo complessi, per facilitare la navigazione tra le pagine.
  • Utilizzare colori appropriati sia per i font, sia per lo sfondo, con il dovuto contrasto. Ad esempio font di colore scuro e sfondo di colore molto chiaro o viceversa. E’ finita l’era dei siti “arcobaleno” con colori sgargianti, magari belli ma illeggibili.
  • E’ consigliabile utilizzare elementi e widget specifici quali Keyword Clouds, Tassonomie, Breadcrumbs e le altre tecniche comunemente utilizzate per migliorare la navigabilità del sito.

Utilizzare buone regole per l’usabilità e la leggibilità del sito consente ad un maggior numero di utenti di fruire dei contenuti, ed è quindi determinante per aumentare il posizionamento su Google di tutto il sito.

Regola dei 4 click

Un altra buona norma da tenere in considerazione sia per l’esperienza utente, sia in termini di visibilità su Google, è la distanza della pagina a partire dalla home misurata come numero di click che l’utente deve effettuare per arrivarci. E’ buona norma adottare la regola dei 4 click: Ogni pagina dovrebbe essere accessibile, a partire dalla home, dopo un massimo di 4 click. Pagine oltre questa distanza o addirittura inaccessibili attraverso una navigazione normale, vengono pesantemente penalizzate dalla maggior parte dei motori.

I titoli in pagina (tag H)

All’interno dei contenuti, i titoli sono rappresentati nell’HTML dai tag H: <h1>, <h2> fino ad <h6>. I titoli giocano un ruolo fondamentale sia per quanto riguarda la leggibilità dei contenuti, sia per quanto concerne la valutazione che il motore fa dei contenuti stessi. A riprova di ciò, Google ad esempio di recente ha introdotto degli snippet strutturati che sembra spesso vengano costruiti utilizzando anche questi elementi. I titoli dovrebbero essere sempre correlati al contenuto del paragrafo/capitolo testuale successivo che essi rappresentano, dovrebbero contenere le parole chiave (O sinonimi, parole logicamente correlate, etc. senza esagerare) ed in definitiva dovrebbero dare una chiara idea al visitatore di ciò che sta per leggere.

Analizzando i primi risultati di una qualsiasi parola chiave si trovano, nella maggior parte dei casi, siti che soddisfano questa regola. Altra considerazione importante, i titoli di livello superiore (1° livello ed in taluni casi il 2°) sono normalmente più importanti di quelli a livello inferiore. Quindi, le parole chiave dovrebbero essere preferibilmente contenute nei primi due livelli. In particolare il tag H1 dovrebbe essere unico all’interno di ogni pagina per evitare qualsiasi ambiguità mentre i tag H2-H6 possono essere multipli, senza esagerare. Se la pagina possiede un testo molto ampio, può essere una buona scelta spezzarne il contenuto in più pagine, anche per una questione di navigabilità e di leggibilità. L’unica eccezione a questa regola sono i mini siti e le landing pages che per loro natura hanno poche pagine ove risiede tutto il contenuto.

Un’ultima considerazione: Quando Google visualizza l’anteprima di una pagina web tra i risultati organici, è possibile che utilizzi il tag H1 o uno degli altri tag H (principalmente H2) se non ritiene rappresentativi i tag Title e Description. A maggior ragione quindi, i titoli dovrebbero contenere testo “invitante” in modo da attirare l’utente verso la lettura dei contenuti in pagina.

Black Hat? No grazie

Esistono tecniche di Search Engine Optimization vengono denominate “Black Hat”, che non bisogna utilizzare per nessun motivo: Possono provocare penalità algoritmiche, manuali o addirittura l’immediata de-indicizzazione dai risultati di ricerca Google. Alcuni esempi:

Link farm, link bidirezionali e link circolari

Inserire numerosi Link nella stessa pagina con lo scopo di fornire “link juice” a siti che a loro volta facciano lo stesso con voi. Evitare inoltre di creare riferimenti circolari di link con l’obiettivo di innalzare i voti del gruppo di siti interessato. Per esempio A con un link verso B, B con un link a C, C con un link verso A e così via. Gli “anelli” di link prima o poi vengono scoperti e ampiamente puniti da Google e dai motori di ricerca in genere se in numero elevato. Per lo stesso motivo sarebbe meglio evitare le cosiddette PBN (Private Backlink Networks), che stanno già subendo forti ritorsioni da parte di Google ad esempio.

Keyword stuffing

Inserire troppe parole chiave all’interno della stessa pagina non attinenti ai contenuti o nei meta tag della pagina, parole chiave dello stesso colore dello sfondo in modo da risultare invisibili ecc.. Forzare la mano sulle parole chiave contenute nel testo delle pagine può avere una ripercussione molto negativa sul ranking di tutto il sito.

User agent cloaking

Fare “Cloacking” significa letteralmente presentare una pagina web in un modo allo spider ed in un modo diverso agli utenti. I contenuti visti dagli spider, GoogleBot in particolare, devono essere il più possibile simili ai contenuti visualizzati dagli utenti. Questa tecnica è fortemente penalizzante.

Door pages

In passato è stata frequentemente utilizzata la tecnica di creare pagine, su siti a parte, che reindirizzino automaticamente alle pagine del sito principale con lo scopo di attirare utenti (che stanno cercando cose totalmente differenti) verso il proprio. Evitare assolutamente di creare questo tipo di pagine con contenuti non attinenti, prima o poi i motori se ne accorgono…

Acquistare followers sui social, recensioni fasulle, visitatori organici…

Nella maggior parte dei casi si tratta di account falsi, bot o peggio ancora account rubati. Queste tecniche, se da un lato possono parzialmente migliorare l’immagine di un account o di un blog, dall’altro possono provocare penalità di diversi tipi e peggiorarne la SEO in modo anche significativo.

Questi sono gli esempi più comuni di tecniche considerate non corrette, Google aggiorna periodicamente le politiche di penalizzazione quindi su questo tema è indispensabile tenersi costantemente aggiornati ed evitare comunque tecniche di dubbia efficacia.

Tag Title, tag Description e snippet di Google

I tag “Title” e “Description” sono elementi chiave di qualsiasi strategia SEO, perché vengono utilizzati dai motori sia per definire i contenuti in pagina, sia per presentare lo snippet della pagina agli utenti, come mostrato nelle immagini qui sotto.

Lo snippet di un risultato di Wikipedia su Google, per parola chiave "Divina Commedia". Il risultato in questo caso è troncato a 316 caratteri.
Lo snippet di un risultato di Wikipedia su Google, per parola chiave “Divina Commedia”. Il risultato in questo caso è troncato a 316 caratteri.
La stessa ricerca Google visualizzata da IPhone8 appare così. In questo caso però si tratta di un "Rich snippet" creato automaticamente da Google, con tanto di immagini selezionate e Sitelink. Il testo in questo caso è troncato a 243 caratteri.
La stessa ricerca Google visualizzata da IPhone8 appare così. In questo caso però si tratta di un “Rich snippet” creato automaticamente da Google, con tanto di immagini selezionate e Sitelink. Il testo in questo caso è troncato a 243 caratteri.

Il contenuto del tag Title influisce direttamente sul posizionamento delle pagine perché viene utilizzato come titolo nello snippet presentato agli utenti tra i risultati di ricerca di Google, e degli altri Search Engine. Quindi, è di fondamentale importanza che:

  • Sia chiaro, leggibile e immediato per l’utente, non troppo lungo. La lunghezza massima varia nel tempo e da motore a motore, un buon tag title è lungo tra i 50 ed i 70 caratteri massimo).
  • Contenga le parole chiave più significative, sinonimi di esse o parole logicamente collegate.
  • Sia personalizzato per ogni pagina e mai duplicato (Salvo casi particolari).

Un contenuto “ad effetto” di questo tag può indurre i navigatori a cliccare sul risultato presentato da Google, attenzione però: Un titolo ad effetto crea un’aspettativa all’utente che deve essere immediatamente soddisfatta, altrimenti l’utente ritorna ai risultati di Google per esplorare altri siti. In gergo tecnico questo comportamento si chiama rimbalzo e come spiegato in precedenza contribuisce a peggiorare la posizione di ogni pagina. In sostanza, il contenuto della pagina deve essere attinente a quanto presentato all’interno del meta tag Title affinché gli utenti siano anche interessati a leggerne il contenuto.

Anche l’attributo Description fa parte dei meta tag che descrivono il contenuto della pagina ai motori di ricerca ed ai potenziali visitatori del sito. Questo tag dovrebbe contenere una o due frasi di senso compiuto che rappresentano una sintesi dei contenuti della pagina. Il testo contenuto nel tag Description dovrebbe:

  • Rappresentare un’introduzione al testo della pagina o descriverne sinteticamente i contenuti, se non già presenti nel tag Title.
  • In linea di massima, essere unico e personalizzato per ogni pagina.
  • Contenere le parole chiave più significative, oppure sinonimi di esse o parole logicamente correlate.
  • Essere di lunghezza compresa circa fra i 100 ed i 155 caratteri se si vogliono evitare troncamenti su tutti i motori, quando i risultati sono visualizzati da Desktop o mobile. Anche in questo caso la lunghezza cambia nel tempo e da motore a motore.

Questo campo viene utilizzato dalla maggior parte dei motori di ricerca per fornire agli utenti una breve descrizione della pagina all’interno dei risultati di ricerca, scegliere frasi attinenti e ad “effetto” può quindi essere utile a spingere gli utenti a cliccare proprio sul risultato ed attirarli sulla pagina di destinazione. Sempre prestando attenzione all’aspettativa che si crea. Detto questo, è però vero che in molti casi il tag Description viene assolutamente ignorato e, Google ad esempio, provvede ad inserire nello snippet di risultati uno o più estratti del testo in pagina, rendendo il tag Meta Description di fatto inutile. Google e Bing hanno già da qualche anno dichiarato che questo campo non dovrebbe essere più considerato, ed effettivamente sembra che progressivamente il campo stia perdendo di valore. Basta effettuare una qualsiasi ricerca su Bing o Google per rendersi conto che alcune delle descrizioni negli snippet visualizzati, contengono testi in qualche modo attinenti alla ricerca, ma in alcuni casi si tratta di testi costruiti dal motore e non prelevati dalla META DESCRIPTION. Tuttavia la sperimentazione su questo tag sembra essere ancora in corso, e nel dubbio meglio valorizzarlo con intelligenza e verificare dopo qualche giorno come appare il risultato.

Title e description sono comunque fondamentali per consentire al sito di arrivare in prima pagina su Google: Alla sezione strumenti trovi qualche link a software che sono in grado di preparare un’anteprima di come apparirà lo snippet ed aiutarti a valorizzare questi campi al meglio.

Per la stessa ricerca, Bing tronca il risultato a 155 caratteri.
Per la stessa ricerca, Bing tronca il risultato a 155 caratteri.
Su Yahoo i risultati sono molto simili a quelli su Bing, ma è possibile che presto vedremo qualche cambiamento.
Su Yahoo i risultati sono molto simili a quelli su Bing, ma è possibile che presto vedremo qualche cambiamento.

Curiosità sugli snippet di Google, Bing e Yahoo!

Dopo una sperimentazione di qualche mese partita a fine 2017, Google nel 2018 ha parzialmente adottato le Meta Description lunghe ,di circa 325 caratteri. Il troncamento in realtà avviene sempre in base alla lunghezza geometrica del testo: durante la sperimentazione, le descrizioni oltre i 1840 pixel venivano troncate. La sperimentazione tuttavia ad oggi è stata abbandonata, e la maggior parte degli snippet è tornata ad essere troncata secondo la vecchia lunghezza. Bing e Yahoo adottano strategie simili a Google, creando spesso in autonomia le descrizioni inserite negli snippet di risultato e tagliando il testo intorno ai 155-165 caratteri al massimo.

Velocità e tempi di risposta delle pagine

Le prestazioni del sito, ovvero i tempi di caricamento di ogni singola pagina, in gergo tecnico tempi di rispostasono anch’essi un elemento determinante a livello di Search Engine Optimization, oltre che di esperienza utente. Google ad esempio, non mancherà di avvisarti se alcune delle pagine del sito soffrono di problemi di prestazioni (Se Search Console è stato correttamente attivato sul sito). Un sito perfetto non presenta timeout ed ha tempi di caricamento inferiori ad 1 secondo per pagina, mentre un buon/ottimo sito ha tempi di caricamento inferiori a 3 secondi per pagina.

Un interessante studio di Nielsen del 2010 sulla velocità dei siti web ha evidenziato come gli utenti in media progressivamente percepiscano un ritardo nella risposta già oltre il secondo. E come, oltre i 10 secondi, la maggior parte degli utenti preferisca terminare la visita uscendo dal sito. Oltre questa soglia quindi il sito viene pesantemente penalizzato sia dai motori, sia dagli utenti che nella maggior parte dei casi semplicemente rimbalzano via a causa dei tempi di caricamento eccessivi. Viceversa tempi di caricamento inferiori al mezzo secondo vengono considerati ottimi sia per il posizionamento Google sia per quanto riguarda l’esperienza degli utenti: Lo stesso studio evidenzia come a siti a carattere commerciale e con tempi di risposta quasi nulli si possa correlare un coefficiente di conversioni (Visitatori che scelgono di acquistare qualcosa) molto maggiore rispetto agli altri. Quindi, attenzione alle prestazioni.

Valutazione di GTMetrix della nostra Home Page.
Valutazione di GTMetrix della nostra Home Page.
Valutazione GTMetrix della Home Page di un nostro cliente.
Valutazione GTMetrix della Home Page di un nostro cliente.

Come migliorare prestazioni e tempo di caricamento delle pagine

Alcune indicazioni su come migliorare la velocità del sito:

  • Acquista un hosting professionale come quelli offerti da SiteGround, ServerPlan, Netsons o i pacchetti di fascia medio/alta di Register. Lesinare sull’hosting renderà il sito totalmente inutile e refrattario a qualsiasi strategia di SEO. Gli hosting gratuiti o low cost in particolare portano con se diversi altri problemi, come spiegato anche nell’articolo Siti web gratis e SEO: Quanto conviene affidarsi a questi servizi?.
  • Configura alla perfezione il framework con il quale è stato costruito il sito (WordPress, Drupal, Joomla o altri) attivando la compressione GZIP, minificando i files, ottimizzando al meglio le immagini, abilitando un sistema di caching etc..
  • Cerca di contenere le dimensioni massime di ogni pagina: se pagine e file di risorse sono di dimensioni eccessive sarà impossibile ottenere buoni tempi di risposta. In linea di massima, la maggior parte delle pagine dovrebbe essere di dimensione complessiva inferiore ai 3 MB.
  • Eventualmente, configura le pagine in modo che siano conformi allo standard AMP – Accelerated Mobile Pages. Quest’ultimo consiglio vale ancora di più per i siti internet che trattano di novità, magazine e quotidiani online e siti in genere incentrati sul contenuto testuale, come spiegato più avanti nella guida.

E’ consigliabile anche non esagerare con il numero di CSS, Javascript ed in genere di tutti quei file di risorse necessari al sito anche se non sembra ci siano grandi evidenze statistiche in merito. E’ vero comunque che, in genere, è buona norma non eccedere nella complessità della struttura che il sito utilizza: Eccedere nella quantità di questi file probabilmente non influisce direttamente sul posizionamento del sito, ma aumenta la probabilità di errori (percorsi e nomi di file sbagliati per esempio) e potrebbe anche influire negativamente sui tempi di caricamento delle singole pagine. La regola ovviamente non può comunque essere seguita se utilizzi architetture già pronte basate su strutture a Portale/CMS (Per esempio Drupal, Joomla, WordPress e così via).

La velocità di caricamento delle pagine e le prestazioni complessive sono elementi chiave per consentire al sito di uscire in prima pagina: Un sito lento non ottiene grandi risultati su Google! Nella sezione software al termine della guida sono disponibili diversi strumenti per controllare i tempi di risposta delle pagine web ed identificare i problemi, controlla prima che sia troppo tardi!

Metodi e strategie aggiuntive per perfezionare la visibilità del sito ed ambire ad arrivare primi su Google.
Metodi e strategie aggiuntive per perfezionare la visibilità del sito ed ambire ad arrivare primi su Google.

Strategie e metodi aggiuntivi di ottimizzazione

In questa sezione trovi metodologie e tecniche che assumono un ruolo altrettanto importante per una corretta ottimizzazione SEO del sito web. Anche se in misura minore rispetto a quelle elencate nella sezione precedente, questi principi sono fondamentali per chiunque voglia ambire ai primi posti in classifica. Alcune delle regole elencate potrebbero nel tempo diventare di primaria importanza o viceversa essere declassate, ma al momento sono tutte utili per perfezionare la collocazione in SERP. In tutti i casi, se non implementate correttamente, possono portare a penalizzazioni manuali o algoritmiche da parte di Google, anche molto importanti.

Scelta dell’hosting e località dei visitatori

La localizzazione dell’hosting che ospita il sito è molto importante: Google determina il bacino di utenza di riferimento anche in base alla località del server sul quale è stato installato il sito web. Ad esempio, se il server è in Italia, Google proporrà il sito prima di tutto ad utenti residenti in Italia. Se invece il server è in Canada, Google tenderà a presentarne le pagine ad utenti residenti in Canada e via discorrendo. La scelta dipende anche da altri fattori, ad esempio la lingua nella quale sono scritti i testi, tuttavia l’ubicazione del server e la distanza da esso degli utenti sono sicuramente presi in considerazione dalla maggior parte dei motori, per vari motivi.

Dove sono i miei utenti?

Alla luce di questo, la domanda da porsi quando si acquista un pacchetto di hosting dovrebbe essere: Dove sono gli utenti a cui mi voglio rivolgere? Se i tuoi contenuti si rivolgono a visitatori Italiana, il suggerimento è di comprare un buon hosting in Italia. Comprare un hosting all’estero, per esempio in Germania o negli Stari Uniti, può portare ad errate valutazioni sul bacino d’utenza con il rischio che i contenuti delle tue pagine vengano proposti agli utenti sbagliati. Nell’esempio precedente, Google potrebbe decidere che i contenuti si rivolgano alla comunità Italiana in Germania e quindi visualizzare le pagine tra i risultati di ricerca di Google.de in Germania al posto di Google.it in Italia. Viceversa, se i contenuti si rivolgono a visitatori stranieri in altre nazioni, la scelta più giusta è di acquistare un hosting localizzato all’interno della nazione a cui desideri rivolgerti.

Cosa fare quando il sito è internazionale

Se l’obiettivo è di rivolgersi ad una platea internazionale, la scelta migliore è di acquistare un hosting professionale distribuito o in cloud, come ad esempio SiteGround: Senza scendere troppo nei dettagli tecnici, questo tipo di piattaforme è in grado di replicare i tuoi contenuti in tutte le nazioni, rendendone i contenuti fruibili da tutto il mondo e le pagine visibile ovunque tra le SERP dei motori di ricerca.

Pubblicare una Sitemap

Può essere utile creare due SiteMap per il vostro sito: Una sitemap XML per i motori di ricerca ed una HTML per gli utenti, a maggior ragione se il numero di pagine nel sito è molto elevato. La sitemap XML in particolare, è diventata indispensabile per velocizzare l’indicizzazione del sito più che per motivi di Search Engine Optimization. Ogni motore ha tendenzialmente una funzionalità apposita per segnalare o caricare la sitemap, ad esempio per Google è possibile specificare la sitemap da Google Search Console mentre per Bing è possibili indicare la sitemap da Bing Webmaster Tools. Nella maggior parte dei casi tuttavia, può essere semplicemente depositata nella root directory del sito con il nome di “sitemap.xml“. Il nome è standard e la maggior parte dei motori si accorgerà dell’esistenza della sitemap in in autonomia.

La sitemap HTML invece dovrebbe essere utile agli utenti per consentire una più rapida navigazione anche se ormai si tratta di uno standard che pochi utilizzano.

Come è meglio impostare gli URL delle pagine? Innanzitutto, occorre che gli indirizzi del sito siano leggibili, e semplici da ricordare per gli utenti. Per consentire una corretta indicizzazione da parte dei motori di ricerca inoltre, è meglio evitare URL con molti parametri e nomi di pagine generici o incomprensibili, per esempio:

www.xyz.com/pagina1.php?id=Hert456DFGDFGHDF&k=235&Flag=X

Gli URL dovrebbero essere di facile comprensione: In gergo tecnico “Friendly URLs”, ovvero amici dei visitatori. Possibilmente, le parole chiave attinenti ad una determinata pagina del sito dovrebbero essere contenute nell’URL della pagina. Per esempio, per una pagina che contenga la biografia di Achille, eroe mitologico Greco, l’URL ideale potrebbe essere www.mitologia.it/grecia/biografia-achille . Un URL di questo tipo è semplice e leggibile per gli utenti, contiene le parole chiave adatte a rappresentarne il contenuto e descrive in modo sintetico di cosa tratta la pagina relativa.

Separatori

Se è necessario separare le parole che compongono il nome di dominio, i nomi delle pagine ed in genere tutto ciò che compone gli URI/URL del sito, è decisamente meglio usare i trattini “-“. Per esempio:

www.macchinari-edilizia.com\materiali-magazzino\mattoni-foratini.html

NON

www.macchinari_edilizia.com\materiali_magazzino\mattoni_foratini.html

Il trattino è l’unico carattere che Google ha dichiarato di riconoscere come separatore, mentre l’underscore ad esempio comporta problemi di riconoscimento di vario tipo. Per anni Google ha dichiarato che avrebbe parificato il comportamento ma di fatto ad oggi sembra che ancora esista una qualche differenza, mentre la maggior parte degli altri motori sembra trattare i due separatori allo stesso modo. Utilizzare un separatore piuttosto che un altro non migliora di per se la posizione in SERP ma consente a Google di interpretare meglio le singole parolecontenute all’interno del nome e quindi correlarle con i contenuti.

Struttura e gerarchia delle pagine

Come è meglio organizzare pagine e URL del sito per la navigazione?

La navigazione delle pagine del sito e relativi URL possono essere organizzate in maniera gerarchica, in modo che le pagine a livelli inferiori siano correlate a quanto presente ai livelli superiori, se si tratta di tante pagine relative ad argomenti o prodotti che possono essere raggruppati o classificati logicamente. Viceversa, gli URL di destinazione devono essere mantenuti piatti se i contenuti non possono essere organizzati logicamente.  Vediamo qualche esempio.

Struttura di esempio per un E-Commerce

Se vendi prodotti, ad esempio lamette da barba, e hai 20 differenti prodotti documentati su altrettante pagine, avrà senso creare una pagina generale padre di tutte le altre pagine che rappresenti la categoria “Lamette da barba” e con all’interno una gallery di tutti i prodotti, ed una serie di pagine figlie con i dettagli dei singoli prodotti. Ad esempio, la pagina padre potrebbe essere visibile all’URL

www.unecommercedisuccesso.com/lamette-da-barba/

mentre le pagine con i prodotti potrebbero essere visibili agli URL

www.unecommercedisuccesso.com/lamette-da-barba/modello-xy4000-tripla-lama-usa-e-getta
www.unecommercedisuccesso.com/lamette-da-barba/modello-zzk33t-antigraffio-testina-sostituibile
…. e così via.

Lo stesso vale se crei un libro di ricette: Avrà senso per esempio creare una prima pagina “ricette” ed una serie di pagine relative ai “primi”, ai “secondi” eccetera. Stesso dicasi se pubblichi articoli su viaggi in diverse località ed in tutti quei casi nei quali ha senso questo tipo di organizzazione. La struttura gerarchica degli URL viene utilizzata spesso da e-commerce di dimensioni medio/grandi, esempi di siti tutti italiani che hanno adottato questo tipo di organizzazione sono MediaworldUnieuro ed ePrice per esempio. In tutti i casi, dal punto di vista dell’ottimizzazione per i motori di ricerca, è meglio non eccedere oltre i 2/3 livelli e comunque meglio non utilizzare URL più lunghi di 100/120 caratteri circa. Se ti trovi in una di queste due condizioni, il consiglio è di optare per una struttura di URL piatta o di riorganizzare gli URL in modo da avere meno livelli.

Blog e altri siti semplici

Se viceversa hai pochi contenuti, o se i tuoi contenuti sono talmente vari che sarebbe controproducente organizzarli in maniera gerarchica, conviene mantenere un organizzazione piatta. A quanto pare gli URL semplici e corti piacciono a Google molto di più rispetto ad una accurata gestione padre-figlio delle pagine in questi casi, perché normalmente meno distanti rispetto alla home del sito. Avendo l’accortezza di inserire delle sitemap HTML o ancora meglio una Breadcrumb all’interno delle pagine, gli utenti saranno comunque in grado in qualsiasi momento di navigare i contenuti agevolmente utilizzando il loro intuito.

Canonical tag

Tra i principi fondamentali da rispettare per raggiungere la massima ottimizzazione del sito web per i motori di ricerca, c’è quello dell’unicità dei contenuti e delle pagine. Esistono molti casi ad esempio nei quali la stessa pagina è visibile sotto diversi URL, quindi “ambigua” agli occhi di Google. Per evitare che la stessa identica pagina sia considerata duplicata per questo motivo, è sempre meglio inserire all’interno dell’HTML un tag specifico denominato URL Canonico. L’URL Canonico serve a fare in modo che i motori di ricerca siano in grado di consolidare tutti i differenti URL attraverso i quali una determinata pagina è accessibile, verso un’unica singola pagina che ne rappresenta il contenuto.

Spieghiamo meglio. Supponiamo per esempio che la pagina precedente, sia accessibile attraverso diversi URL, tipicamente perché il sito utilizza parametri relativi per esempio alla sessione utente o altro. La pagina in tal caso potrebbe essere accessibile da un’infinità di link come ad esempio:

www.mitologia.it/grecia/biografia-achille.php?session=398798r7e8r9
www.mitologia.it/grecia/biografia-achille.php?session=68498rtuh98rt&t=h1
…. e   così via.

In queste situazioni i motori di ricerca non sempre sono in grado di capire che tutti i link soprastanti in realtà si riferiscono alla stessa pagina, e potrebbero insorgere diversi problemi dovuti alla presunta “duplicazione di contenuti” agli occhi del motore. Per evitare ambiguità, e conseguenti penalizzazioni nel ranking della pagina stessa, è consigliabile inserire un tag specifico all’interno dell’header di ogni pagina, come mostrato qui sotto:

<link rel=”canonical” href=”http://www.mitologia.it/grecia/biografia-achille” />

In questo modo i motori sapranno che tutti gli URL precedenti si riferiscono alla stessa pagina e saranno in grado di attribuire il corretto Page Rank alla pagina stessa.

Video e multimedia

Oltre al testo, all’interno dei contenuti è importante includere immagini, audio, video, slide show, brochure, documenti ed in genere elementi interattivi o multimediali. Questi elementi conferiscono gradevolezza al sito, apportano beneficio agli utenti arricchendo la loro visita (“User Experience) e spingono in media ad una maggiore permanenza all’interno del sito stesso: per vedere il video, le slide eccetera. Google ed i motori di ricerca in genere tengono in buona considerazione questi elementi, a maggior ragione se:

  • Sono originali, nessun altro li possiede a parte il tuo sito.
  • Altri siti li citano o fanno riferimento ad essi direttamente tramite backlink.
  • Sono in quantità elevata (Tante immagini, tanti video ecc.).
  • Sono diversificati, per esempio non solo esclusivamente immagini o video ma anche file PDF, modelli 3D interattivi o elementi di altro tipo.

Elementi multimediali, video e documenti contribuiscono sia a migliorare il piazzamento del sito tra le SERP di Google, sia ad arricchire l’esperienza utente rendendo i contenuti meno “piatti”.

Recensioni e commenti

Google privilegia la mentalità “Open” e il diritto di opinione. Avere un forum all’interno del sito, abilitare i commenti in pagina, aggiungere la possibilità per i visitatori di lasciare recensioni agli articoli che scrivi o ai prodotti che vendi, permette agli utenti di porti domande, esprimere le proprie posizioni in merito agli argomenti che tratti e dialogare con altri utenti che hanno gli stessi interessi. In più il continuo scambio di opinioni ti consentirà di capire cosa piace e cosa non piace ai visitatori ed eventualmente correggere il “tiro”, soprattutto se il sito web è la vetrina di un’attività commerciale.

Dal punto di vista sociale l’utilizzo di questi strumenti consente anche di sviluppare relazioni di fiducia reciproca, seppur virtuali, con gli utenti. Il motore è in grado di rilevare questo tipo di approccio aperto e premiare di conseguenza la classificazione all’interno dei risultati di ricerca Google. Infine, con questo tipo di elementi interattivi normalmente ha l’effetto di indurre un maggior numero di utenti a visitare il sito con regolarità, aumentando quindi gli utenti di ritorno, che come abbiamo già visto è un elemento chiave per la SEO.

Infine, Google è in grado di riconoscere le principali tipologie di recensioni in pagina e visualizzarle come elemento grafico aggiuntivo – le famosissime “stelline” – tra gli snippet di ricerca. Elemento grafico che non solo aumenta la fiducia del visitatore, ma rende lo snippet distinto e molto più visibile dal resto dei risultati in SERP.

Esistono plugin gratuiti e software di terze parti per fare in modo che il tuo sito sia in grado di ricevere recensioni e commenti. Questi elementi sono molto importanti sia per l’ottimizzazione sui motori di ricerca del sito, sia come segnale sociale per i successivi visitatori. Valuta se possono fare al caso tuo!

Un esempio di snippet Google di una trattoria, con oltre 1000 recensioni positive. Chi non lo cliccherebbe??
Un esempio di snippet Google di una trattoria, con oltre 1000 recensioni positive. Chi non lo cliccherebbe??

Sicurezza

Problemi di sicurezza e malware sul sito, prima ancora di creare danni dal punto di vista della SEO, provocano danni a te, alla tua attività ed ai tuoi utenti. Le falle di sicurezza del tuo sito possono permettere sia il furto di dati, sia l’inserimento di codice da parte di malintenzionati, ad esempio malware o pagine di phishing. Il livello complessivo di sicurezza del sito sta progressivamente assumendo un ruolo di primaria importanza per ottenere posizionamenti d’eccellenza sui motori di ricerca: non sottovalutarla!

Google è in grado di rilevare falle di sicurezza note di qualsiasi sito ed è indispensabile mantenere il sito regolarmente aggiornato in tal senso. Oltre a questo naturalmente, i tuoi visitatori potrebbero essere danneggiati pesantemente dalle pagine con tutte le conseguenze che ciò comporta: Non è raro per esempio vedere grandi compagnie pagare ai propri utenti rimborsi milionari a causa di problemi proprio di questo tipo.

Google è anche in grado di rilevare la presenza di malwarespywarevirus, tentativi di phishing e via discorrendo e penalizzare il sito declassandolo tra i risultati di ricerca. Quand’anche il sito fosse visualizzato in buona posizione, la maggior parte dei motori apporrà scritte di avviso agli utenti quali per esempio “Questo sito può danneggiare il vostro Computer” per avvisarli del potenziale pericolo. Avvisi di questo tipo inducono la maggior parte degli utenti ad evitare il link e riducono drasticamente il traffico verso il sito, con effetto immediato. Ma questo è solo il primo degli effetti…

Su questi problemi tutti i motori di ricerca sono diventati, per ovvi motivi, molto severi. Ecco le conseguenze, in ordine di arrivo:

  1. Il sito viene segnalato come pericoloso dalla maggior parte degli antivirus.
  2. Google e la maggior parte dei browser avvisano gli utenti che il sito è pericoloso e ne sconsigliano l’accesso tramite apposito messaggio.
  3. Dopo qualche tempo, il sito viene completamente de-indicizzato da tutti i motori di ricerca.
  4. In tutti i casi, se non si pone rimedio al problema, normalmente il vostro hosting o le forze di polizia postale provvedono alla chiusura d’ufficio del sito e del dominio.

E’ buona pratica quindi tenere sempre aggiornato il proprio sito se si tratta di un sito costruito in architetture standard come WordPress, Drupal, JOOMLA, Liferay ecc, e sottoscrivere possibilmente un servizio di scansione professionale per rilevare le vulnerabilità note, oppure far controllare periodicamente la presenza delle falle di sicurezza più comuni ad un Penetration Tester di fiducia. La maggior parte degli avvisi di sicurezza arrivano tramite Google Search Console, spesso con qualche giorno o qualche settimana di ritardo rispetto al manifestarsi del problema. Conviene sempre quindi giocare d’anticipo per evitare problemi. Nella sezione software trovi i link a qualche strumento gratuito utile in tal senso.

Il protocollo HTTPS

Già nell’Agosto 2014 Google ha comunicato che la disponibilità via HTTPS sarebbe stata inclusa tra i fattori per il calcolo del ranking del sito tra le SERP (Ecco l’articolo originale su Webmaster Central). L’HTTPS non è altro che la versione sicura di HTTP nella quale il protocollo HTTP, trasmesso in chiaro, viene “inglobato” all’interno di un pacchetto criptato TLS o SSL in modo che non sia leggibile se non al destinatario stesso. Predisporre un sito per l’accesso via HTTPS richiede una configurazione apposita del web server oltre che l’acquisto di un certificato da utilizzare per la cifratura. I prezzi dei certificati vanno dalle poche decine di euro alle migliaia di euro l’anno in base all’autorità dell’ente emittente. In sintesi, è sicuramente bene mettere a disposizione dei visitatori una linea di comunicazione sicura attraverso HTTP, e se il sito è un e-commerce o tratta dati sensibili diventa anzi indispensabile.

Privilegiare la semplicità

Google privilegia i siti semplici. Cosa significa? Significa pagine senza effetti grafici modello Star Trek o funzionalità difficili da usare. Per un solo motivo: gli utenti in media prediligono le soluzioni più semplici.

Facilitare il più possibile la navigazione del sito sia agli utenti sia agli spider dei vari motori da ricerca è fondamentale sia per consentire l’indicizzazione del sito, sia per raggiungere buone posizioni su Google. Prima di tutto, se lo spider del motore non riesce a raggiungere alcune delle pagine automaticamente è possibile che quelle pagine non siano indicizzate. In secondo luogo, le pagine semplici, con solo testo, immagini e video, senza elementi in movimento, slider, codice Javascript particolare, eccetera, hanno il pregio di funzionare per tutti i browser e per tutti i dispositivi mobile, sono veloci e non richiedono particolari abilità da parte degli utenti. Ragion per cui sono migliori sotto tutti i punti di vista. Chiaramente questa importante regola ha delle eccezioni: Un sito che si occupa di progettazione grafica 3D o che offre un software online per ingegneri elettronici difficilmente potrà mantenere un certo grado di semplicità. Viceversa, la regola diventa d’oro se il tuo sito offre contenuti ad una platea molto vasta (In ambito divulgativo ad esempio), che non necessariamente ha le competenze di un informatico, di un fisico nucleare o di un bioingegnere…

Anche i link per la navigazione quindi dovrebbero essere semplici: è sconsigliabile usare per esempio codice Javascript, elementi Flash, Java o ActiveX per la navigazione. Sia perché gli spider non sempre sono in grado di utilizzarli per navigare il sito, sia perché potrebbero costare penalità nel ranking del sito a causa della non perfetta “usabilità”. La raccomandazione è di utilizzare semplici tag “A” e immagini per consentire la navigazione, in questo modo sia Google sia gli utenti ne saranno … felici!

Scegliere le parole chiave più efficaci

La scelta delle parole chiave da utilizzare per ottimizzare ogni singola pagina web, deve essere fatta in modo estremamente ragionato. Le parole chiave scelte devono sempre essere il più possibile attinenti ai contenuti della pagina o viceversa, i contenuti in pagina devono essere attinenti alle parole chiave scelte. Dal punto di vista del Web Marketing, il ragionamento è perfettamente logico: se per esempio vuoi che una certa pagina sia visibile su Google rispetto a determinate parole chiave, dovrai ovviamente costruire un testo accattivante che le contenga.

Parole chiave a bassa e alta competizione

Scegliere parole chiave a bassa competizione, parole sulle quali pochi siti competono, rende il lavoro molto più facile. Normalmente però, sulle parole a bassa competizione il traffico di ricerca è tendenzialmente molto basso … In contrapposizione a questo aspetto, alle parole chiave ad alta competizione corrisponde un numero di ricerche mensili (E quindi di potenziali visitatori) più elevato. Per un’attività commerciale questo aspetto è molto importante perché aumentando il numero di visitatori si aumenta di conseguenza il numero di potenziali clienti. Lavorare sulle parole chiave ad alta competizione porta sicuramente a risultati migliori ma richiede uno sforzo più elevato sotto tutti i punti di vista, come già accennato all’inizio della guida.

Tendenze di ricerca

Scegliere parole chiave originali e saper intuire le tendenze di ricerca può essere molto utile sotto questo aspetto perché ti consente di scegliere parole chiave a bassa competizione su cui il numero di ricerche mensili sta progressivamente crescendo nel tempo. Un sostanziale aiuto per questo tipo di scelta è lo strumento Google Trends che ci aiuta a capire quali sono le tendenze di ricerca nelle ultime ore, giorni, mesi etc. In questi casi bisogna però essere molto rapidi per cavalcare l’ondata di ricerche!

Per studiare le parole chiave e per capire quali sono gli ultimi trend di ricerca, puoi utilizzare rispettivamente lo Strumento per le parole chiave di ADWords e Google Trends. Trovi entrambi i link nella sezione software al termine di questa guida.

Creare un trend

La capacità di creare una tendenza o un trend per una o più parole chiave, da un lato richiede un notevole sforzo lavorativo ed è spesso appannaggio solo di grandi brand e di pochi specialisti di SEO, dall’altro porta a risultati eccellenti che difficilmente si ottengono con le altre tecniche:

Riuscire a creare una tendenza di ricerca su una nuova KeyWord o su una nuova KeyPhrase per la quale hai contemporaneamente creato una pagina specifica nel sito (Landing page), molto probabilmente porterà la tua pagine a comparire prima in classifica su Google per quella keyword/keyphrase. E per giunta in maniera piuttosto stabile nel tempo.

Posizione delle parole chiave nel testo

La disposizione delle parole chiave all’interno del testo di una pagina è fondamentale sia per gli utenti, sia per quanto riguarda la Search Engine Optimization. Le parole ed i concetti chiave principali dovrebbero essere preferibilmente inseriti anche all’inizio del testo, meglio se in alto a sinistra in pagina. Google attribuisce più importanza alle parole iniziali di un contenuto per il semplice fatto che sono le prime che l’utente legge non appena arrivato sulla pagina. Dal punto di vista dell’usabilità e della leggibilità della pagina, le prime frasi dovrebbero quindi essere quelle che spiegano all’utente cosa troverà al suo interno. Tendenzialmente le parole che appaiono nelle prime righe di testo sembra siano considerate con peso maggiore dalla maggior parte dei motori, mentre quelle nel testo rimanente sembrano avere un peso più o meno uniforme a prescindere dalla profondità alla quale si trovano. Uno studio del 2006 di Nielsen sulla lettura dei contenuti online, mostra come gli utenti leggano utilizzando un pattern ad “F” partendo da un’area triangolare decentrata rispetto alla pagina (Più in alto ed a sinistra rispetto al centro). I contenuti fondamentali di ogni pagina dovrebbero quindi trovarsi in questa zona in modo che l’utente sia facilitato nella lettura e arrivi rapidamente a ciò che sta cercando.

Ottimizzare la densità delle parole chiave (Keyword Density)

La densità delle parole chiave, o “Keyword Density“, mantiene tutt’oggi un ruolo importante per l’ottimizzazione SEO. Anche se con un’accezione un po’ diversa.

Cos’è e come si calcola la Keyword Density

Per Keyword Density (Abbreviata in “KD”) si intende il rapporto percentuale fra una determinata parola o frase rispetto alla totalità delle parole/frasi del testo di una certa pagina. Per esempio una KD pari al 2% della parola chiave “treno” all’interno di una pagina con un testo da 100 parole significa che la parola “treno” appare esattamente due volte. Lo stesso ragionamento si può applicare su frasi composte da due o più parole chiave (Es: “Treno intercity”) nel qual caso si parla più propriamente di keyphrase density ovvero della densità di una certa frase all’interno del testo.

Qual’è la Keyword Density corretta da mantenere?

E’ bene specificare fin da subito che non esiste un rapporto ottimale per la Keyword Density di una certa parola chiave e anzi, la maggior parte dei motori calcola valori più complessi:

  • Escludendo eventuali “Stop words” quali preposizioni, pronomi, articoli determinativi e indeterminativi, congiunzioni e così via.
  • Prendendo in considerazione i sinonimi delle parole utilizzate e le parole ad esse collegate logicamente.
  • Accomunando le forme singolari e plurali, diminutivi e accrescitivi, e altre varianti che ne variano la desinenza ma non il significato.

Per ogni singola parola chiave (o gruppi di parole chiave) è meglio tuttavia non superare certi valori di soglia per evitare possibili penalizzazioni. Diciamo che un buon valore per la Keyword Density per gruppi di parole chiave che ci interessa utilizzare per promuovere una determinata pagina è tra l’ 1% ed il 3% mentre per le singole parole possiamo probabilmente spingerci fino al 3%-5%. Oltre questi valori si incorre quasi sicuramente in penalità nel posizionamento Google del sito per quella determinata parola chiave, per quel gruppo di parole chiave o entrambe le cose.

Benché non esista un numero “magico” per la densità delle parole chiave, è probabile che i motori comunque ne tengano conto in termini di densità relativa. Ci spieghiamo meglio: Se una pagina di un sito è ben posizionata per una certa parola chiave e quella parola chiave è presente con una certa densità all’interno del testo della pagina, è molto probabile che Google attribuisca automaticamente posizioni migliori alle pagine di altri siti che abbiano una densità simile. Questa regola, sebbene assolutamente non certa, sembrerebbe avere una certa validità soprattutto se i primi risultati di Google hanno tutti una densità simile per la stessa parola chiave. Come dire: Se i risultati più interessanti per una certa parola chiave posseggono un certo valore di Keyword Density è logico pensare che anche altri risultati con valori simili di KD possano risultare interessanti per gli utenti.

In un certo senso questa regola ha un po’ carattere generale: Capire quello che fanno i primi in classifica e copiarne i metodi, può portare ad arrivare ai primi posti su Google.

Vietato duplicare i contenuti

Questa è tra le regole di SEO più semplici, e che tuttavia in molti ignorano:

EVITA LA DUPLICAZIONE DI CONTENUTI

Sia fra le pagine del tuo sito, sia facendo “copia e incolla” da altre fonti. I motori di ricerca sono in grado di rilevare le copie (Anche parziali) e attribuiscono forti penalità alla pagina e a tutto il sito, a prescindere dal fatto che la copia sia stata fatta in buona o cattiva fede. Questo nella migliore delle ipotesi, perché se si tratta di materiale copiato da altri siti, il pagiato potrebbe richiedere il takedown del tuo sito o farti causa per plagio. Quindi, meglio utilizzare citazioni e link alle pagine con il contenuto originale. A Google (E non solo) piacerà molto di più. Lo stesso discorso si applica ai contenuti non testuali: immagini, filmati flash eccetera. Anche in questo caso è meglio puntare al file originale invece che duplicarlo sul proprio server: si evitano penalità da parte di Google e nei casi peggiori querele per violazione di copyright.

E’ anche da evitare l’uso di URL multipli per puntare alla stessa pagina per esempio “www.sito-xyz.it”,  “www.sito-xyz.it/home”   e   “www.sito-xyz.it/pagina1” per puntare alla home page: Google potrebbe interpretare gli URL come pagine diverse e duplicate fra loro attribuendo di fatto punteggi bassi a tutte le destinazioni anziché un unico punteggio alto. Diversi template delle piattaforme CMS più comuni (Drupal e WordPress fra gli altri) soffrono di problemi simili quindi bisogna prestare particolare attenzione durante la loro configurazione.

Se hai contenuti copiati o duplicati, difficilmente il sito uscirà mai in prima pagina. Esistono strumenti gratuiti e commerciali che è possibile utilizzare per verificare se un testo è stato copiato, in toto o anche in minima parte, ad esempio Copyscape

Le immagini: ottimizzazione e attributi utili alla SEO

Le immagini del sito dovrebbero essere tutte ottimizzate e compresse al meglio, in modo da occupare la minor dimensione possibile. A meno che il sito non tratti di argomenti molto specifici, per esempio, fotografia e grafica, che richiedono grandi risoluzioni, è anche buona norma ridimensionare le immagini a dimensioni accettabili. La dimensione complessiva immagini è tra gli elementi che influiscono maggiormente sui tempi di caricamento di ogni pagina, e quindi sulle prestazioni.

Il testo alternativo (Attributo “Alt“), il titolo (Attributo “Title“) e la eventuale didascalia (Tag “Figcaption“) delle immagini e degli elementi multimediali in genere dovrebbero essere sempre valorizzati con testi appropriati ed inerenti al contenuto dell’immagine stessa e del testo immediatamente vicino ad essa. Questo aiuta la navigazione per gli utenti che non riescono a visualizzare l’elemento, inoltre la presenza di questi attributi ben valorizzati influisce statisticamente sulla posizione delle pagine in SERP. L’inserimento di parole chiave attinenti all’elemento rappresentato ed inserite all’interno degli attributi dell’immagine inoltre, può consentire la corretta indicizzazione delle immagini e migliorare la possibilità che i visitatori le trovino quando cercano su Google images , Yahoo images, Bing image feed e sugli altri strumenti di ricerca di immagini messi a disposizione dai vari motori.

Esempio di immagini relative alla parola chiave "Search Engine Optimization". Un'immagine perfettamente ottimizzata, ridimensionata e con gli attributi giusti, può apparire tra i risultati di Google immagini, Yahoo Ricerca immagini e Bing image Feed.
Esempio di immagini relative alla parola chiave “Search Engine Optimization”. Un’immagine perfettamente ottimizzata, ridimensionata e con gli attributi giusti, può apparire tra i risultati di Google immagini, Yahoo Ricerca immagini e Bing image Feed.

Le regole per preparare correttamente le immagini prima della pubblicazione sono indispensabili per  ottenere una perfetta ottimizzazione SEO del sito web. Puoi trovare qualche tool gratuito per ridimensionare e ottimizzare al meglio le immagini nella sezione Software alla fine della guida.

La tecnica delle infografiche

Non tutti i social network sono adatti a tutto. Ogni social ha peculiarità e scopi precisi, che è necessario interpretare. Con l'aiuto di questa piccola guida puoi scegliere il social che meglio si adatta alle tue esigenze promozionali.

Esempio di infografica, tratta dalla guida Introduzione al Social Media Marketing.

L’infografica non è altro che una rappresentazione visuale di un contenuto informativo testuale. L’utilizzo delle infografiche come elementi comunicativi ha radici piuttosto antiche, tuttavia dopo un lungo periodo in sordina, solo di recente sono tornate alla ribalta grazie all’uso che ne viene fatto in rete e non solo. All’interno di un infografica possono esserci elementi grafici di vario tipo come mappe, diagrammi, tabelle, schemi e così via, e le immagini utilizzate vengono spesso integrate con testi e grafici di varia natura, in modo da fornire rapidamente al lettore tutte le informazioni fondamentali che l’autore vuole comunicare. Questa tecnica di grande successo viene utilizzata sia per l’ottimizzazione SEO sia in diversi altri contesti comunicativi, compresa la stampa scritta, (Quotidiani, riviste, libri di testo, etc.) perché semplifica enormemente la comunicazione di informazioni anche complesse, ed è molto amata dal lettore perché consente di capire al volo se il contenuto fa al caso suo o meno. E tutto ciò che è amato dagli utenti … è amato anche da Google!

Utilizzare correttamente redirezioni permanenti e temporanee (HTTP 301/302)

Redirezioni 301, 302, Meta Refresh, Javascript, URL Shorteners... Come utilizzarle al meglio per evitare penalità?
Redirezioni 301, 302, Meta Refresh, Javascript, URL Shorteners… Come utilizzarle al meglio per evitare penalità?

In alcune occasioni è necessario redirezionare l’utente permanentemente da una certa pagina ad un’altra del sito. Per esempio:

  • Se hai da poco cambiato il nome di dominio e devi dirottare gli utenti sul nuovo.
  • Se hai acquistato diverse estensioni per il dominio (.it, .com, .eu ecc.) e vuoi dirottare gli utenti solo su una di esse.
  • Se hai più di un URL a cui gli utenti possono accedere per visionare una certa pagina.
  • Se hai spostato una pagina da un URL ad un altro.

In tutti questi casi è necessario usare delle redirezioni permanenti (Redirect 301) per puntare alla pagina di destinazione. In questo modo sia agli occhi dei visitatori, sia agli occhi di Google, a tutti gli URL omologhi corrisponderà un’unica pagina di destinazione. L’utilizzo corretto delle redirezioni è fondamentale in ottica SEO: utilizzare il redirect corretto evita che Google e gli altri motori di ricerca attribuiscano punteggi diversi e più bassi in genere ( perché il traffico di utenti è suddiviso fra i vari URL) ai singoli URL visitati.

Viceversa è buona norma utilizzare le redirezioni temporanee (Redirect 302) in tutti quei casi in cui bisogna redirezionare l’utente per un breve periodo di tempo, per esempio se il sito è in manutenzione e non è temporaneamente disponibile è possibile dirottare temporaneamente gli utenti ad un’apposita pagina che comunichi loro il disservizio. Utilizzare la corretta redirezione (temporanea o permanente) in base al contesto è più che altro importante affinché Google, Bing e gli altri motori riconoscano facilmente e soprattutto univocamente le pagine di cui è composto il sito e non vengano “tratti in inganno” falsando di conseguenza i ranking delle pagine. Lo stesso ragionamento è valido se c’è la necessità di spostare alcune pagine o intere sezioni di sito, anche in questo caso è bene impostare redirezioni 301 dai vecchi ai nuovi URL, in modo da mantenere in vita gli eventuali backlink esistenti verso le vecchie pagine e non perdere Link Juice e visitatori associati. In tutti i casi utilizzare URL canonici e relativi TAG, come già spiegato altrove nella guida, è il miglior modo per specificare univocamente a Google quale sia la pagina da indicizzare e che deve ricevere link juice, ranking, visitatori e quant’altro.

Link juice e pagerank: passano durante i redirects?

A Febbraio 2016 John Mueller di Google affermò, in questo post, che il link juice/pagerank passa sostanzialmente inalterato a prescindere dalla scelta del tipo di redirezione (301/302). Tuttavia, sempre meglio optare per la scelta più logica, in base al tipo di redirezione utilizzata. In futuro, l’algoritmo potrebbe cambiare nuovamente… In tutti i casi è bene comunque limitare l’uso delle redirezioni al minimo indispensabile: Il passaggio di “authority” tra una redirezione e l’altra ci mette del tempo ad essere analizzato da Google (Mesi, per un sito di media autorità) e non è assolutamente certo che arrivi completamente inalterato alla pagina finale.

Meta Refresh e redirect Javascript

Redirezionare i visitatori utilizzando il tag “Meta Refresh” o del codice javascript è da evitare salvo in casi molto particolari. In questi casi infatti è molto probabile che gli spider dei motori non seguano il link o la redirezione. Il link juice rimane alla pagina che effettua la redirezione e lo spider può interpretare la redirezione stessa come tentativo di cloaching, penalizzando di conseguenza tutta la catena di URL collegati…

Viceversa l’utilizzo di hyperlink Javascript ad esempio, è un buon modo per evitare di passare link juice e authority a siti esterni di cui non siamo particolarmente sicuri o ai quali semplicemente … non vogliamo passare alcun segnale SEO.

URL Shorteners

Nella maggior parte dei casi gli URL Shorteners passano correttamente link juice e ranking. Attenzione però, alcuni di essi offuscano il link finale o aggiungono attributi NOFOLLOW in modo da impedire il passaggio di link juice/ranking. Chi è interessato all’argomento, può dare un’occhiata al nostro articolo sui migliori URL shorteners, mentre alla solita sezione strumenti al termine della guida trovi il link a Skrawl redirect e sicurezza, per controllare il funzionamento dei tuoi redirect.

Metodologie supplementari per affinare ulteriormente il piazzamento del sito in classifica. Influiscono in modo marginale o comunque solo in determinati contesti.
Metodologie supplementari per affinare ulteriormente il piazzamento del sito in classifica. Influiscono in modo marginale o comunque solo in determinati contesti.

Metodologie e misure di SEO opzionali

In questa sezione sono raccolte alcune metodologie di Search Engine Optimization che hanno valenza solo in determinati contesti o che comunque hanno ruolo solo marginale nell’ottimizzazione del sito.

Enfasi nel testo (Grassetto, corsivo & Co.)

All’interno del testo, evidenziazioni quali grassettocorsivo, parole inizianti con lettera Maiuscola o in maiuscoletto, e parole con font più grandio di colore diverso rispetto alle altre, vengono considerate come più importanti sia dal punto di vista dell’ottimizzazione sui motori di ricerca sia, cosa ancor più importante, per l’occhio umano. Dal punto di vista della Search Engine Optimization, questa tecnica sembra stia progressivamente perdendo l’efficacia che aveva in anni passati. L’occhio del lettore tuttavia, tende a leggere prima le parole che si distinguono dal resto del testo – per luminosità, per dimensioni, per stile, font o colore – quindi tecniche di questo tipo possono essere molto utili per richiamare l’attenzione del visitatore verso qualche elemento particolare. La sottolineatura invece è ormai universalmente ritenuta inelegante, e quindi è sconsigliata.

Queste tecniche sono utili ma piuttosto dibattute dal punto di vista tipografico: Una delle critiche più sentite è che evidenziazioni di questo tipo spingerebbero i lettori a concentrarsi più sulle parole evidenziate, che sul resto del testo. 

Il file Robots.txt

E’ bene dotare il sito di un apposito file robots.txt per evitare la navigazione e l’indicizzazione di directory e file sui quali non si desidera passi lo spider di Google, ad esempio pagine di amministrazione o private, limitando così l’esplorazione e l’indicizzazione alle pagine effettivamente significative del sito: per esempio potresti impedire l’accesso a pagine di login, a pagine di errore personalizzate o altre pagine poco significative che potrebbero in qualche modo influire negativamente sul posizionamento e sulla reputazione che Google ha del sito.

La presenza o meno del file Robots.txt di per se non influisce normalmente in termini di ranking sui motori. Tuttavia, se il file è presente ed è mal configurato, può provocare gravi danni, rendendo alcune pagine o intere sezioni di sito completamente invisibili a Google.

Internazionalizzazione e localizzazione del sito

Adattare i contenuti delle pagine del sito in modo che siano adatti alla navigazione da parte di utenti esteri è un sicuro bonus sotto tutti gli aspetti, tra i quali anche la visibilità su Google. Ecco i principali:

  • Il sito sarà agevolmente visitabile da un maggior numero di utenti, con la possibilità
  • Avrà un numero maggiore di pagine di contenuti.
  • Ogni pagina acquisirà posizioni migliori su Google, sia le pagine originali sia le pagine tradotte (Per parole chiave attinenti, ovviamente).

Più versioni di ogni pagina, in lingue diverse, vengono indicizzate e trattate come se fossero pagine diverse sotto tutti i punti di vista. I motori sono in grado di riconoscere questo tipo di adattamento migliorando di conseguenza la posizione del sito sia all’interno dei risultati di ricerca della lingua principale, sia inserendo il sito fra i risultati in altre lingue. L’Internazionalizzazione completa si un sito si traduce in:

  • Traduzione di tutte le pagine o parte di esse in due o più lingue.
  • Modifica di valute, orari e unità di misura in base alla nazione di provenienza dell’utente.
  • Modifica di calcoli, campi che l’utente deve inserire, comportamento del sito e quant’altro in base agli standard ed alle regole della nazione di appartenenza. La tassazione e le modalità di fatturazione per esempio sono diverse da nazione a nazione.

Gli utenti che visitano il sito devono ovviamente avere la possibilità di scegliere la lingua che preferiscono o ancora meglio potrebbero essere automaticamente reindirizzati ai contenuti nella lingua più adatta in base all’estensione del nome di dominio che avete acquistato: per esempio chi visita il dominio con estensione “.com” potrebbe essere automaticamente reindirizzato alla versione inglese, “.it” alla versione italiana, “.fr” alla versione in Francese e così via.

Un’operazione di internazionalizzazione completa di un sito può avere un costo non indifferente, spesso si opta per la traduzione solo di alcune pagine principali che già di per se ha innumerevoli vantaggi. Per quanto riguarda l’ottimizzazione SEO su Google tuttavia, questo è il metodo più utilizzato per ottenere posizionamenti in lingue diverse, oltre che per attirare verso il sito visitatori di altre nazionalità.

Pagine speciali

I siti anonimi e di dubbia proprietà non piacciono particolarmente a Google. Ed alcune pagine rivestono un significato speciale dal punto di vista della SEO, proprio perché denotano caratteristiche particolari necessarie a capire bene di cosa tratta il sito e chi sono i proprietari. Google è in grado di riconoscerle e attribuire loro un valore particolare:

  • La/e pagina Chi Siamo / Dove Siamo – Se rappresenti un’impresa, devono essere presenti una o due pagine contenenti recapiti, localizzazione geografica e una descrizione di cosa fa l’impresa. Google utilizza le informazioni estratte dalla pagina per verificare la correttezza dei dati rilevati in altri siti e delle informazioni riportate in Google My Business / Google Local Places. Assicurati che le informazioni riportate siano corrette o il sito subirà delle penalizzazioni a causa delle differenze riscontrate dal motore.
  • La pagina con il Portfolio – Se il sito è aziendale e vendi prodotti o servizi, non mancare di esporre il portfolio clienti. Sembra che Google sia in grado di riconoscere la pagina già a partire dai meta tag e dal titolo.
  • La pagina Lavora con Noi – Solo per le imprese, è buona norma pubblicare una form per l’invio dei CV. Anche in questo Google è in grado di riconoscere la pagina a partire dalla struttura (Tipicamente, una form) e dal nome particolare di alcuni campi, per esempio il campo per l’invio del CV.

Ci sono sicuramente altre pagine particolari e dati specifici che i motori di ricerca sono in grado di individuare e che influiscono sulla SEO, ad esempio il numero di partita IVA ed il numero di telefono sono sicuramente verificati dalla maggior parte dei motori. Noi continuiamo a sperimentare …

Microdati, dati strutturati, JSON-LD e Rich Snippet

Con l’avvento di HTML5 sono stati introdotti nuovi tag con il solo scopo di classificare i contenuti di una certa pagina o di sezioni della pagina stessa attribuendo ad essi significati e caratteristiche particolari: i dati strutturati. Lo scopo di questa novità è di permettere ai motori di ricerca di estrarre rapidamente e univocamente alcune informazioni utili all’utente: per esempio il prezzo di un determinato prodotto, la disponibilità a magazzino, la media delle recensioni degli utenti che lo hanno utilizzato e così via. Una volta estratte tutte queste informazioni, Google sarà in grado di presentare le informazioni sotto forma di rich snippet agli utenti.

Un rich snippet è un risultato di ricerca dove sono per l’appunto presenti informazioni aggiuntive e che quindi non solo risulta più evidente in pagina, ma consente anche all’utente di valutare rapidamente se il risultato della ricerca sia conforme o meno alle sue aspettative. Il posizionamento della relativa pagina quindi ne trae beneficio: Da un lato perché un risultato più evidente viene maggiormente cliccato, dall’altro perché il visitatore in arrivo è più propenso a leggere i contenuti della pagina e magari visitarne altre del sito stesso, secondo la regola per la quale un risultato molto dettagliato infonde maggior fiducia. Se il sito è di natura commerciale è buona norma implementare all’interno dell’HTML le strutture di microdati o ancora meglio JSON-LD necessarie per “etichettare” correttamente i prodotti o servizi che il sito presenta, in modo che lo spider di Google possa agevolmente riconoscerli. L’immagine del prodotto, il prezzo, le recensioni  e la disponibilità a magazzino sono tutti dati che i motori di ricerca sono in grado di riconoscere e presentare all’utente di conseguenza.

Microdati e JSON-LD sono costrutti molto simili tra loro negli intendi, tuttavia John Mueller di Google ha dichiarato a Marzo 2019 che i secondi sono al momento preferiti da Google, quindi meglio optare perJSON-LD.

Evidenziatore Dati della vecchia versione di Google Search Console con esempio di Rich Snippet
Evidenziatore Dati della vecchia versione di Google Search Console con esempio di Rich Snippet

L’utilizzo dei microdati è utile anche a diverse categorie di siti non necessariamente commerciali. I magazine online che riportano quotidianamente informazioni per i visitatori possono utilizzare i dati strutturati per consentire al motore la pubblicazione della data di ultima modifica di un articolo, dell’autore e così via. Siti di ricette possono pubblicare per ogni ricetta l’immagine del piatto finito, gli ingredienti, il tempo di cottura e un’infinità di altre informazioni.

All’interno di Google Search Console c’è lo strumento per l’evidenziazione dei dati che facilita questo compito. 

Apparire su Google Maps

Se possiedi un’attività locale, come ad esempio un negozio, una trattoria, un’osteria, un campeggio, una piscina, una farmacia o un parrucchiere… insomma qualsiasi attività che fornisce servizi o prodotti in un’area geograficamente limitata, e vuoi attirare visitatori e clienti all’interno di una certa distanza dalla tua sede, è sicuramente conveniente creare un account Google My Business (In precedenza: Google+ Local, Google places, etc. il nome cambia quasi ogni anno).

In particolare se le parole chiave per le quali ti interessa sponsorizzare il sito forniscono risultati “Blended”: all’interno della pagina dei risultati sono presenti sia risultati organici sia risultati di altro tipo, per esempio risultati geografici ricavati da Google+ (Ormai dismesso ) e soprattutto Google Maps. Creare un profilo completo e ricco di informazioni, immagini e prodotti aumenta esponenzialmente la possibilità per il sito di apparire in prima pagina Google, all’interno dei risultati di ricerca organici, o all’interno dei risultati geografici di Google Maps. Bisogna tener presente che il sito normalmente appare solo all’interno di una delle due categorie (Maps o risultati di ricerca), in rare occasioni è possibile che il sito appaia in entrambe per qualche tempo, ma si tratta spesso di un risultato temporaneo dovuto ad un ricalcolo del ranking Google: entro qualche settimana il sito scomparirà da tutte le categorie tranne una sola. Fanno eccezione i siti di grande autorità, che possono apparire in tutte le categorie.

Se viceversa ti interessa apparire esclusivamente fra i risultati organici e non all’interno dei risultati geografici può essere conveniente non sottoscrivere un account Google My Business: Se il sito è iscritto a Google My Business ma non fornisce servizi o prodotti in un’area geograficamente limitata, potrebbe avere un’ottima posizione nei risultati geografici – a cui però nessuno dei tuoi visitatori è interessato – ed essere invece fortemente penalizzato nei risultati organici.

Nella sezione software alla fine della guida, trovi il link a Google My Business per iniziare a creare il tuo profilo.

Validazione W3C

E’ sicuramente buona norma assicurarsi che l’HTML del sito sia valido secondo le specifiche W3C. Esistono strumenti gratuiti per la verifica che puoi trovare nella sezione strumenti di questa guida. Il più aggiornato (ed anche il più stringente) è per ovvi motivi il validatore offerto direttamente dal World Wide Web Consortium. La validazione però non è di fondamentale importanza ai fini del collocamento tra i risultati della ricerca Google, l’unica accortezza da avere è di correggere gli errori di validazione più vistosi: se il sito è ricco di errori HTML (Tag non chiusi, malformati ecc.) o presenta caratteristiche di obsolescenza potrebbe essere penalizzato o potrebbe non essere correttamente visibile su qualche browser.

Detto questo, la maggior parte dei siti di grandi dimensioni non sono validi W3C e tra questi anche Google: provare per credere!

Adottare lo standard AMP

Lo standard AMP, o Accelerated Mobile Pages, è un insieme di regole introdotte da Google a Febbraio 2016 allo scopo di minimizzare i tempi di caricamento della pagine web quando visitate da dispositivi mobile, smartphones in particolare. La definizione di questo standard è dovuta ad una considerazione pratica: Oltre il 50% degli utenti “scappa” da una pagina che si carica lentamente (con tempistiche superiori ai 3 secondi circa). Google ha dichiarato che l’adozione di AMP riduce fino a 4 volte il tempo di caricamento di ogni pagina ed in molti casi la pagina, agli occhi dell’utente, sembra essere caricata istantaneamente.

Alcune delle caratteristiche che porta con se lo standard AMP:

  • L’Utilizzo del javascript in pagina è molto limitato e per lo più asincrono. Javascript personalizzato o di terze parti non è consentito o è consentito con forti limitazioni.
  • E’ consentito solo l’uso di CSS inline – ovvero inseriti direttamente all’interno della pagina HTML e non in file .CSS specifici – con dimensioni comunque limitate.
  • Immagini e contenuti multimediali devono dichiarare le proprie dimensioni nell’HTML in modo che siano note prima ancora che le risorse siano scaricate dal browser.
  • Anche il caricamento dei font è asincrono e ottimizzato.
  • Sono consentite solo le animazioni con accelerazione GPU, tipicamente quelle ottenibili lavorando solo con i CSS.
  • Le pagine AMP possono essere servite attraverso la cache di Google dedicata allo scopo.
  • L’ordine di scaricamento di tutte le risorse in pagina (Immagini, video e multimedia etc.) è ottimizzato in modo da scaricare prima le risorse “above the fold”, ovvero le risorse visibili nella parte alta della pagina e visibili immediatamente da parte dell’utente. Tutte le risorse sono scaricate con il metodo del “lazy load”

Se da un lato è ovvio che un sistema per migliorare così tanto le prestazioni e limitare i rimbalzi migliori anche il piazzamento della pagina nella classifica di Google, è anche evidente che questo sistema porta con se diverse limitazioni che lo rendono inappropriato in molte occasioni. Per esempio, inserire pulsanti di condivisione social, slider avanzati, animazioni particolari o  codice javascript per gestire il calcolo del prezzo di un prodotto diventano tutti compiti impossibili o quasi. Sembra inoltre che il miglioramento in termini di posizione organica sia più che altro dovuto al miglioramento complessivo delle prestazionipiuttosto che all’adozione dello standard. Miglioramento che può comunque essere ottenuto seguendo tutte le relative best practice (In gran parte contenute anche in questa guida), senza necessariamente aderire allo standard AMP.

Google sta appositamente spingendo artificialmente i risultati conformi alla specifica AMP per alcuni specifici argomenti, tendenzialmente per i magazine online ed in genere i siti che si occupano di attualità e notizie (Vedi esempio nell’immagine) per i quali conviene probabilmente pensare di aderire allo standard. Il bonus in termini di collocazione in SERP, in questi casi, può arrivare anche alle 20 o 30 posizioni più in alto in classifica rispetto alle pagine standard. Sebbene questo standard possa a breve divenire un fattore determinante per l’ottimizzazione SEO su Google determinante, al momento attuale è sicuramente ancora in fase sperimentale e pionieristica. Sta ad ogni webmaster giudicare se sia utile o meno e su quali pagine del sito utilizzarlo.

Se da un lato è vero che i risultati AMP sono presenti tra i risultati di Google (Anche in appositi box), è anche vero che spesso non sono i primi
Se da un lato è vero che i risultati AMP sono presenti tra i risultati di Google (Anche in appositi box), è anche vero che spesso non sono i primi

Errori grammaticali nel testo

Google ed in genere gli altri motori di ricerca sono sicuramente in grado di riconoscere gli errori grammaticali. Ne è riprova il fatto che, se si prova a ricercare una frase grammaticalmente non corretta, Google risponde con la classica dicitura “Forse Cercavi …” o analoga. Ultimamente Google è in grado anche di sottolineare i vostri errori in tempo reale mentre digitate le parole da ricercare, permettendovi così di correggere rapidamente. Premesso questo, non è però certo se Google attribuisca o meno delle penalità a chi li commette all’interno dei propri contenuti.

Anzi, in qualche caso le pagine possono acquisire ottimi ranking tra i risultati Google per tutti coloro che commettono lo stesso errore o che stanno cercando contenuti, proprio con quell’errore.

Gli utenti del sito invece saranno sicuramente in grado di riconoscere gli errori e, se sono in numero eccessivo, generalmente attribuiranno scarsa considerazione nei contenuti. In sostanza più che una penalità diretta da parte di Google potresti ottenere una penalità indiretta da degli utenti a causa dei frequenti rimbalzi.

Un esempio di correzione automatica di Google. L'utente cerca "scivere per il ueb", ma Google propone i risultati relativi a "Scrivere per il web".
Un esempio di correzione automatica di Google. L’utente cerca “scivere per il ueb”, ma Google propone i risultati relativi a “Scrivere per il web”.
Un altro esempio, nel quale gli errori grammaticali invece sono stati indicizzati da Google, esattamente come qualsiasi altra parola.
Un altro esempio, nel quale gli errori grammaticali invece sono stati indicizzati da Google, esattamente come qualsiasi altra parola.

Pagine di errore personalizzate

Come regola generale, per ottenere il massimo a livello di SEO il sito dovrebbe avere pagine di errore personalizzate per i file non disponibili (HTTP 404) e possibilmente per gli errori applicativi (HTTP 500 e derivati). Le pagina di errore dovrebbero sempre contenere almeno il link alla Home Page del sito e possibilmente il menu principale. La presenza di pagine di errore personalizzate non sembra influire direttamente sul posizionamento in SERP, tuttavia fornire pagine di questo tipo in tema con il sito conferisce maggior professionalità e dà modo sia agli utenti sia allo spider di Google di proseguire comunque la navigazione cliccando su uno dei link contenuti nella pagina. E di conseguenza migliora l’esperienza dell’utente. Se viceversa gli errori di questo tipo non sono gestiti, gli utenti inesperti non saranno in grado di proseguire la navigazione, mentre i più esperti potrebbero essere portati a considerare il sito come di scarsa qualità.

Fattori obsoleti, ritenuti inutili dalla maggior parte dei motori.
Fattori obsoleti, ritenuti inutili dalla maggior parte dei motori.

Obsoleti

Elementi obsoleti, che i motori di ricerca non prendono più in considerazione.

Il tag Keywords

E’ ormai certo che il tag Keywords non viene più considerato dalla maggior parte dei motori per il calcolo del posizionamento, nel dubbio tuttavia è sempre possibile valorizzarlo rispettando alcune regole: il tag deve essere unico e personalizzato per ogni pagina e deve comprendere circa 4-8 keywords o key phrases attinenti al contenuto e al posto delle parole chiave è possibile utilizzare sinonimi o parole logicamente collegate.

Software fondamentali e professionali per la SEO, per il controllo dei backlink e della velocità di pagina, per l'analisi delle keywords.
Software fondamentali e professionali per la SEO, per il controllo dei backlink e della velocità di pagina, per l’analisi delle keywords.

Software e strumenti utili (Commerciali e gratuiti)

Ecco qui un elenco degli strumenti e dei software comunemente utilizzati per migliorare SEO e visibilità sui motori di ricerca. Gli strumenti sono in parte gratuiti o comunque consentono l’accesso limitato alle funzionalità gratuitamente.

I fondamentali

Prima di tutto, gli strumenti che non possono mancare per capire quali sono le parole chiave su cui devi investire, come si comportano gli utenti, quali pagine sono più visitate, se ci sono o meno errori nel sito… e molto altro:

Avere un account Google Analytics ed un account Google Search Console (In precedenza Google for Webmasters) per monitorare costantemente l’andamento del sito, il posizionamento delle parole chiave principali sulle quali si sta facendo SEO, gli eventuali errori eccetera è di fondamentale importanza per chiunque abbia intenzioni serie. Con questi strumenti ed un buon bagaglio di esperienza è possibile capire quali contenuti piacciono di più agli utenti ed in base a quali parole chiave, se ci sono dei vistosi errori nel sito, come correggerli e molto altro. Chiunque si occupi di Web Marketing, Search Engine Optimization e Search Engine Marketing conosce ed utilizza giornalmente questi strumenti. 

I professionali

Strumenti di analisi professionali, per chi ha intenzioni serie. Consentono l’accesso gratuito limitato ma per usarli al meglio è necessario sottoscrivere un abbonamento, normalmente mensile:

Controllo SEO generale della pagina

Strumenti gratuiti per analizzare la SEO di pagina e non solo: Meta tag, struttura e contenuti, broken links, etc:

Velocità e tempi di risposta

Strumenti gratuiti per la misurazione della velocità e dei tempi di risposta del sito o di una singola pagina web:

Software e strumenti gratuiti per la rilevazione dei backlinks tuoi o dei concorrenti:

Controllo della posizione/ranking

Rilevamento automatico della posizione del sito tra i risultati dei motori di ricerca, in base alle parole chiave di interesse:

Analisi delle keyword, volumi e trend di ricerca

Software e strumenti per l’analisi di Keyword e analogie, volumi di ricerca, trend di ricerca:

Controllo dell’indicizzazione

Per controllare se un sito o una pagina specifica è indicizzata o meno, su tutti i principali motori:

Miscellanea

Miscellanea di altri strumenti utili:

  • Validatore W3C – Per controllare la validità dell’HTML di pagina
  • Rank2traffic – Rank2Traffic fornisce una stima del traffico di utenti mensile di qualsiasi dominio. 
  • Skrawl – Controlla i redirect che avvengono a partire da un Link/URL di partenza e la sicurezza di tutti i siti attraversati.
  • Similarweb – Fornisce stime di traffico e principali competitor di un dominio.
  • Wayback Machine – Conserva un archivio di tutti i principali siti web nel tempo.
  • Builtwith – Per sapere di quali tecnologie fa uso un certo sito.
  • Totheweb – Per avere un’anteprima dello snippet Google della tua pagina.
  • TinyJPG – Ottimizza immagini JPG, PNG e altri formati.
  • BulkResizePhotos – Riduce la dimensione di gruppi di immagini (Del 50%, del 70% e così via).

A proposito di IWG

Offriamo servizi SEO professionali che aiutano a migliorare il posizionamentodei siti nei risultati delle ricerche organiche sia di Google che degli altri principali motori di ricerca. Il nostro obiettivo è quello di lottare sempre per la più alta classifica, anche quando la partita si gioca su parole chiave molto competitive.

Analisi SEO Gratuita per il tuo Sito Web

Il nostro team è pronto ad esaminare gli aspetti SEO del tuo sito Web, fornire alcuni consigli per aiutarvi a incrementare il traffico, i contatti massimizzarericavati.

Registrati alla newsletter!

News dal blog

Vedi tutti i post
No Comments

Articoli recenti

Leave a Comment

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.