Translate

sabato 24 settembre 2016

MOTORI DI RICERCA


I siti internet presenti sul web risultano essere oltre 1 miliardo (fonte: Internet Live Stats).
Come possono gli oltre 3 miliardi di  utilizzatori del web riuscire a trovare il sito che gli interessa?
Un ruolo importantissimo in questo contesto lo svolgono i motori di ricerca. Infatti le statistiche parlano chiaro: il 93 % (fonte: Search Engine Journal) dell'esperienza degli utenti on line inizia proprio con una query (ricerca) su uno dei tanti search engine (motori di ricerca) messi a disposizione dal web.
Ma come funzionano i motori di ricerca?
Proviamo a scorprilo in questo articolo!

Tutti i motori di ricerca scolgono tre funzioni fondamentali:

  1. Scansione dei documenti on line;
  2. Indicizazione nei loro data center;
  3. Posizionamento dei documenti scansionati nelle pagine dei risultati.
Per capire la complessità di questi tre passaggi basti pensare che Google (certamente il motore di ricerca più conosciuto nel mondo) dichiara:
  • Di avere un totale di documenti scansionati che superano di gran lunga i 100 milioni di gigabyte,
  • Che per realizzarne l'indicizzazione ci sono volute oltre 1 milione di ore di elaborazione
  • Che ogni ricerca degli utenti effettuata nel suo search engine percorre, mediamente, una distanza di 2.400 km tra i vari data center ad una velocità paragonabile a quella della luce.
Per capire la logica dei motori di ricerca dobbiamo entrare nel dettaglio delle tre funzioni elencate precedentemente.

Lo faremo semplificando molto i processi e avendo come riferimento cio che avviene dietro il motore di ricerca Google, sapendo che gli altri search engine (Yandex, Baidu, Bing, etc.) potrebbero funzionare in modo un po' diverso, ma con le stesse logiche. 
Procediamo.

SCANSIONE
E' il primo step con il quale il motore di ricerca entra in contatto con una pagina web presente su internet. 
Per Google la scansione parte da uno scheduler. Dobbiamo immaginarlo come un'agenda in cui sono segnate le pagine web da scansionare, con che frequenza e quante pagine scansionare per quel determinato sito. Questo lavoro è facilitato dalle sitemap. 
Lo scheduler istruisce il crawler di Google, che si chiama Googlebot
Questo non è altro che un programma che esegue le scansioni in base a quanto stabilito dallo scheduler. Rileva i link delle varie pagine web e li invia nuovamente allo scheduler per organizzare le successive agende di scansione.
Googlebot inoltre identifica tutti gli elementi presenti nelle pagine web scansionate e li invia ai data center per la fase successiva dell'indicizzazione.

INDICIZZAZIONE
Ogni elemento di pagina è identificato da un codice univoco (ID). A questo punto viene usato quello che è chiamato indice invertito: l'organizzazione dei documenti non parte dal documento scansioanto, ma da parole chiave, per le quali viene indicata, tra le altre cose:
  1. la presenza nei documenti scansionati, 
  2. la frequenza con cui appare in ogni documento.
  3. la posizione in cui appare in ogni documento.
In questo modo tutti i documenti sono pronti per essere consultati nella fase successiva del posizionamento.

POSIZIONAMENTO 
Il cuore del posizionamento o ranking è costituito da un algoritmo che nello stato attuale delle cose analizza oltre 200 fattori per ricercare e offrire i risultati migliori per la query dell'utente.
Tra gli elementi considerati da questo algoritmo abbiamo certamente:
  1. La categoria di ricerca
  2. Lo storico delle ricerche effettuate dall'utente
  3. L'area geografica da cui proviene la ricerca
  4. La presenza, nei documenti indicizzati, delle parole utilizzate nella ricerca
  5. La credibilità e autorevoleza del sito internet in cui è presente il documento indicizzato.
Sulla base di tutti questi fattori il motore di ricerca individua i risultati più attinenti alla ricerca effettuata dall'utente e li classifica per ordine d'importanza in quella che viene chiamata SERP (search engine results page) cioè la pagina dei risultati. 

L'algoritmo di Google subisce continue trasformazioni finalizzate a rendere sempre più alto il livello qualitativo dei risultati della SERP.

mercoledì 27 maggio 2015

SEO UTILITY ON LINE - GRATIS



SEO UTILITY
Per realizzare un buon lavoro come consulente SEO è necessario adottare un approccio abbastanza analitico. Fortunatamente ci vengono in soccorso diversi strumenti SEO  reperibili online e spesso anche in forma gratuita (almeno nella versione base).
Di seguito vi riporto una lista di tools abbastanza affidabili con cui poter realizzare un buon lavoro di SEO analyzer.

UTILITY PER KEYWORDS
Tool dello strumento di pianificazione della pubblicità AdWords di Google. Utile per capire concorrenza e traffico delle parole chiave scelte e per avere suggerimenti per nuove parole chiave e individuare termini semanticamente vicini alle keywords selezionate.

Strumento utile per la ricerca di termini da legare a parole chiave prescelte. Utile soprattutto per comporre frasi chiave di più parole (long tail) o per comprendere quali siano i termini semanticamente vicini alle parole chiave scelte.

Tool di Google con cui è possibile verificare trends di traffico per specifici termini. E' possibile anche individuare le ricerche correlate ai termini da noi scelti, che fanno registrare i trends più importanti. Molto utile anche l'indicazione territoriale dei trends. 

UTILITY PER I BACKLINKS
GOOGLE WEBMASTER TOOLS (ora Google Search Console)
Nella sezione “Traffico di ricerca” e “Link che rimandano al tuo sito” è possibile avere una panoramica della situazione dei domini che puntano al tuo sito, delle pagine del tuo sito internet con più backlinks e degli anchor text usati per linkare le pagine del tuo sito.

Strumento SEO di MOZ.com, con cui sarà possibile avere informazioni utilissime al posizionamento in Google del tuo sito. In particolare domain authority, page authority, elenco delle URL dove sono presenti i backlinks al tuo sito internet con relativa valutazione su domain authority, page authority e indice di SPAM, utili a comprendere la qualità dei backlinks.

Valido tool di SEO analyzer con cui sarà possibile ottenere una overview su tipologia, provenienza, localizzazione e anchor text dei backlinks.


UTILITY PER ANALISI LINK INTERNI 
LINKCRAWLER
Tool in Java da scaricare, che permette di effettuare una rapida analisi di tutti i link interni ed esterni del sito internet e di avere un report in excel, html o jason.

SCREAMING FROG
Utility da scaricare per effettuare, tra le altre cose, la scansione dell'intero sito internet per comprendere la risposta di tutti i link sia interni che esterni.

Strumento on line utile per avere una veloce panoramica dei link funzionanti sia interni che esterni di una pagina web, con indicazione  del tipo di anchor. Fornisce anche una percentuali di link interni ed esterni.

Tool da scaricare, solo per Windows, che fornisce una panoramica completa dei link interni ed esterni di tutto il sito internet e realizza un report in html molto utile con statistiche ed indicazioni su broken links, redirects e files orfani.

GOOGLE WEBMASTER TOOLS (ora Google Search Console)
Negli strumenti di Google Webmaster tools (ora Google Search Console) abbiamo il numero totale di links indicizzati del sito internet, in “Indice di Google” e “Stato dell'indicizzazione”. Da questa funzione abbiamo anche il numero di URL bloccati dai robot.
  
UTILITY PER RISCONTRO SULLE PAGINE INDICIZZATE IN GOOGLE
GOOGLE WEBMASTER TOOLS (ora Google Search Console)
Una delle funzioni degli strumenti di Google Webmaster tools (ora Google Search Console) permette di avere indicazione degli errori di scansione del sito internet. Andando nella sezione “Scansione” e poi in “Errori di scansione” si ha un report della situazione dei link interni che hanno generato un errore, del tipo di errore riscontrato e dell'indicazione su dove è possibile rintracciare il link che ha rilasciato l'errore.

UTILITY PER CONTROLLO DEGLI HEADINGS
Strumento molto utile per diverse funzioni e tra le altre analisi, permette di conoscere gli headings H1 e H2 presenti nelle varie pagine, la lunghezza della frase inserita nel tag h1 o h2 e le pagine dove mancano questi tag.

Questa è una toolbar per Firefox, Chrome o Opera ricchissima di funzioni. Tra le varie altre cose è possibile visualizzare i tag presenti in una pagina con la funzione in “information” e “view document outline”.

UTILITY PER EVIDENZIATORE DI DATI STRUTTURATI
GOOGLE WEBMASTER TOOLS (ora Google Search Console)
Google ha semplificato il modo di evidenziare dei dati strutturati nelle pagine web.
Basta utilizzar eil tool presente nei Google Webmasgter tools (ora Google Search Console), presente “Aspetto della ricerca” → “Evidenziatore di dati”. Cliccando su “Avvia Evidenziazione”
in alto a destra si avvierà il processo, molto user friendly, per l'individuazione e impostazione di dati trutturati.

UTILITY PER VERIFICA PRESENZA DATI STRUTTURATI 
GOOGLE WEBMASTER TOOLS (ora Google Search Console)
Google Webmaster tools (ora rinominato Google Search Console) permette di effettuare un test sulla presenza di una corretta implementazione dei dati strutturati nelle pagine web da analizzare.
La funzione è presente nella voce “”Aspetto della ricerca” → “ Dati strutturati” del menù  sulla sinistra.

Tool della sezione developers di Google. Permette d'incollare un codice sorgente o di recuperare un URL. Fornisce l'indicazione sul tipo di dato strutturato presente nel codice recuperato e il numero degli stessi dati, divisi per tipologia.


UTILITY PER IL CONTROLLO DELLA VELOCITA' DI DOWNLOAD DELLE PAGINE DEL SITO
Tool on line, gratuito, per un check up completo della velocità di download delle pagine. E' il riferimento principale per chi abbia voglia di ottimizzare dal puntio di vista delle performance il proprio sito internet.

Tool di Google, gratis e on line, con importanti indicazioni su come ottimizzare le performance del proprio sito internet sia per la versione desktop che mobile. Fornisce importanti indicazioni anche per l'usabilità delle pagine web analizzate su dispositivi mobili.

Tool intuitivo e con una interfaccia semplice, che realizza due speed test in contemporanea e indica risultati, timeline di caricamento e permette di esportare un report completo in pdf.

UTILITY PER CHECK KEYWORDS DENSITY 
Interessante tool on line che crea una panoramica delle parole più ricorrenti nella pagina web analizzata e, contemporaneamente, riporta dei suggerimenti di Google per parole semanticamente vicine a quelle ricavate dalla pagina web.

Tool on line e gratuito che permette di avere una “fotografia” delle parole più usate in una pagina web. E' possibile anche indicare l'esclusione di alcuni termini o di personalizzare la ricerca (per es. se includere le parole presenti nel Title, etc.)

UTILITY PER CHECK CONTENUTI DUPLICATI
Tool che effettua una ricerca sui contenuti del proprio sito internet e, per ogni pagina, indica in quali pagine sono presenti dei contenuti duplicati ed evidenzia le parti di testo duplicate.
Permette di avere anche un report in PDF e di avere altre interessanti indicazioni relative al sito internet analizzato.

UTILITY PER VALIDAZIONE FILE ROBOTS.TXT
Il tool permette di vedere il file robots e di effettuare una validazione dello stesso, individuandone gli errori di sintassi.

UTILITY PER CHECK VALIDATION HTML
Potente validatore on line e totalmente gratuito. Effettua il crawling di tutto il sito internet, mostrando un report dettagliato su ogni singola pagina, esportabile sia in html che in pdf.

UTILITY PER VERIFICA POSIZIONAMENTO SITO IN GOOGLE

Tool da scaricare ed installare in Windows.
Utilissimo per tenere monitorato l'andamento di un sito internet nella SERP di Google. Facile da usare e intuitivo, permette di impostare parole chiave e profondità di ricerca.

UTILITY PER CREAZIONE SITEMAP
Tool on line, gratuito, che permette di ricavare, da un url la sitemap del sito internet. La sitemap può essere scaricata in diversi formati.

Tool on line, gratuito, che permette di ricavare, da un url la sitemap del sito internet. La sitemap può essere scaricata in diversi formati.

UTILITY PER VERIFICA PRESENZA GOOGLE ANALYTICS 
TAG ASSYSTANT
Estensione di Google Chrome, semplice ed intuitiva.
Permette di avere l'indicazione del tipo di TAG di Google Analytics installato e mostra il codice dello stesso.

Spero che queste indicazioni vi siano utili.  
Se utilizzate altre utilities e tools per la vostra attività di SEO commentate e scrivete! lo sharing è fondamentale.
Buon SEO a tutti.

giovedì 11 dicembre 2014

SEMANTICA, MICRODATI, RICH SNIPPET E SCHEMA.ORG


La semantica, ovvero il significato delle parole, è la vera sfida di un motore di ricerca.

Il WEB è usato da persone, che danno un significato ben preciso alle parole che usano.

Tre sono i motivi principali per cui gli utenti utilizzano il WEB:

    microdati, rich snippet e schema.org
  1.  Scopo informativo: Si cercano informazioni su internet su un determinato argomento consultando blogs, pagine web, documenti. Lo scopo è quindi quello di accrescere le proprie conoscenze su qualcosa di specifico e quindi si consulteranno numerose fonti aprendo più siti internet.
  2. Scopo transazionale: Si desidera compiere un’azione come potrebbe essere acquistare un oggetto, scaricare un’applicazione o semplicemente inscriversi ad una newsletter o acquisire un file. L’obiettivo finale è compiere quest’azione, quindi l’utente navigherà fino a quando non ci sarà riuscito. 
  3.  Scopo navigazionale: Si cerca uno specifico prodotto, una specifica azienda o uno specifico personaggio. L’obiettivo dell’utente è, quindi,  trovare il sito internet ufficiale o assolutamente riconosciuto ed accreditato su un determinato target che si ha bene in mente. Le altre pagine WEB contano relativamente poco.

Queste esigenze gli utenti le espletano tramite query sui motori di ricerca, digitando poche parole che hanno però un significato sempre più specifico.

Il WEB sta diventando sempre più semantico e anche i motori di ricerca devono adeguarsi a questo cambiamento,  diventando sempre più bravi a comprendere il vero scopo delle parole chiave inserite dall’utente.

Google, come abbiamo già detto in alcuni dei post precedenti, si sta impegnando molto in questo senso. 

Come spesso accade, però, non potendo lasciare ad un algoritmo la sensibilità di capire perfettamente una corrispondenza tra l’intenzione dell’utente e i contenuti di una pagina web,  Google chiede aiuto ai WEBMASTER, affinché diano indicazioni più specifiche sulla struttura delle informazioni presenti in un sito internet.

Qui entrano in gioco concetti come microdati, schema.org e rich snippet.

Andiamo con ordine:


Queste le definizioni  dei concetti appena elencati:


MICRODATI: Categorie di dati, stabilite con il linguaggio HTML5 con cui vengono assegnate etichette specifiche alle informazioni presenti sui nostri siti internet, leggibili dai principali spiders dei motori di ricerca.

SCHEMA.ORG: Progetto sostenuto da GOOGLE, YAHOO e MICROSOFT, che definisce le corrette specifiche per implementare  i microdati nel codice HTML del proprio sito internet.

RICH SNIPPET:  Informazioni presenti subito dopo la description di alcuni risultati elencati nella SERP (search engine results page). 


Vediamo che ruolo hanno lato SEO questi elementi.


MICRODATI: permettono ai motori di ricerca di capire che nel nostro sito ci sono informazioni specifiche, che possono essere date, nomi, luoghi, ricette, eventi etc. Risulta chiaro che se un utente cerca qualcosa inerente alle informazioni presenti nel nostro sito, Google le individuerà più facilmente!


SCHEMA.ORG: Dà indicazioni chiare per avere una corretta implementazione del codice per i microdati nel nostro sito internet, in modo da non incorrere in penalizzazioni o sporcare il codice stesso. Google ci dà comunque una mano per questo passaggio più tecnico tramite il TOOL ASSISTENZA MARKUP.


RICH SNIPPET:  se le informazioni sui microdati sono state inserite correttamente quando ci sarà a visualizzazione del nostro sito internet nella SERP usciranno delle informazioni aggiuntive con dei links, che dovrebbero aiutare l’utente a individuare l’argomento trattato nelle nostre pagine web che gli interessa maggiormente in modo più rapido. Questo secondo Google dovrebbe migliorare la user experience e quindi rendere il nostro sito internet più USER FRIENDLY.   

Google dichiara chiaramente in questa pagina che "il markup dei dati per i rich snippet non incide sul posizionamento della pagina nei risultati di ricerca". Ma dobbiamo sempre  ricordare che Google punta ad un WEB sempre più semantico, quindi risulta evidente che il progetto SCHEMA.ORG prenderà sempre più piede.

domenica 16 novembre 2014

LE TECNICHE DI REDIRECT SEO FRIENDLY



Il redirect è una delle tecniche più utilizzate dai webmaster per 3 principali motivi:
redirect
      1. Migrazione di un sito internet su un altro dominio; se abbiamo per esempio un blog indicizzato in GOOGLE nel migliore dei modi ed abbiamo deciso di farlo diventare un vero e proprio sito internet con un URL di nostra scelta, per non perdere tutto il vantaggio acquisito dal nostro blog dobbiamo re-indirizzare le visualizzazioni dello stesso sul nuovo sito internet;
      2. Segnalazione di un URL “canonico” per evitare dispersioni di traffico; se alcuni contenuti del nostro sito internet sono raggiungibili da diversi URL, Uniform Resource Locator, per esempio http://miositoseo.com/ e http://www.miositoseo.com/, possiamo scegliere di indicare al Crawler di Google, Googlebot e ad altri spiders di altri motori di ricerca, quale indirizzo considerare come principale.
      3.  Fusione di due o più siti internet;  scelta dovuta più che altro a questioni logistiche.
E’ importante però adottare determinate accortezze SEO FRIENDLY per evitare che tutto il lavoro svolto sul vecchio sito internet con le nostre TECNICHE SEO venga vanificato.
Per prima cosa cerchiamo di capire in cosa consiste la tecnica del REDIRECT.
In pratica quando un utente clicca su un indirizzo internet del nostro vecchio sito, se è stata adottata questa tecnica, viene automaticamente inoltrato dal suo browser al contenuto del nuovo sito internet che noi abbiamo indicato come “sostituto”.

Esistono due principali tipi di redirect:

  • REDIRECT 301 - HTTP 301 Permanent Redirect;
Questo indica ai motori di ricerca e agli spider che l’URL (Uniform Resource Locator) di una pagina  deve essere sostituito definitivamente da un altro che noi gli indichiamo. In questo modo gli spider tendono a trasferire il page rank e tutta l’importanza delle precedenti pagine alle nuove pagine e di sostituire nei loro data base il vecchio URL con il nuovo.

  • REDIRECT 302 - HTTP 302 Temporary Redirect;
Questo indica ai motori di ricerca e agli spider che l’URL (Uniform Resource Locator) di una pagina  deve essere sostituito solo temporaneamente da un altro che noi gli indichiamo. In questo modo gli spider non trasferiscono il page rank e tutta l’importanza delle precedenti pagine alle nuove e quindi i vecchi contenuti continuano ad essere indicizzati regolarmente.

Per un redirect SEO FRIENDLY si consiglia vivamente di usare l’HTTP 301 Permanent Redirect.  

Questa scelta è motivabile da due motivi principali

  1. Evitare problemi di duplicazione dei contenuti tra vecchio e nuovo sito; 
  2. Dare fin da subito un’ottima spinta all’indicizzazione del nuovo sito internet.

      LINEE GUIDA su come effettuare il redirect in modo corretto: 

  • Non ci sono limiti al numero di pagine reindirizzate da un sito ad un altro.  Occorre però tenere presente che il reindirizzamento rallenta il processo di caricamento del documento finale consultabile dall'utente e questo non è sicuramente un fattore positivo.

  • Non rimandare il Crawler per più di due redirect per lo stesso contenuto (quindi al massimo potremmo partire da una pagina originale ed atterrare su un secondo e poi al massimo, ma solo se fosse proprio necessario, su un terzo reindirizzamento). 
  •  Le pagine del vecchio sito devono essere reindirizzate sulle corrispondenti pagine del nuovo sito. Reindirizzare tutte le pagine del vecchio sito alla home page del nuovo sito, infatti, può essere interpretato dal Googlebot come un tentativo fraudolento di aumentare la visibilità del nuovo sito, ed inoltre questa tecnica,  non garantirebbe una buona esperienza dell’utente che si ritroverebbe reindirizzato ad una home page non richiesta. 
  •  Implementare Google Analytics su entrambe le pagine incluse nel reindirizzamento (vecchio e nuovo sito) sarebbe utile per monitorare il redirect ed individuare eventualmente problematiche da sanare.  
Buon reindirizzamento a tutti!