I primi motori di ricerca sono nati all’inizio degli anni ’90. Prima di Google (che è nato nel 1996) ci sono stati almeno una decina di motori importanti come Yahoo, Altavista, etc… Nel 2000 c’è stato poi il boom delle .com. Da quel momento in poi la gente si è resa conto che si poteva guadagnare con internet.
Indice
Il passo successivo è stato quello di chiedersi come attrarre più traffico verso il proprio sito (passando per i motori di ricerca).
Era nata la SEO!
La SEO punta i propri sforzi sul migliorare la propria ricerca organica, cioè essere tra i primi nei risultati di Google nei risultati non a pagamento:
Comunque sia, andiamo passo a passo.
Con il termine ottimizzazione per i motori di ricerca si intendono tutte quelle attività volte a migliorare la scansione, l’indicizzazione e la catalogazione di un documento presente in un sito web, da parte dei crawler dei motori di ricerca (quali ad es. Google, Yahoo!, Bing, Yandex, Baidu ecc.) al fine di migliorare (o mantenere) il posizionamento nelle SERP (pagine di risposta alle interrogazioni degli utenti del web).
WIKIPEDIA
La SEO è una delle «discipline» che è cambiata di più negli ultimi anni. C’è stato il rollout di diversi nuovi algoritmi da parte di Google come Penguin o Panda che hanno fatto cambiare la forma di lavorare dei SEO. Si è passati da una SEO “un tanto al chilo” ad una SEO fatta per gli utenti/clienti del proprio sito, quindi a qualcosa di utile davvero.
Anche se esistono migliaia di fattori sui quali si basano i motori di ricerca per posizionare un sito internet, possiamo dire che 2 sono quelli di base: l’autorità e la rilevanza.
Sicuramente starai pensando: “Tutto ok fin qui. Ma quindi come faccio a fare SEO per il mio sito?”
Con calma! Adesso che sai cos’è la SEO, dobbiamo vedere se seguiamo quello che Google ci dice o no: Black Hat SEO o White Hat SEO
Il motivo più importante è senza dubbio che la SEO fa in modo che il tuo sito/articolo o pagina sia più utile per i tuoi clienti/lettori e per i motori di ricerca. Gli spider che i motori mandano in giro per la rete per “trovare” i cotenuti non capiscono molto bene il linguaggio umano: con la SEO li aiutiamo a farlo nel modo corretto.
Vediamo qualche esempio per farti capire di cosa parlo:
Facciamo finta di possedere un E-Commerce di libri per bambini. Immaginiamo che per il termine “disegni da colorare” ci siano 200.000 ricerche al mese in Italia. Immaginiamo poi che il primo risultato su Google prende il 25% dei clicks (cioè il CTR è del 25%). Questo sito otterrà quindi 50.000 visite al mese.
E adesso ci chiediamo: quanto valgono queste 50.000 visite? Se ad esempio la spesa media per questo termine è di 0,2€ si parla di 10.000€/mese. E questo sarebbe solo in Italia. Se il nostro sito parla anche inglese la cifra potrebbe anche essere 4/5 volte maggiore.
Di tutte queste ricerche, il 70% circa sono i clicks sui risultati organici, e un 75% degli utenti non entrano nella seconda pagina della SERP. Se fai due calcoli vedrai che essere in prima pagina (ed essere tra i primi 3) deve essere l’obiettivo della SEO.
La SEO quindi è il modo migliore per far arrivare quello che offri ai clienti che stanno cercando proprio quello.
Il funzionamento di un motore di ricerca si può (semplificando molto) riassumere in 2 passi: ricerca e indicizzazione.
Un motore di ricerca manda alguni bot (chiamati spider) su internet a cercare i contenuti. Gli spider passano da un contenuto all’altro grazie ai links (ed è per questo che è importante avere una buona struttura di linkbuilding sia interno che esterno al proprio sito). In pratica fanno la stessa cosa che farebbe un utente normale: passano da una pagina all’altra, da un contenuto all’altro, utilizzando i links.
Il processo di ricerca degli spider comincia con una lista di indirizzi da visitare (che viene da ricerche anteriori) e dai sitemap che i siti internet offrono ai motori di ricerca. Appena entrano in questi siti, i bots accedono ai links che trovano e visitano altri siti. I bots si dirigono il più delle volte verso siti nuovi o pagine che sono state modificate di recente.
Sono gli stessi bots che decidono quali siti visitare, quante volte al giorno (o alla settimana) e per quanto tempo. È per questo che è importante avere un load time ottimo ed un contenuto attuale.
In quasi tutti i siti è normale che non si voglia che alcuni contenuti o pagine vengano visitate dai bots per non farle apparire tra i risultati della SERP. Per ottenere questo scopo basta dirlo agli spider utilizzando ad esempio il file robots.txt.
Quando gli spider hanno finito di cercare, aggiungono le nuove pagine trovate (o i cambi in pagine antiche) in un indice. All’interno dell’indice queste informazioni vengono ordinate a seconda del contenuto, autorità, rilevanza, etc… In questo modo quando “chiediamo” qualcosa a Google ad esempio, sarà molto più semplice per lui restituirci i risultati in ordine (a seconda di ciò che abbiamo cercato).
Fino a qualche anno fa, i risultati dei motori di ricerca si basavano in gran parte sul numero di volte che si ripeteva il testo cercato nel testo del sito. Per questo motivo posizionare una keyword era molto facile. Oggi invece, le cose sono molto diverse: ci si basa su centinaia di aspetti differenti per restituire una determinata SERP. Alcuni sono: la data di pubblicazione, il contenuto in immagini, video ed animazioni, microformati, etc… Diciamo che la priorità ora viene data alla qualità dei contenuti.
Quando le pagine sono state ricercate e indicizzate, l’algoritmo prende il sopravvento: gli algoritmi sono i processi matematici che decidono l’ordine in cui i siti devono apparire prima delle altre nella SERP. La decisione avviene in pochi millisecondi.
Se non ti basta quello che ho scritto nell’articolo, questi siti ti possono aiutare: