SEO Audit completa – Parte 1
Trascrizione
Veniamo subito a noi, veniamo subito alla presentazione, vediamo all’argomento del giorno, ossia la parte del SEO audit, di come eseguire un’analisi SEO fondamentalmente di qualsiasi sito web. Diciamo che abbiamo inserito questa parte di qualunque sito web e di modo professionale per cercare di darvi delle informazioni, delle nozioni, degli spunti, degli strumenti, soprattutto online, soprattutto anche alcuni graduiti o eventualmente insomma che ne valga la pena fare un piccolo investimento affinché possiate analizzare qualunque sito web. Nell’analizzare qualunque sito web appunto ragioniamo sul nostro sito web ma nulla esclude l’analisi dei competitor, analisi dei competitor spesso per capire che cosa hanno fatto affinché accada qualcosa nei risultati di ricerca. Questa slide l’avete vista già da zero a SEO, è leggermente più grande rispetto a quella del maxi schermo ma non c’è nulla di nuovo quindi direi che possiamo andare oltre. Allora vorrei darvi delle indicazioni step by step di come condurre un odizio, fondamentalmente una cosa che faccio quando analizzo un sito web o comunque una persona o anche un cliente mi si avvicina approccio a me dicendomi mi guardi il sito vediamo se c’è un problema, faccio due cose fondamentalmente, la prima è fare un site due punti su google, site due punti nome sito per avere subito a colpo d’occhio la situazione, vi dico questo perché ad esempio qualche giorno fa mi è capitato di fare un site due punti per un sito web e non trovare l’home page del sito come primo risultato, questo mi è sembrato un po’ anomalo e quindi potrebbe celare qualche problemino, quindi ad esempio è un segnale da prendere in considerazione da puntarsi appunto proprio in prima battuta, poi la seconda cosa che faccio è aprire il robot txt, questo fondamentalmente mi dice due cose se è presente o se non è presente, se non è presente probabilmente non è stato curato l’aspetto serio del sito web o almeno chi lo ha gestito fino ad oggi probabilmente non è stato eccelso nel compiere le sue attività di ottimizzazione, perché dico non è stato eccelso, perché da qualche tempo è un ipotetico monteore che il motore di ricerca google ci assegna, assegna al nostro sito web o al sito web che andiamo ad analizzare, parlavamo del crowd budget quindi nel robot txt possiamo dare le indicazioni di disallow così come vedete nelle immagini, che cos’è quella indicazione di disallow? fondamentalmente indichiamo ai motori di ricerca gli spider e crawler di non scansionare quella porzione di sito web, non andando a scansionare quella porzione di sito web andiamo a diminuire le risorse che il motore di ricerca deve scansionare, andandolo a diminuire possiamo far sì che una sezione per noi più importante riceva una maggiore attenzione rispetto a una sezione non importante o probabilmente anche inutile, va comunque prestata attenzione nell’andare a creare il file robot txt perché questo potrebbe eventualmente crearci dei problemi, lo vedremo poi dopo, in la sintassi è molto semplice nel robot txt, c’è un’indicazione dello user agent, c’è le indicazioni delle path disallow e in calce c’è l’indicazione della location della sitemap, la sitemap è quel file che contiene tutte le url del sito web, come possiamo andare ad ottimizzare robot txt? perché come vediamo dell’immagine fondamentalmente è composto da poche righe, poche sezioni, ad esempio possiamo invece di indicare user agent asterisco inserire ulteriori user agent via una lista se cercate su internet di user agent che solitamente possono creare problemi, andare a consumare banda server e eventualmente a creare dei rallentamenti, con robot txt lo blocchiamo, diciamo che questo fondamentalmente è il primo step di un audit, ossia aprirne un robot txt, analizzare che cosa c’è e in futuro capire come agire, il robot txt è possibile testarlo nella search console, qui è possibile solo testarlo ma non caricarlo, dovremo andarlo a caricare attraverso un programma di file transfer protocol via ftp, il robot txt ha il vantaggio che è posizionato sempre nella root del server quindi voi potete controllare robot txt di qualunque sito web, lo strumento appunto di test robot txt è molto facile da usare, fondamentalmente una volta che siete entrati nella search console potete inserire una path di una risorsa web di una pagina di un file quello che sia e verificare se eventualmente questo risulta bloccato dalla scansione, cliccando un bottone vi apparirà eventualmente una riga rossa con scritto bloccato e vi da anche indicazioni di qual è la riga del robot txt che va a bloccare quella risorsa, questo soprattutto ad oggi che ragioniamo sulla parte di siti responsive può capitare che vengano bloccate delle cartelle necessarie affinché il sito venga visualizzato anche in maniera responsive quindi c’è un’ulteriore funzione che vi anticipo, la vedremo anche dopo, che è quella visualizza come google, patch as google, qui possiamo avere un’idea del rendering del sito web ossia come lo visualizza google e come lo visualizzano gli utenti in modo da capire se ci sono grosse differenze, non restate attenzione o comunque restatevene meno nel momento in cui ci sono delle risorse bloccate che sono su siti di terze parti, lì è normale che potrebbero essere bloccate ad esempio gli script di google, forse anche lo stesso facebook, però essendosi di terze parti e non essendo ospitati sul nostro sito web ci creano meno problemi se li vediamo bloccati eventualmente un qualcosa che può capitare è che google non sia in grado di eseguire delle scansioni determinate e urla e non per forza il problema è annidato nel robot xt ma ad esempio ci possono essere dei problemi di accesso al sito web perché il dns non riesce a comunicare con google quindi in questo caso se non avete delle competenze sistemistiche dovrete appoggiarvi a qualcuno che possa operare su questo problema, spesso dobbiamo rivolgersi all’hosting quindi dobbiamo andare ad aprire un ticket e chiedere loro di poter intervenire, ci possono essere sistemi di farrola o di protezione ma queste qui insomma sono abbastanza evidenti anche con l’utilizzo di tool di terze parti che effettuano ad esempio le performance di web, mi viene in mente gtmetrix su tutti, spesso anche loro danno questo tipo di indicazioni abbiamo parlato poco fa della sitemap che era l’ultima riga del robot xt, la sitemap come sapete tutti contiene l’esatto numero di url presenti nel sito web, un test che possiamo fare è conoscendo il numero delle url vedere che compongono il sito web quindi a livello numerico, livello informativo e questo dato ce lo può dare il cliente se conosce bene il suo sito web o altrimenti ce lo può dare uno strumento come come Screening Frog, nella parte internal basterà selezionare almeno tendina html e avremo idea di quante di quante pagine html è composto il sito ma diciamo in maniera più precisa quante pagine lo strumento è riuscito a identificare attraverso il link interno o attraverso navigando un po’ come farebbe un utente, se questi strumenti o il cliente stesso ci dà un’indicazione numerica che è diversa dall’indicazione numerica che troviamo nella sitemap probabilmente c’è qualcosa che non torna potrebbe essere un problema sul sito web ad esempio ci possono essere delle funzionalità del sito web che vanno a creare molteplici pagine ad esempio un calendario eventi che però i eventuali plugin per la rigenerazione della sitemap non interpretano le singole pagine dei giorni mesi e anni ma interpretano ad esempio l’unica pagina che contiene il calendario quindi in quel caso il problema della diversità di url sta nel un aspetto più tecnico appunto del sito web di questa funzionalità nel caso in cui non vi siano problemi tecnici ma ci sia comunque una differenza probabilmente la sitemap non è aggiornata l’aggiornamento della sitemap dovrebbe avvenire in maniera automatica ad ogni creazione di un nuovo contenuto come potete vedere in basso a destra c’è la sitemap xml di un plugin che vede il motore di ricerca mentre invece quella poco sopra è una sitemap xml classica, queste due appunto vengono generate e non sempre riportano delle date di modifica di quella risorsa quindi se c’è una differenza numerica può darsi che quella sitemap non è aggiornata da tempo e questo non è una cosa buona quella a sinistra invece è sempre una sitemap però è una sitemap html che è dedicata agli utenti gli utenti non possono mettersi a guardare l’xml o eventualmente l’xml generato da un plugin ma potranno avere una pagina che riporti in maniera ordinata e elencata per eventuali tipologie di pagina per categoria tutti i vari link ad esse associati, la sitemap per gli utenti è sicuramente utile, strumenti appunto come hotjar vi potrebbero dare delle informazioni interessanti del tipo dove è l’area di calore ossia dove il mouse si muove di più rispetto ad un’altra, laddove c’è un’area di calore maggiore spesso corrisponde un maggior numero di clic sempre per la sitemap c’è il metodo classico di sottomissione della sitemap attraverso la google search console, ulteriore metodo è pingare la sitemap, questo secondo metodo possiamo farlo nel caso in cui non abbiamo l’accesso alla search console, pingare la sitemap vuol dire darne comunque comunicazione a google dicendogli guarda caro google ho inserito la sitemap sul sito web, vieni a scansionarla perché vi sono tutte le url del mio sito web, ulteriore metodo che hanno i motori di ricerca di individuare la sitemap è quella di trovarla indicata appunto nel robot txt, vi sono delle limitazioni della sitemap di peso e di quantità di url che possono essere indicate quindi nel momento in cui vi trovate davanti a un cliente dovete capire appunto la sua struttura del sito, ipotizziamo un e-commerce che è composto da n categorie potreste valutare di suddividere la sitemap per ciascuna delle categorie, questo vi aiuterà anche nel testarle singolarmente e capire se una rispetto un’altra ha un problema di formattazione di dati e allo stesso tempo nel momento in cui avete l’indicazione di numerosità di url sottomesse e numerosità di urle indicizzate capire se vi è una differenza fisiologica o se c’è una differenza di numerica elevata, in questo secondo caso se la differenza è elevata anche qui probabilmente quell’area del sito web ha dei problemi potrebbe essere stata inserita erroneamente in noindex nel codice html potrebbe essere stata erroneamente bloccata nel robot txt, può capitare a me è capitato che un sito web in sviluppo sia andato in produzione con il robot txt con il disallow con lo slash ossia veniva bloccato l’accesso all’intero sito web, può capitare nulla di grave l’importante è accorgersi subito di questi piccoli problemi affinché la scansione fin dai primi step da parte del motore ricerca sia corretta e ne faciliti appunto la comprensione delle url o delle risorse facenti parte del sito web. Questa è la schermata che sicuramente tutti voi avrete visto nelle vostre search console dei clienti, quella appunto che vi indicavo sulle varie numerosità, in questo caso c’è l’esempio di una singola sitemap, nel caso in cui abbiamo più sitemap avremo sicuramente una sitemap index quindi sitemap underscore index.html che contiene al suo interno tutte le singole sitemap, le singole sitemap avranno le url associate sicuramente e questo ve lo ripeto e l’avrete sentito molte molte volte appunto la sitemap deve essere aggiornata nel momento in cui vengono aggiunti nuovi contenuti, bisogna fare anche attenzione che non vi siano riferimenti a contenuti che non devono essere in sitemap perché se da una parte non vogliamo che questi vengano indicizzati e poi li andiamo a sottomettere nella sitemap probabilmente il motore di ricerca ne viene a conoscenza e ne consegue che vengono indicizzati e poi eventualmente anche posizionati, per facilità di comprensione è possibile suddividerla ma questo sta un po alla vostra attenzione capire se questa suddivisione è fattibile o meno. Passiamo una parte un po più tecnica ai tempi di caricamento e quindi alla parte di performance, strumenti come il page speed insight di google, gtmetrix, pingdom e tanti altri che sono presenti sul web danno delle indicazioni interessanti, faccio un secondo una pausa che vedo Gian Battista Belloni che mi scrive una domanda, ciao Claudio qual è lo strumento migliore per la creazione della sitemap? come capita spesso la risposta è dipende ma non è una risposta paracula ma il dipende è dettato dal tipo di sito, facciamo un esempio se siamo su wordpress visto che il cms più utilizzato la creazione della sitemap può essere fatta eseguire da un plugin ioast, google xml, sitemap e altri diciamo non ce ne sono tantissimi da consigliare come plugin, questi che ho appena citato sicuramente sono i migliori e più utilizzati ma soprattutto sono quelli che vengono aggiornati costantemente anche a fronte delle nuove versioni eventualmente se il sito non è un cms e wordpress nello specifico possiamo andare a creare una sitemap attraverso screaming frog, screaming frog ha questa funzione di andare a generare una sitemap ed è anche capace di eventualmente escludere le url ad esempio che vanno in 404 quindi ci dà una sitemap pulita in caso in cui non vi è la possibilità di utilizzare screaming frog perché il sito in sviluppo è bloccato o quant’altro possono estrarre l’informazione delle totalità delle url da database ma qui non più un lavoro di programmazione quindi un qualcosa che probabilmente va demandato a un tecnico, per quanto riguarda gli elementi come priorità o change freq diciamo che quelli sono opzionali non vi è un obbligo a inserirli quindi va valutato se andarli poi a popolare manualmente ma dipende dalla dimensione, poi leggo che mi dice con screaming frog devo aggiornarla manualmente? beh sì se tu crei il file in maniera statica è normale che se un domani vai ad aggiungere anche un solo contenuto questo non sarà presente nel file statico dovrai aprirlo e inserirlo nuovamente manualmente diciamo a quel punto se è un solo contenuto non starei lì a rifare una scansione completa ma lo inserirei manualmente aprendo il file con un qualsiasi editor di testo, ritorniamo al tempo di caricamento abbiamo detto che gli strumenti principi su questo tema sono PageSpeed Insight che è proprio lo strumento di google, un altro è gtmetrix, immagino molti di voi l’abbiano già sentito, che mette in comparazione sia i dati di google che di IAU anche se il tab di IAU viene visto meno rispetto a quello di google vi consiglio comunque nel momento in cui fate questo tipo di analisi di andare a dare uno sguardo perché ci possono essere delle indicazioni abbastanza utili, viene da sé che i tempi di caricamento di un sito web più sono veloci e più l’utente avrà in primis un’esperienza migliore e probabilmente sarà anche più propenso a una maggiore navigazione del sito web quindi in questo caso avremo le vanity metrics di pageview o di bounce rate migliori e comunque nel navigare più pagine l’utente potrà essere attratto da elementi in pagina quali banner o link e in questo modo portarlo a fare la conversione finale che può essere l’acquisto o la compilazione di un forma di contatto