Fasi di base del processo di analisi Web

La maggior parte dei processi di analisi Web si riduce a quattro fasi o passaggi essenziali, che sono:

  • Raccolta dei dati: questa fase è la raccolta dei dati di base, elementari. Di solito, questi dati sono conteggi di cose. L’obiettivo di questa fase è quello di raccogliere i dati.
  • Elaborazione dei dati in informazioni: questa fase di solito prende conteggi e li rende rapporti, anche se ci possono ancora essere alcuni conteggi., L’obiettivo di questa fase è prendere i dati e conformarli in informazioni, in particolare metriche.
  • Sviluppare KPI: Questa fase si concentra sull’utilizzo dei rapporti (e dei conteggi) e sull’infusione di strategie di business, denominate Key Performance Indicators (KPI). Molte volte, i KPI si occupano di aspetti di conversione, ma non sempre. Dipende dall’organizzazione.
  • Formulazione della strategia online: questa fase riguarda gli obiettivi, gli obiettivi e gli standard online per l’organizzazione o l’azienda., Queste strategie sono solitamente legate a fare soldi, risparmiare denaro o aumentare la quota di mercato.

Un’altra funzione essenziale sviluppata dagli analisti per l’ottimizzazione dei siti web sono gli esperimenti

  • Esperimenti e test: A / B testing è un esperimento controllato con due varianti, in impostazioni online, come lo sviluppo web.

L’obiettivo di A/B testing è quello di identificare e suggerire modifiche alle pagine web che aumentano o massimizzano l’effetto di un risultato statisticamente testato di interesse.

Ogni fase ha un impatto o può avere un impatto (es.,, azionamenti) lo stadio che lo precede o lo segue. Quindi, a volte i dati disponibili per la raccolta influenzano la strategia online. Altre volte, la strategia online influisce sui dati raccolti.

Tecnologie di analisi webmodifica

Esistono almeno due categorie di analisi Web, analisi Web off-site e on-site.

  • L’analisi web off-site si riferisce alla misurazione e all’analisi Web indipendentemente dal fatto che una persona possieda o mantenga un sito web., Esso comprende la misurazione del pubblico potenziale di un sito web (opportunità), quota di voce (visibilità), e buzz (commenti) che sta accadendo su Internet nel suo complesso.
  • L’analisi web sul sito, la più comune delle due, misura il comportamento di un visitatore una volta su un sito web specifico. Ciò include i driver e le conversioni; ad esempio, il grado in cui le diverse pagine di destinazione sono associate agli acquisti online. L’analisi web sul sito misura le prestazioni di un sito Web specifico in un contesto commerciale., Questi dati vengono in genere confrontati con indicatori di performance chiave per le prestazioni e vengono utilizzati per migliorare la risposta del pubblico di un sito Web o di una campagna di marketing. Google Analytics e Adobe Analytics sono il servizio di analisi Web in loco più utilizzato; anche se stanno emergendo nuovi strumenti che forniscono ulteriori livelli di informazioni, tra cui mappe termiche e replay della sessione.

Storicamente, l’analisi web è stata utilizzata per fare riferimento alla misurazione dei visitatori in loco. Tuttavia, questo significato è diventato offuscata, soprattutto perché i fornitori stanno producendo strumenti che si estendono su entrambe le categorie., Molti fornitori diversi forniscono software e servizi di analisi web in loco. Esistono due modi tecnici principali per raccogliere i dati. Il primo e tradizionale metodo, server log file analysis, legge i file di log in cui il server Web registra le richieste di file da parte dei browser. Il secondo metodo, il tagging della pagina, utilizza JavaScript incorporato nella pagina Web per effettuare richieste di immagini a un server dedicato all’analisi di terze parti, ogni volta che una pagina Web viene visualizzata da un browser Web o, se lo si desidera, quando si verifica un clic del mouse. Entrambi raccolgono dati che possono essere elaborati per produrre report sul traffico web.,

Fonti di dati di web analytics

L’obiettivo fondamentale dell’analisi web è raccogliere e analizzare i dati relativi al traffico web e ai modelli di utilizzo. I dati provengono principalmente da quattro fonti:

  1. Direct HTTP request data: proviene direttamente dai messaggi di richiesta HTTP (intestazioni di richiesta HTTP).
  2. Livello di rete e dati generati dal server associati alle richieste HTTP: non fanno parte di una richiesta HTTP, ma sono necessari per le trasmissioni di richieste riuscite, ad esempio l’indirizzo IP di un richiedente.,
  3. Dati a livello di applicazione inviati con richieste HTTP: generati ed elaborati da programmi a livello di applicazione (come JavaScript, PHP e ASP.Net), incluse sessioni e rinvii. Questi sono di solito catturati dai log interni piuttosto che dai servizi di analisi Web pubblici.
  4. Dati esterni: possono essere combinati con i dati sul sito per aiutare ad aumentare i dati sul comportamento del sito web sopra descritti e interpretare l’utilizzo del web., Ad esempio, gli indirizzi IP sono solitamente associati a regioni geografiche e fornitori di servizi Internet, tariffe di apertura e click-through per e-mail, dati delle campagne di direct mail, cronologia vendite e lead o altri tipi di dati secondo necessità.

Analisi dei file di log del server webmodifica

I server Web registrano alcune delle loro transazioni in un file di log. Si è presto capito che questi file di log potrebbero essere letti da un programma per fornire dati sulla popolarità del sito web. Così è sorto web log software di analisi.,

Nei primi anni 1990, le statistiche dei siti web consistevano principalmente nel contare il numero di richieste (o hit) dei client fatte al server web. Questo era inizialmente un metodo ragionevole, poiché ogni sito Web spesso consisteva in un singolo file HTML. Tuttavia, con l’introduzione di immagini in HTML e siti Web che si estendevano su più file HTML, questo conteggio è diventato meno utile. Il primo vero analizzatore di log commerciale è stato rilasciato da IPRO nel 1994.

Due unità di misura sono state introdotte a metà degli anni 1990 per misurare con maggiore precisione la quantità di attività umana sui server web., Queste erano pagine viste e visite (o sessioni). Una vista pagina è stata definita come una richiesta fatta al server Web per una pagina, al contrario di un grafico, mentre una visita è stata definita come una sequenza di richieste da un client identificato in modo univoco che scadeva dopo una certa quantità di inattività, in genere 30 minuti.

L’emergere di spider e robot dei motori di ricerca alla fine degli anni 1990, insieme a proxy web e indirizzi IP assegnati dinamicamente per grandi aziende e ISP, ha reso più difficile identificare i visitatori umani unici di un sito web., Gli analizzatori di log hanno risposto monitorando le visite tramite i cookie e ignorando le richieste degli spider noti.

L’ampio uso di cache web ha anche presentato un problema per l’analisi dei file di registro. Se una persona rivisita una pagina, la seconda richiesta verrà spesso recuperata dalla cache del browser e quindi nessuna richiesta verrà ricevuta dal server Web. Ciò significa che il percorso della persona attraverso il sito è perso. Il caching può essere sconfitto configurando il server Web, ma ciò può comportare prestazioni degradate per il visitatore e un carico maggiore sui server.,

Page taggingEdit

Le preoccupazioni per l’accuratezza dell’analisi dei file di log in presenza di caching e il desiderio di essere in grado di eseguire l’analisi Web come servizio in outsourcing, hanno portato al secondo metodo di raccolta dati, il tagging delle pagine o “Web bug”.

A metà degli anni 1990, i contatori Web erano comunemente visti-queste erano immagini incluse in una pagina Web che mostrava il numero di volte in cui l’immagine era stata richiesta, che era una stima del numero di visite a quella pagina., Alla fine degli anni 1990, questo concetto si è evoluto per includere una piccola immagine invisibile invece di una visibile e, usando JavaScript, per passare insieme all’immagine richiedere determinate informazioni sulla pagina e sul visitatore. Queste informazioni possono quindi essere elaborate in remoto da una società di analisi Web e generate statistiche estese.

Il servizio di web analytics gestisce anche il processo di assegnazione di un cookie all’utente, che può identificarlo in modo univoco durante la visita e nelle visite successive., I tassi di accettazione dei cookie variano in modo significativo tra i siti Web e possono influire sulla qualità dei dati raccolti e segnalati.

La raccolta dei dati del sito Web utilizzando un server di raccolta dati di terze parti (o anche un server di raccolta dati interno) richiede un’ulteriore ricerca DNS da parte del computer dell’utente per determinare l’indirizzo IP del server di raccolta. A volte, i ritardi nel completamento di una ricerca DNS riuscita o non riuscita possono comportare la mancata raccolta dei dati.,

Con la crescente popolarità delle soluzioni basate su Ajax, un’alternativa all’uso di un’immagine invisibile consiste nell’implementare una chiamata al server dalla pagina renderizzata. In questo caso, quando la pagina viene visualizzata sul browser Web, un pezzo di codice Ajax richiamerebbe al server e passerebbe informazioni sul client che possono quindi essere aggregate da una società di analisi Web. Questo è in qualche modo viziata da restrizioni del browser sui server che possono essere contattati con oggetti XMLHttpRequest., Inoltre, questo metodo può portare a livelli di traffico segnalati leggermente inferiori, poiché il visitatore può interrompere il caricamento della pagina a metà risposta prima che venga effettuata la chiamata Ajax.

Logfile analysis vs page taggingEdit

Entrambi i programmi di analisi dei file di log e le soluzioni di tagging delle pagine sono prontamente disponibili per le aziende che desiderano eseguire analisi web. In alcuni casi, la stessa società di analisi web offrirà entrambi gli approcci. Sorge quindi la domanda su quale metodo un’azienda dovrebbe scegliere. Ci sono vantaggi e svantaggi per ogni approccio.,

Vantaggi dell’analisi dei file di logmodifica

I principali vantaggi dell’analisi dei file di log rispetto al tagging delle pagine sono i seguenti:

  • Il server web normalmente produce già file di log, quindi i dati grezzi sono già disponibili. Non sono necessarie modifiche al sito web.
  • I dati si trovano sui server della società ed è in un formato standard, piuttosto che proprietario. Questo rende facile per una società di passare programmi in seguito, utilizzare diversi programmi diversi, e analizzare i dati storici con un nuovo programma.,
  • I file di log contengono informazioni sulle visite dagli spider dei motori di ricerca, che generalmente sono esclusi dagli strumenti di analisi che utilizzano il tagging JavaScript. (Alcuni motori di ricerca potrebbero anche non eseguire JavaScript su una pagina. Anche se questi non dovrebbero essere segnalati come parte dell’attività umana, è informazioni utili per l’ottimizzazione dei motori di ricerca.
  • I file di log non richiedono ulteriori ricerche DNS o avvio lento TCP. Pertanto non ci sono chiamate server esterne che possono rallentare la velocità di caricamento della pagina o generare visualizzazioni di pagina non conteggiate.
  • Il server web registra in modo affidabile ogni transazione che fa, e.,g. servire documenti PDF e contenuti generati da script, e non si basa sul browser dei visitatori cooperano.

Vantaggi di page taggingEdit

I principali vantaggi del tagging delle pagine rispetto all’analisi dei file di log sono i seguenti:

  • Il conteggio viene attivato aprendo la pagina (dato che il client web esegue gli script dei tag), non richiedendola dal server. Se una pagina viene memorizzata nella cache, non verrà conteggiata dall’analisi dei log basata sul server. Le pagine memorizzate nella cache possono rappresentare fino a un terzo di tutte le visualizzazioni di pagina, il che può influire negativamente su molte metriche del sito.,
  • I dati vengono raccolti tramite un componente (“tag”) nella pagina, di solito scritto in JavaScript, anche se Java o Flash possono essere utilizzati. Ajax può anche essere utilizzato in combinazione con un linguaggio di scripting lato server (come PHP) per manipolare e (di solito) memorizzarlo in un database, in pratica consentendo il controllo completo su come i dati sono rappresentati.
  • Lo script può avere accesso a informazioni aggiuntive sul client web o sull’utente, non inviate nella query, come le dimensioni dello schermo dei visitatori e il prezzo dei beni acquistati.,
  • Il tagging delle pagine può segnalare eventi che non comportano una richiesta al server Web, come interazioni all’interno di filmati Flash, completamento parziale del modulo, eventi del mouse come onClick, onMouseOver, onFocus, onBlur ecc.
  • Il servizio di tagging delle pagine gestisce il processo di assegnazione dei cookie ai visitatori; con l’analisi dei file di log, il server deve essere configurato per farlo.
  • Il tagging delle pagine è disponibile per le aziende che non hanno accesso ai propri server web.
  • Ultimamente, il tagging delle pagine è diventato uno standard nell’analisi web.,

Fattori economicimodifica

L’analisi dei file di log viene quasi sempre eseguita internamente. Il tagging della pagina può essere eseguito internamente, ma è più spesso fornito come servizio di terze parti. La differenza economica tra questi due modelli può anche essere una considerazione per un’azienda che decide quale acquistare.

  • L’analisi dei file di log in genere comporta un acquisto di software una tantum; tuttavia, alcuni fornitori stanno introducendo pagine viste annuali massime con costi aggiuntivi per elaborare informazioni aggiuntive., Oltre alle offerte commerciali, sono disponibili gratuitamente diversi strumenti di analisi dei file di log open source.
  • Per l’analisi dei file di log i dati devono essere memorizzati e archiviati, il che spesso aumenta rapidamente. Anche se il costo dell’hardware per fare questo è minimo, il sovraccarico per un reparto IT può essere considerevole.
  • Per software di analisi dei file di log devono essere mantenuti, compresi gli aggiornamenti e le patch di sicurezza.
  • Pagina complessa tagging fornitori addebitare un canone mensile in base al volume cioè il numero di pagine viste al mese raccolti.,

Quale soluzione è più economica da implementare dipende dalla quantità di competenze tecniche all’interno dell’azienda, dal fornitore scelto, dalla quantità di attività viste sui siti Web, dalla profondità e dal tipo di informazioni richieste e dal numero di siti Web distinti che necessitano di statistiche.

Indipendentemente dalla soluzione del fornitore o dal metodo di raccolta dei dati utilizzato, è necessario includere anche il costo dell’analisi e dell’interpretazione dei visitatori web. Cioè, il costo di trasformare i dati grezzi in informazioni fruibili., Questo può derivare dall’uso di consulenti di terze parti, dall’assunzione di un analista web esperto o dalla formazione di una persona interna adatta. È quindi possibile eseguire un’analisi costi-benefici. Ad esempio, quale aumento delle entrate o risparmio sui costi può essere ottenuto analizzando i dati dei visitatori web?

Metodi ibridimodifica

Alcune aziende producono soluzioni che raccolgono dati tramite file di log e tag di pagina e possono analizzare entrambi i tipi. Utilizzando un metodo ibrido, mirano a produrre statistiche più accurate di entrambi i metodi da soli., Una prima soluzione ibrida è stata prodotta nel 1998 da Rufus Evison.

Geolocalizzazione dei visitatorimodifica

Con la geolocalizzazione IP, è possibile tracciare le posizioni dei visitatori. Utilizzando il database di geolocalizzazione IP o API, i visitatori possono essere geolocalizzati a livello di città, regione o paese.

IP Intelligence, o Internet Protocol (IP) Intelligence, è una tecnologia che mappa Internet e categorizza gli indirizzi IP in base a parametri quali posizione geografica (paese, regione, stato, città e codice postale), tipo di connessione, provider di servizi Internet (ISP), informazioni proxy e altro ancora., La prima generazione di intelligenza IP è stata denominata geotargeting o tecnologia di geolocalizzazione. Queste informazioni vengono utilizzate dalle aziende per la segmentazione del pubblico online in applicazioni quali pubblicità online, targeting comportamentale, localizzazione di contenuti (o localizzazione di siti Web), gestione dei diritti digitali, personalizzazione, rilevamento di frodi online, ricerca localizzata, analisi avanzate, gestione del traffico globale e distribuzione di contenuti.,

Click analyticsEdit

Clickpath Analysis with referring pages on the left and arrows and rectangles different in thickness and expanse to symbolize movement quantity.

Click analytics è un tipo speciale di analisi web che presta particolare attenzione ai clic.

Comunemente, fare clic su analytics si concentra su analisi in loco. Un editor di un sito web utilizza click analytics per determinare le prestazioni del suo particolare sito, per quanto riguarda dove gli utenti del sito stanno facendo clic.,

Inoltre, fare clic su analytics può accadere in tempo reale o in tempo “irreale”, a seconda del tipo di informazioni ricercate. In genere, gli editor di prima pagina su siti di media di notizie ad alto traffico vorranno monitorare le loro pagine in tempo reale, per ottimizzare il contenuto. Editori, designer o altri tipi di stakeholder possono analizzare i clic su un arco di tempo più ampio per aiutarli a valutare le prestazioni di scrittori, elementi di design o pubblicità ecc.

I dati sui clic possono essere raccolti in almeno due modi., Idealmente, un clic viene “registrato” quando si verifica e questo metodo richiede alcune funzionalità che raccolgono informazioni rilevanti quando si verifica l’evento. In alternativa, si può ipotizzare che una visualizzazione di pagina sia il risultato di un clic e quindi registrare un clic simulato che ha portato a quella visualizzazione di pagina.

Customer lifecycle analyticsEdit

Customer lifecycle analytics è un approccio alla misurazione incentrato sui visitatori che rientra nell’ambito del lifecycle marketing. Visualizzazioni di pagina, clic e altri eventi (come chiamate API, accesso a servizi di terze parti, ecc.,) sono tutti legati a un singolo visitatore invece di essere memorizzati come punti dati separati. Analisi del ciclo di vita del cliente tenta di collegare tutti i punti dati in un imbuto di marketing in grado di offrire approfondimenti sul comportamento dei visitatori e l’ottimizzazione del sito web.

Altri metodimodifica

A volte vengono utilizzati altri metodi di raccolta dei dati. Packet sniffing raccoglie i dati sniffando il traffico di rete che passa tra il server Web e il mondo esterno. Lo sniffing dei pacchetti non comporta modifiche alle pagine Web o ai server Web., È anche possibile integrare l’analisi Web nel software del server Web stesso. Entrambi questi metodi affermano di fornire dati in tempo reale migliori rispetto ad altri metodi.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *