Pași de Bază de Web Analytics

cele Mai multe web analytics procese veni în jos pentru patru etape esențiale sau etape, care sunt:

  • Colectarea de date: Această etapă este colecția de bază, elementare de date. De obicei, aceste date sunt numărătoare de lucruri. Obiectivul acestei etape este colectarea datelor.
  • prelucrarea datelor în Informații: Această etapă, de obicei, ia contează și să le facă raporturi, deși încă mai pot exista unele contează., Obiectivul acestei etape este de a lua datele și de a le adapta la informații, în special la valori.
  • dezvoltarea KPI: această etapă se concentrează pe utilizarea rapoartelor (și a numărului) și infuzarea acestora cu strategii de afaceri, denumite indicatori cheie de performanță (KPI). De multe ori, KPI-urile se ocupă de aspecte de conversie, dar nu întotdeauna. Depinde de organizație.
  • Formularea strategiei online: această etapă se referă la obiectivele, obiectivele și standardele online pentru organizație sau afacere., Aceste strategii sunt de obicei legate de a face bani, economisirea de bani, sau creșterea marketshare.o altă funcție esențială dezvoltată de analiști pentru optimizarea site-urilor web sunt experimentele și testările: testarea A/B este un experiment controlat cu două variante, în Setări online, cum ar fi dezvoltarea web.scopul testării A / B este de a identifica și sugera modificări ale paginilor web care măresc sau maximizează efectul unui rezultat de interes testat statistic.

    fiecare etapă are impact sau poate avea impact (adică.,, conduce) etapa anterioară sau următoare. Deci, uneori, datele disponibile pentru colectare au un impact asupra strategiei online. Alteori, strategia online afectează datele colectate.

    tehnologii de analiză Webedit

    există cel puțin două categorii de analiză web, analiză web în afara site-ului și pe site.analiza web în afara site-ului se referă la măsurarea și analiza web, indiferent dacă o persoană deține sau întreține un site web., Acesta include măsurarea audienței potențiale a unui site web (oportunitate), cota de voce (vizibilitate) și buzz (comentarii) care se întâmplă pe Internet în ansamblu.

  • analiza web a site-ului, cea mai frecventă dintre cele două, măsoară comportamentul unui vizitator o dată pe un anumit site web. Aceasta include driverele și conversiile sale; de exemplu, gradul în care diferite pagini de destinație sunt asociate cu achizițiile online. Analiza web la fața locului măsoară performanța unui anumit site web într-un context comercial., Aceste date sunt de obicei comparate cu indicatorii cheie de performanță pentru performanță și sunt utilizate pentru a îmbunătăți răspunsul publicului unui site web sau al unei campanii de marketing. Google Analytics și Adobe Analytics sunt cele mai utilizate servicii de analiză web la fața locului; deși apar noi instrumente care oferă straturi suplimentare de informații, inclusiv hărți termice și reluări de sesiuni.din punct de vedere istoric, analiza web a fost utilizată pentru a se referi la măsurarea vizitatorilor la fața locului. Cu toate acestea, acest sens a devenit neclar, în principal pentru că vânzătorii produc instrumente care acoperă ambele categorii., Mulți furnizori diferiți furnizează software și servicii de analiză web la fața locului. Există două modalități tehnice principale de colectare a datelor. Prima și metoda tradițională, server log file analysis, citește fișierele de jurnal în care serverul web înregistrează cererile de fișiere de către browsere. A doua metodă, etichetarea paginii, folosește JavaScript încorporat în pagina web pentru a face solicitări de imagine către un server dedicat analizei terțe, ori de câte ori o pagină web este redată de un browser web sau, dacă se dorește, când are loc un clic de mouse. Ambele colectează date care pot fi procesate pentru a produce rapoarte de trafic web.,

    surse de date pentru analiza Webedit

    scopul fundamental al analizei web este de a colecta și analiza date legate de traficul web și modelele de utilizare. Datele provin în principal din patru surse:

    1. direct HTTP request data: provine direct din mesajele de solicitare HTTP (anteturile de solicitare HTTP).
    2. nivelul rețelei și datele generate de server asociate solicitărilor HTTP: nu fac parte dintr – o solicitare HTTP, dar sunt necesare pentru transmiterea cu succes a solicitărilor-de exemplu, adresa IP a unui solicitant.,
    3. date la nivel de aplicație trimise cu solicitări HTTP: generate și procesate de programe la nivel de aplicație (cum ar fi JavaScript, PHP și ASP.Net), inclusiv sesiuni și recomandări. Acestea sunt de obicei capturate de jurnalele interne, mai degrabă decât de serviciile publice de analiză web.
    4. date externe: pot fi combinate cu date la fața locului pentru a ajuta la mărirea datelor privind comportamentul site-ului web descrise mai sus și pentru a interpreta utilizarea web-ului., De exemplu, adresele IP sunt de obicei asociate cu regiunile geografice și furnizorii de servicii de internet, ratele de deschidere și clic prin e-mail, datele campaniei de poștă directă, istoricul vânzărilor și lead-urilor sau alte tipuri de date, după cum este necesar.

    analiza fișierului jurnal al serverului Webedit

    serverele Web înregistrează unele dintre tranzacțiile lor într-un fișier jurnal. În curând s-a realizat că aceste fișiere jurnal ar putea fi citite de un program pentru a furniza date despre popularitatea site-ului web. Astfel a apărut software-ul de analiză jurnal web.,la începutul anilor 1990, statisticile site-ului au constat în principal în numărarea numărului de solicitări (sau accesări) ale clienților către serverul web. Aceasta a fost o metodă rezonabilă inițial, deoarece fiecare site web a constat adesea dintr-un singur fișier HTML. Cu toate acestea, odată cu introducerea imaginilor în HTML și a site-urilor web care cuprindeau mai multe fișiere HTML, acest număr a devenit mai puțin util. Primul true commercial Log Analyzer a fost lansat de IPRO în 1994.două unități de măsură au fost introduse la mijlocul anilor 1990 pentru a evalua mai exact cantitatea de activitate umană pe serverele web., Acestea au fost vizualizări de pagină și vizite (sau sesiuni). O vizualizare a paginii a fost definită ca o solicitare făcută serverului web pentru o pagină, spre deosebire de o grafică, în timp ce o vizită a fost definită ca o secvență de solicitări de la un client identificat în mod unic care a expirat după o anumită cantitate de inactivitate, de obicei 30 de minute.apariția păianjenilor și roboților motoarelor de căutare la sfârșitul anilor 1990, împreună cu proxy-urile web și adresele IP atribuite dinamic pentru companii mari și ISP-uri, au făcut mai dificilă identificarea vizitatorilor umani unici pe un site web., Analizoarele de jurnal au răspuns prin urmărirea vizitelor prin cookie-uri și prin ignorarea cererilor de la păianjeni cunoscuți.utilizarea extensivă a cache-urilor web a prezentat, de asemenea, o problemă pentru analiza fișierelor jurnal. Dacă o persoană revizitează o pagină, a doua solicitare va fi adesea preluată din memoria cache a browserului și astfel nu va fi primită nicio solicitare de către serverul web. Aceasta înseamnă că calea persoanei prin site este pierdută. Cache-ul poate fi învins prin configurarea serverului web, dar acest lucru poate duce la performanțe degradate pentru vizitator și încărcare mai mare pe servere.,preocupările legate de acuratețea analizei fișierelor jurnal în prezența cache-ului și dorința de a putea efectua analize web ca serviciu externalizat au dus la a doua metodă de colectare a datelor, etichetarea paginilor sau „bug-uri Web”.

    la mijlocul anilor 1990, contoare Web au fost frecvent observate — acestea au fost imagini incluse într-o pagină web care a arătat numărul de ori imaginea a fost solicitată, care a fost o estimare a numărului de vizite la acea pagină., La sfârșitul anilor 1990, acest concept a evoluat pentru a include o mică imagine invizibilă în loc de una vizibilă și, folosind JavaScript, pentru a transmite împreună cu imaginea solicitarea anumitor informații despre pagină și vizitator. Aceste informații pot fi apoi prelucrate de la distanță de către o companie de analiză web și statistici extinse generate.serviciul de analiză web gestionează, de asemenea, procesul de atribuire a unui cookie utilizatorului, care îl poate identifica în mod unic în timpul vizitei și în vizitele ulterioare., Ratele de acceptare a Cookie-urilor variază semnificativ de la un site la altul și pot afecta calitatea datelor colectate și raportate.

    colectarea datelor site-ului web folosind un server terț de colectare a datelor (sau chiar un server intern de colectare a datelor) necesită o căutare DNS suplimentară de către computerul utilizatorului pentru a determina adresa IP a serverului de colectare. Ocazional, întârzierile în finalizarea unei căutări DNS reușite sau eșuate pot duce la colectarea datelor.,odată cu popularitatea crescândă a soluțiilor bazate pe Ajax, o alternativă la utilizarea unei imagini invizibile este implementarea unui apel înapoi la server din pagina randată. În acest caz, atunci când pagina este redată în browserul web, o bucată de cod Ajax ar suna înapoi la server și ar transmite informații despre client care pot fi apoi agregate de o companie de analiză web. Acest lucru este în unele moduri eronate de browser restricții pe serverele care pot fi contactate cu obiecte XmlHttpRequest., De asemenea, această metodă poate duce la niveluri de trafic raportate ușor mai scăzute, deoarece vizitatorul poate opri încărcarea paginii în mijlocul răspunsului înainte de efectuarea apelului Ajax.

    Logfile analiza vs pagina taggingEdit

    Ambele logfile programe de analiză și pagina de marcare soluții sunt disponibile pentru companiile care doresc să efectueze web analytics. În unele cazuri, aceeași companie de analiză web va oferi ambele abordări. Se pune apoi întrebarea ce metodă ar trebui să aleagă o companie. Există avantaje și dezavantaje pentru fiecare abordare.,avantajele analizei fișierelor jurnaledit

    principalele avantaje ale analizei fișierelor jurnal față de etichetarea paginilor sunt următoarele:

    • serverul web produce deja fișiere jurnal, astfel încât datele brute sunt deja disponibile. Nu sunt necesare modificări ale site-ului web.
    • datele sunt pe serverele proprii ale companiei și sunt într-un format standard, mai degrabă decât într-un format proprietar. Acest lucru face ușor pentru o companie să schimbe programele mai târziu, să utilizeze mai multe programe diferite și să analizeze datele istorice cu un nou program.,
    • fișierele jurnal conțin informații despre vizitele de la Spider-urile motoarelor de căutare, care în general sunt excluse din instrumentele de analiză folosind etichetarea JavaScript. (Unele motoare de căutare s-ar putea să nu execute nici măcar JavaScript pe o pagină.) Deși acestea nu ar trebui raportate ca parte a activității umane, sunt informații utile pentru optimizarea motorului de căutare.
    • Logfiles nu necesită căutări DNS suplimentare sau TCP începe lent. Astfel, nu există apeluri de server extern care pot încetini viteza de încărcare a paginii sau pot duce la vizualizări de pagină necontate.
    • serverul web înregistrează în mod fiabil fiecare tranzacție pe care o face, e.,g. difuzarea documentelor PDF și a conținutului generat de scripturi și nu se bazează pe browserele vizitatorilor care cooperează.principalele avantaje ale etichetării paginilor față de analiza fișierului jurnal sunt următoarele:

      • Numărarea este activată prin deschiderea paginii (având în vedere că clientul web rulează scripturile de etichete), fără a o solicita de la server. Dacă o pagină este stocată în cache, aceasta nu va fi luată în considerare prin analiza jurnalului bazată pe server. Paginile memorate în cache pot reprezenta până la o treime din toate vizualizările de pagini, ceea ce poate avea un impact negativ asupra multor valori ale site-ului.,
      • datele sunt colectate printr-o componentă („tag”) din pagină, de obicei scrisă în JavaScript, deși Java sau Flash pot fi de asemenea utilizate. Ajax poate fi, de asemenea, utilizat împreună cu un limbaj de scripting server-side (cum ar fi PHP) pentru a manipula și (de obicei) stoca într-o bază de date, practic permițând un control complet asupra modului în care datele sunt reprezentate.
      • scriptul poate avea acces la informații suplimentare despre clientul web sau utilizator, care nu sunt trimise în interogare, cum ar fi dimensiunile ecranului vizitatorilor și prețul bunurilor achiziționate.,
      • Pagina de marcare se poate raporta la evenimente care nu implică o cerere la serverul web, cum ar fi interacțiunile în filme Flash, parțială forma de finalizare, mouse-ul evenimente, cum ar fi onClick, onMouseOver, onFocus, onBlur etc.
      • serviciul de etichetare pagină gestionează procesul de atribuire a cookie-urilor vizitatorilor; cu analiza fișierelor jurnal, serverul trebuie să fie configurat pentru a face acest lucru.
      • etichetarea paginilor este disponibilă companiilor care nu au acces la propriile servere web.
      • în ultima vreme, etichetarea paginilor a devenit un standard în analiza web.,

      factori Economiciedit

      analiza Logfile este aproape întotdeauna efectuată in-house. Etichetarea paginilor poate fi efectuată intern, dar este mai des furnizată ca un serviciu terț. Diferența economică dintre aceste două modele poate fi, de asemenea, o considerație pentru o companie care decide care să cumpere.analiza Logfile implică de obicei o achiziție de software unică; cu toate acestea, unii furnizori introduc vizualizări anuale maxime de pagină cu costuri suplimentare pentru a procesa informații suplimentare., În plus față de ofertele comerciale, mai multe instrumente de analiză logfile open-source sunt disponibile gratuit.

    • pentru datele de analiză Logfile trebuie să fie stocate și arhivate, care de multe ori crește mare rapid. Deși costul hardware-ului pentru a face acest lucru este minim, cheltuielile generale pentru un departament IT pot fi considerabile.
    • pentru software-ul de analiză Logfile trebuie să fie menținute, inclusiv actualizări și patch-uri de securitate.
    • vânzătorii de etichetare complexă a paginilor percep o taxă lunară în funcție de volum, adică numărul de vizualizări de pagină pe lună colectate.,

    ce soluție este mai ieftină de implementat depinde de cantitatea de expertiză tehnică din cadrul companiei, vânzătorul ales, cantitatea de activitate văzută pe site-urile web, profunzimea și tipul de informații căutate și numărul de site-uri web distincte care necesită statistici.indiferent de soluția furnizorului sau de metoda de colectare a datelor utilizată, costul analizei și interpretării vizitatorilor web ar trebui, de asemenea, să fie inclus. Adică costul transformării datelor brute în informații acționabile., Acest lucru poate fi din utilizarea consultanților terți, angajarea unui analist web cu experiență sau instruirea unei persoane adecvate în interior. O analiză cost-beneficiu poate fi apoi efectuată. De exemplu, ce creștere a veniturilor sau economii de costuri pot fi obținute prin analizarea datelor vizitatorilor web?unele companii produc soluții care colectează date atât prin fișierele jurnal, cât și prin etichetarea paginilor și pot analiza ambele tipuri. Prin utilizarea unei metode hibride, acestea urmăresc să producă statistici mai precise decât oricare dintre metode pe cont propriu., O soluție hibridă timpurie a fost produsă în 1998 de Rufus Evison.

    geolocalizarea vizitatoriloredit

    cu geolocalizarea IP, este posibilă urmărirea locațiilor vizitatorilor. Folosind baza de date IP geolocation sau API, vizitatorii pot fi geolocalizați la nivel de oraș, regiune sau țară.

    inteligența IP sau inteligența protocolului Internet (IP) este o tehnologie care mapează Internetul și clasifică adresele IP după parametri precum locația geografică (țară, regiune, stat, oraș și cod poștal), tipul conexiunii, furnizorul de servicii Internet (ISP), informații proxy și multe altele., Prima generație de informații IP a fost denumită tehnologie de geotargeting sau geolocalizare. Aceste informații sunt utilizate de companii pentru segmentarea audienței online în aplicații precum publicitatea online, direcționarea comportamentală, localizarea conținutului (sau localizarea site-urilor web), Gestionarea drepturilor digitale, personalizarea, detectarea fraudei online, căutarea localizată, analiza îmbunătățită, Gestionarea globală a traficului și distribuția conținutului.,

    Click analyticsEdit

    Clickpath Analize cu trimitere de pagini pe stânga și săgeți, dreptunghiuri diferite în grosime și întindere pentru a simboliza mișcarea cantitate.Click analytics este un tip special de analiză web care acordă o atenție deosebită clicurilor.în mod obișnuit, click analytics se concentrează pe analiza la fața locului. Un editor al unui site web utilizează analiza clicurilor pentru a determina performanța site-ului său special, în ceea ce privește locul în care utilizatorii site-ului fac clic.,de asemenea, click analytics se poate întâmpla în timp real sau „ireal”-timp, în funcție de tipul de informații căutate. De obicei, editorii de pe prima pagină de pe site-urile de știri cu trafic ridicat vor dori să-și monitorizeze paginile în timp real, pentru a optimiza conținutul. Editorii, designerii sau alte tipuri de părți interesate pot analiza clicurile pe un interval de timp mai larg pentru a-i ajuta să evalueze performanța Scriitorilor, a elementelor de design sau a reclamelor etc.datele despre clicuri pot fi colectate în cel puțin două moduri., În mod ideal, un clic este „înregistrat” atunci când apare, iar această metodă necesită o anumită funcționalitate care preia informații relevante atunci când are loc evenimentul. În mod alternativ, se poate institui presupunerea că o vizualizare a paginii este rezultatul unui clic și, prin urmare, înregistrați un clic simulat care a dus la acea vizualizare a paginii.

    Customer lifecycle analyticsEdit

    Customer lifecycle analytics este o abordare centrată pe vizitatori a măsurării care se încadrează în umbrela marketingului ciclului de viață. Vizualizări de pagini, clicuri și alte evenimente (cum ar fi apeluri API, acces la servicii terțe etc.,) sunt toate legate de un vizitator individual în loc să fie stocate ca puncte de date separate. Analiza ciclului de viață al clienților încearcă să conecteze toate punctele de date într-un canal de marketing care poate oferi informații despre comportamentul vizitatorilor și optimizarea site-urilor web.alte metodeedit

    alte metode de colectare a datelor sunt uneori utilizate. Pachetul sniffing colectează date prin sniffing traficul de rețea care trece între serverul web și lumea exterioară. Sniffing de pachete nu implică modificări ale paginilor web sau ale serverelor web., Integrarea analizei web în software-ul serverului web în sine este de asemenea posibilă. Ambele metode pretind că furnizează date în timp real mai bune decât alte metode.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *