basisstappen van Webanalyseproces

De meeste webanalyseprocessen komen neer op vier essentiële stappen, namelijk:

  • gegevensverzameling: deze fase is het verzamelen van de elementaire gegevens. Meestal zijn deze gegevens tellen van dingen. Het doel van deze fase is het verzamelen van de gegevens.
  • verwerking van gegevens in informatie: Deze fase neemt meestal tellingen en maakt ze ratio ‘ s, hoewel er nog steeds enkele tellingen kunnen zijn., Het doel van deze fase is om de gegevens te nemen en te voldoen aan het in informatie, in het bijzonder metrics.
  • ontwikkelen van KPI: deze fase richt zich op het gebruik van de ratio ‘ s (en tellingen) en het gebruik ervan met bedrijfsstrategieën, aangeduid als key performance indicators (KPI). Vaak behandelen KPI ‘ s conversie-aspecten, maar niet altijd. Dat hangt van de organisatie af.
  • formuleren van online strategie: deze fase heeft betrekking op de online doelstellingen, doelstellingen en normen voor de organisatie of het bedrijf., Deze strategieën zijn meestal gerelateerd aan het maken van geld, geld besparen, of het verhogen van marketshare.

een andere essentiële functie ontwikkeld door de analisten voor de optimalisatie van de websites zijn de experimenten

  • experimenten en testen: A/B testen is een gecontroleerd experiment met twee varianten, in online instellingen, zoals webontwikkeling.

Het doel van A / B-testen is het identificeren en suggereren van wijzigingen in webpagina ‘ s die het effect van een statistisch getest resultaat van belang vergroten of maximaliseren.

elke fase heeft gevolgen of kan gevolgen hebben (d.w.z.,, drives) de fase voorafgaand of volgend. Zo, soms zijn de gegevens die beschikbaar zijn voor het verzamelen van invloed op de online strategie. Andere keren heeft de online strategie invloed op de verzamelde gegevens.

web analytics technologiesEdit

Er zijn ten minste twee categorieën van web analytics, off-site en on-site web analytics.

  • Off-site web analytics verwijst naar webmeting en-analyse, ongeacht of een persoon een website bezit of onderhoudt., Het omvat de meting van het potentiële publiek van een website (gelegenheid), aandeel van de stem (zichtbaarheid), en buzz (opmerkingen) dat gebeurt op het Internet als geheel.
  • On-site web analytics, de meest voorkomende van de twee, meten het gedrag van een bezoeker eenmaal op een specifieke website. Dit omvat de stuurprogramma ’s en conversies; bijvoorbeeld de mate waarin verschillende landingspagina’ s worden geassocieerd met online aankopen. On-site web analytics meet de prestaties van een specifieke website in een commerciële context., Deze gegevens worden meestal vergeleken met de belangrijkste prestatie-indicatoren voor de prestaties en wordt gebruikt om een website of marketing campagne publiek reactie te verbeteren. Google Analytics en Adobe Analytics zijn de meest gebruikte on-site webanalyse-service; hoewel er nieuwe tools opduiken die extra lagen informatie bieden, waaronder heat maps en Session replay.

historisch gezien is web analytics gebruikt om te verwijzen naar de meting van bezoekers op de site. Deze betekenis is echter vervaagd, vooral omdat leveranciers tools produceren die beide categorieën omvatten., Veel verschillende leveranciers bieden on-site web analytics software en diensten. Er zijn twee belangrijke technische manieren om de gegevens te verzamelen. De eerste en traditionele methode, server log file analysis, leest de logbestanden waarin de webserver registreert bestandsaanvragen door browsers. De tweede methode, page tagging, maakt gebruik van JavaScript ingebed in de webpagina om image verzoeken te maken aan een externe analytics-dedicated server, wanneer een webpagina wordt weergegeven door een webbrowser of, indien gewenst, wanneer een muisklik optreedt. Beide verzamelen gegevens die kunnen worden verwerkt om webverkeer rapporten te produceren.,

web analytics data sourcesEdit

Het fundamentele doel van web analytics is het verzamelen en analyseren van gegevens met betrekking tot webverkeer en gebruikspatronen. De gegevens komen voornamelijk uit vier bronnen:

  1. directe HTTP-verzoekgegevens: rechtstreeks afkomstig van HTTP-verzoekberichten (HTTP-verzoekheaders).
  2. netwerkniveau en server gegenereerde gegevens geassocieerd met HTTP – verzoeken: maakt geen deel uit van een HTTP-verzoek, maar is vereist voor succesvolle Verzoeken-transmissies-bijvoorbeeld, IP-adres van een aanvrager.,
  3. gegevens op toepassingsniveau verzonden met HTTP-verzoeken: gegenereerd en verwerkt door programma ‘ s op toepassingsniveau (zoals JavaScript, PHP, en ASP.Net), met inbegrip van zitting en raadplegingen. Deze worden meestal vastgelegd door interne logs in plaats van openbare webanalysediensten.
  4. externe gegevens: kan worden gecombineerd met on-site gegevens om te helpen de website gedrag gegevens hierboven beschreven en interpreteren webgebruik., Bijvoorbeeld, IP-adressen worden meestal geassocieerd met geografische regio ‘ s en internet service providers, e-mail open en click-through rates, direct mail campagnegegevens, verkoop en lead geschiedenis, of andere soorten gegevens als dat nodig is.

analysedit

webservers registreren sommige transacties in een logbestand. Al snel realiseerde men zich dat deze logbestanden konden worden gelezen door een programma om gegevens te verstrekken over de populariteit van de website. Zo ontstond web log analyse software.,

begin jaren negentig bestond de statistiek van de website voornamelijk uit het tellen van het aantal verzoeken (of hits) van klanten op de webserver. Dit was in eerste instantie een redelijke methode, omdat elke website vaak bestond uit een enkel HTML-bestand. Echter, met de introductie van afbeeldingen in HTML, en websites die meerdere HTML-bestanden overspannen, werd deze telling minder nuttig. De eerste echte commerciële Log Analyzer werd uitgebracht door ipro in 1994.in het midden van de jaren negentig werden twee meeteenheden ingevoerd om de hoeveelheid menselijke activiteit op webservers nauwkeuriger te meten., Dit waren paginaweergaven en bezoeken (of sessies). Een paginaweergave werd gedefinieerd als een verzoek aan de webserver voor een pagina, in tegenstelling tot een afbeelding, terwijl een bezoek werd gedefinieerd als een reeks verzoeken van een uniek geïdentificeerde client die na een bepaalde hoeveelheid inactiviteit, meestal 30 minuten, is verlopen.

De opkomst van zoekmachine spiders en robots in de late jaren 1990, samen met webproxy ’s en dynamisch toegewezen IP-adressen voor grote bedrijven en ISP’ s, maakte het moeilijker om unieke menselijke bezoekers van een website te identificeren., Log analyzers reageerden door het bijhouden van bezoeken door cookies, en door het negeren van verzoeken van bekende spiders.

het uitgebreide gebruik van web caches leverde ook een probleem op voor logbestand analyse. Als een persoon een pagina opnieuw bezoekt, zal het tweede verzoek vaak worden opgehaald uit de cache van de browser, en dus zal er geen verzoek worden ontvangen door de webserver. Dit betekent dat het pad van de persoon door de site verloren gaat. Caching kan worden verslagen door het configureren van de webserver, maar dit kan resulteren in verminderde prestaties voor de bezoeker en een grotere belasting op de servers.,

Page taggedit

bezorgdheid over de nauwkeurigheid van logbestand analyse in aanwezigheid van caching, en de wens om web analytics uit te voeren als een uitbestede dienst, leidde tot de tweede methode voor het verzamelen van gegevens, pagina tagging of ‘web bugs’.

in het midden van de jaren negentig werden webtellers vaak gezien — dit waren afbeeldingen die waren opgenomen in een webpagina die het aantal keren dat de afbeelding was opgevraagd liet zien, wat een schatting was van het aantal bezoeken aan die pagina., In de late jaren 1990, dit concept geëvolueerd om een kleine onzichtbare afbeelding in plaats van een zichtbare, en, door het gebruik van JavaScript, mee te geven met de afbeelding verzoek bepaalde informatie over de pagina en de bezoeker. Deze informatie kan vervolgens op afstand worden verwerkt door een webanalysebedrijf en uitgebreide statistieken worden gegenereerd.

de webanalysedienst beheert ook het proces van het toewijzen van een cookie aan de gebruiker, die hen op unieke wijze kan identificeren tijdens hun bezoek en bij volgende bezoeken., Acceptatiepercentages voor cookies variëren aanzienlijk tussen websites en kunnen de kwaliteit van de verzamelde en gerapporteerde gegevens beïnvloeden.

voor het verzamelen van websitegegevens met behulp van een externe gegevensverzamelingsserver (of zelfs een interne gegevensverzamelingsserver) is een extra DNS-opzoeking door de computer van de gebruiker nodig om het IP-adres van de gegevensverzamelingsserver te bepalen. Bij gelegenheid, vertragingen in het voltooien van een succesvolle of mislukte DNS lookups kan leiden tot gegevens niet worden verzameld.,

met de toenemende populariteit van op AJAX gebaseerde oplossingen is een alternatief voor het gebruik van een onzichtbare afbeelding het implementeren van een oproep naar de server vanaf de gerenderde pagina. In dit geval, wanneer de pagina wordt weergegeven in de webbrowser, zou een stukje Ajax-code terug bellen naar de server en informatie doorgeven over de client die vervolgens kan worden samengevoegd door een webanalysebedrijf. Dit is in sommige opzichten gebrekkig door browser beperkingen op de servers die kunnen worden gecontacteerd met XMLHttpRequest objecten., Ook, deze methode kan leiden tot iets lagere gerapporteerde verkeersniveaus, omdat de bezoeker kan stoppen met de pagina te laden in het midden van de reactie voordat de Ajax oproep wordt gedaan.

Logfile analysis vs page taggedit

beide logfile analysis programma ‘ s en pagina tagging oplossingen zijn direct beschikbaar voor bedrijven die web analytics willen uitvoeren. In sommige gevallen zal hetzelfde webanalysebedrijf beide benaderingen aanbieden. De vraag rijst dan welke methode een bedrijf moet kiezen. Er zijn voor-en nadelen aan elke aanpak.,

voordelen van logbestandanalysedit

de belangrijkste voordelen van logbestandanalyse ten opzichte van pagina-tagging zijn als volgt:

  • De webserver produceert normaal gesproken al logbestanden, zodat de ruwe gegevens al beschikbaar zijn. Er zijn geen wijzigingen aan de website vereist.
  • de gegevens bevinden zich op de eigen servers van het bedrijf en zijn in een standaard, in plaats van een eigen, formaat. Dit maakt het voor een bedrijf gemakkelijk om later van programma ’s te wisselen, verschillende programma’ s te gebruiken en historische gegevens te analyseren met een nieuw programma.,
  • logbestanden bevatten informatie over bezoeken van spiders van zoekmachines, die over het algemeen worden uitgesloten van de analysehulpmiddelen met behulp van JavaScript-tagging. (Sommige zoekmachines kunnen niet eens uitvoeren JavaScript op een pagina. Hoewel deze niet moeten worden gerapporteerd als onderdeel van de menselijke activiteit, is het nuttige informatie voor zoekmachine optimalisatie.
  • logbestanden vereisen geen extra DNS lookups of TCP slow starts. Er zijn dus geen externe serveraanroepen die de laadsnelheid van pagina ‘ s kunnen vertragen of resulteren in ongecountte paginaweergaven.
  • de webserver registreert op betrouwbare wijze elke transactie die hij maakt, e.,g. het aanbieden van PDF-documenten en inhoud gegenereerd door scripts, en is niet afhankelijk van de bezoekers browsers mee te werken.

voordelen van pagina-taggedit

de belangrijkste voordelen van pagina-tagging ten opzichte van log-bestandsanalyse zijn als volgt:

  • tellen wordt geactiveerd door de pagina te openen (gezien het feit dat de webclient de tag scripts uitvoert), zonder het aan te vragen van de server. Als een pagina in de cache wordt opgeslagen, wordt deze niet geteld door loganalyse op basis van servers. Pagina ‘ s in de cache kunnen goed zijn voor maximaal een derde van alle paginaweergaven, wat een negatieve invloed kan hebben op veel site-statistieken.,
  • gegevens worden verzameld via een component (“tag”) in de pagina, meestal geschreven in JavaScript, hoewel Java of Flash ook kan worden gebruikt. Ajax kan ook worden gebruikt in combinatie met een server-side scripttaal (zoals PHP) te manipuleren en (meestal) op te slaan in een database, in principe waardoor volledige controle over hoe de gegevens wordt weergegeven.
  • het script kan toegang hebben tot aanvullende informatie op de webclient of op de gebruiker, die niet in de zoekopdracht wordt verzonden, zoals de schermgrootte van bezoekers en de prijs van de goederen die ze hebben gekocht.,
  • Paginatagging kan gebeurtenissen rapporteren die geen verzoek aan de webserver inhouden, zoals interacties binnen Flash-films, gedeeltelijke formulieraanvulling, muisgebeurtenissen zoals onClick, onMouseOver, onFocus, onBlur enz.
  • De page tagging service beheert het proces van het toewijzen van cookies aan bezoekers; met logbestand analyse, moet de server worden geconfigureerd om dit te doen.
  • Paginatagging is beschikbaar voor bedrijven die geen toegang hebben tot hun eigen webservers.
  • de laatste tijd is het taggen van pagina ‘ s een standaard geworden in webanalyse.,

economische factorsEdit

logfile analyse wordt bijna altijd intern uitgevoerd. Pagina tagging kan worden uitgevoerd in-house, maar het wordt vaker geleverd als een dienst van derden. Het economische verschil tussen deze twee modellen kan ook een overweging voor een bedrijf beslissen welke te kopen.

  • Logfile analyse omvat meestal een eenmalige software aankoop; echter, sommige leveranciers introduceren maximale jaarlijkse paginaweergaven met extra kosten voor het verwerken van aanvullende informatie., Naast het commerciële aanbod zijn er gratis verschillende open-source logfile analysetools beschikbaar.
  • voor logfile analyse gegevens moeten worden opgeslagen en gearchiveerd, die vaak groeit snel groot. Hoewel de kosten van hardware om dit te doen is minimaal, de overhead voor een IT-afdeling kan aanzienlijk zijn.
  • voor logfile analyse software moet worden onderhouden, inclusief updates en beveiligingspatches.
  • leveranciers van complexe paginatagging rekenen een maandelijkse vergoeding op basis van het volume, d.w.z. het aantal verzamelde paginaweergaven per maand.,

welke oplossing goedkoper te implementeren is, hangt af van de hoeveelheid technische expertise binnen het bedrijf, de gekozen verkoper, de hoeveelheid activiteit die op de websites te zien is, de diepte en het soort informatie dat wordt gevraagd, en het aantal afzonderlijke websites dat statistieken nodig heeft.

ongeacht de gebruikte vendor-oplossing of methode voor het verzamelen van gegevens, moeten ook de kosten van analyse en interpretatie van webbezoekers worden opgenomen. Dat wil zeggen, de kosten van het omzetten van ruwe gegevens in bruikbare informatie., Dit kan door het gebruik van externe consultants, het inhuren van een ervaren web analist, of de opleiding van een geschikte in-house persoon. Vervolgens kan een kosten-batenanalyse worden uitgevoerd. Bijvoorbeeld, welke omzetstijging of kostenbesparingen kunnen worden behaald door het analyseren van de gegevens van de webbezoeker?

Hybrid methodebedit

sommige bedrijven produceren oplossingen die gegevens verzamelen door middel van zowel log-files Als pagina-tagging en beide soorten kunnen analyseren. Door gebruik te maken van een hybride methode, willen ze nauwkeuriger statistieken produceren dan elke methode op zichzelf., Een vroege hybride oplossing werd in 1998 geproduceerd door Rufus Evison.

geolocatie van bezoekers edit

met IP-geolocatie is het mogelijk om de locaties van bezoekers te volgen. Met behulp van IP-geolocatiedatabase of API kunnen bezoekers geolocatie krijgen op stad, regio of landniveau.

IP-intelligentie, of Internet Protocol (IP) intelligentie, is een technologie die het Internet in kaart brengt en IP-adressen categoriseert op basis van parameters zoals geografische locatie (land, regio, staat, stad en postcode), verbindingstype, Internet Service Provider (ISP), proxy-informatie, en meer., De eerste generatie IP-intelligentie werd geotargeting of geolocatietechnologie genoemd. Deze informatie wordt door bedrijven gebruikt voor online publiekssegmentatie in toepassingen zoals online reclame, behavioral targeting, content lokalisatie (of website lokalisatie), digitaal rechtenbeheer, personalisatie, online fraudedetectie, gelokaliseerd zoeken, verbeterde analytics, global traffic management en content distributie.,

klik op analysedit

klik Oppath analyse met verwijzende pagina ‘ s aan de linkerkant en pijlen en rechthoeken die verschillen in dikte en uitsparing om de hoeveelheid beweging te symboliseren.

Klikanalyse is een speciaal type webanalyse dat speciale aandacht schenkt aan klikken.

vaak richt click analytics zich op On-site analytics. Een redacteur van een website gebruikt click analytics om de prestaties van zijn of haar specifieke site te bepalen, met betrekking tot waar de gebruikers van de site klikken.,

ook kan klikanalyse real-time of “unreal”-time plaatsvinden, afhankelijk van het type informatie dat wordt gevraagd. Typisch, front-page editors op high-traffic nieuws media sites zullen willen hun pagina ‘ s in real-time te controleren, om de inhoud te optimaliseren. Redacteuren, ontwerpers of andere soorten belanghebbenden kunnen klikken analyseren op een breder tijdsbestek om hen te helpen de prestaties van schrijvers, ontwerpelementen of advertenties enz.te beoordelen.

gegevens over klikken kunnen op ten minste twee manieren worden verzameld., Idealiter wordt een klik “gelogd” wanneer deze plaatsvindt, en deze methode vereist enige functionaliteit die relevante informatie oppikt wanneer de gebeurtenis plaatsvindt. Als alternatief kan men de veronderstelling instellen dat een paginaweergave het resultaat is van een klik, en daarom een gesimuleerde klik registreren die tot die paginaweergave heeft geleid.

customer lifecycle analyticsEdit

Customer lifecycle analytics is een bezoekersgerichte benadering van het meten die onder de paraplu van lifecycle marketing valt. Paginaweergaven, klikken en andere gebeurtenissen (zoals API-oproepen, toegang tot diensten van derden, enz.,) zijn allemaal gebonden aan een individuele bezoeker in plaats van te worden opgeslagen als afzonderlijke datapunten. Customer lifecycle analytics probeert alle datapunten te verbinden met een marketing funnel die inzicht kan bieden in bezoekersgedrag en websiteoptimalisatie.

andere methodenedit

andere methoden voor gegevensverzameling worden soms gebruikt. Packet sniffing verzamelt gegevens door het snuiven van het netwerkverkeer tussen de webserver en de buitenwereld. Packet sniffing houdt geen wijzigingen in de webpagina ‘ s of webservers in., Het integreren van web analytics in de webserver software zelf is ook mogelijk. Beide methoden beweren betere real-time gegevens te verstrekken dan andere methoden.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *