grundläggande steg i Webbanalysprocessen

de flesta webbanalysprocesser kommer ner till fyra viktiga steg eller steg, som är:

  • insamling av data: det här steget är insamling av grundläggande elementära data. Vanligtvis är dessa data räknas av saker. Syftet med detta skede är att samla in uppgifterna.
  • bearbetning av data till information: detta stadium brukar ta räkningar och göra dem nyckeltal, även om det fortfarande kan finnas vissa räkningar., Syftet med detta skede är att ta data och anpassa den till information, särskilt mätvärden.
  • utveckla nyckeltal: detta steg fokuserar på att använda nyckeltal (och räkningar) och infusera dem med affärsstrategier, kallad nyckeltal (KPI). Många gånger handlar nyckeltal om konverteringsaspekter, men inte alltid. Det beror på organisationen.
  • formulera online strategi: detta skede handlar om online mål, mål och standarder för organisationen eller verksamheten., Dessa strategier är vanligtvis relaterade till att tjäna pengar, spara pengar eller öka marknadsandelar.

en annan viktig funktion som utvecklats av analytikerna för optimering av webbplatserna är experimenten

  • experiment och test: A/B-testning är ett kontrollerat experiment med två varianter, i onlineinställningar, till exempel webbutveckling.

målet med A/B-testning är att identifiera och föreslå ändringar på webbsidor som ökar eller maximerar effekten av ett statistiskt testat resultat av intresse.

varje steg påverkar eller kan påverka (dvs.,, enheter) scenen före eller efter den. Så, ibland påverkar de data som är tillgängliga för insamling onlinestrategin. Andra gånger påverkar online-strategin de insamlade uppgifterna.

web analytics technologiesEdit

det finns minst två kategorier av webbanalys, off-site Och on-site web analytics.

  • webbanalys avser webbmätning och analys oavsett om en person äger eller underhåller en webbplats., Den innehåller mätning av en webbplats potentiella publik (möjlighet), andel av röst (synlighet), och buzz (kommentarer) som händer på Internet som helhet.
  • webbanalys på webbplatsen, ju vanligare av de två, mäter en besökares beteende en gång på en viss webbplats. Detta inkluderar dess drivrutiner och konverteringar; till exempel i vilken grad olika målsidor är förknippade med onlineköp. Webbanalys på plats mäter resultatet av en specifik webbplats i ett kommersiellt sammanhang., Dessa data jämförs vanligtvis med nyckeltal för resultat och används för att förbättra en webbplats eller marknadsföringskampanjens publikrespons. Google Analytics och Adobe Analytics är den mest använda webbplatsen webbanalystjänst; även om nya verktyg dyker upp som ger ytterligare lager av information, inklusive värmekartor och session replay.

historiskt sett har webbanalys använts för att referera till besökarens mätning på plats. Denna mening har dock blivit suddig, främst eftersom leverantörer producerar verktyg som spänner över båda kategorierna., Många olika leverantörer tillhandahåller webbanalysprogramvara och tjänster på plats. Det finns två huvudsakliga tekniska sätt att samla in data. Den första och traditionella metoden, serverloggfilanalys, läser loggfilerna där webbservern registrerar filförfrågningar av webbläsare. Den andra metoden, sidtaggning, använder JavaScript inbäddad i webbsidan för att göra bildförfrågningar till en tredje part analytics-dedikerad server, när en webbsida renderas av en webbläsare eller, om så önskas, när ett musklick inträffar. Båda samlar in data som kan bearbetas för att producera webbtrafikrapporter.,

Web analytics data sourcesEdit

det grundläggande målet för web analytics är att samla in och analysera data relaterade till webbtrafik och användningsmönster. Data kommer huvudsakligen från fyra källor:

  1. direkt HTTP-begärandedata: kommer direkt från HTTP-begärandemeddelanden (HTTP-begäranderubriker).
  2. nätverksnivå och servergenererade data associerade med HTTP-begäranden: inte en del av en HTTP-begäran, men det krävs för framgångsrika begäransöverföringar – till exempel IP-adress för en sökande.,
  3. data på applikationsnivå som skickas med HTTP-förfrågningar: genereras och bearbetas av program på applikationsnivå (t. ex. JavaScript, PHP och ASP.Net), inklusive session och remisser. Dessa fångas vanligtvis av interna loggar snarare än offentliga webbanalystjänster.
  4. externa data: kan kombineras med data på plats för att öka webbplatsens beteendedata som beskrivs ovan och tolka webbanvändning., Till exempel är IP-adresser vanligtvis associerade med geografiska regioner och Internetleverantörer, e-post öppna och klickfrekvens, direktkampanjdata, försäljning och leadhistorik eller andra datatyper efter behov.

loggfil för webbserver analysedit

webbservrar registrerar några av sina transaktioner i en loggfil. Det insåg snart att dessa loggfiler kan läsas av ett program för att ge data om webbplatsens popularitet. Således uppstod webblogg analysprogram.,

i början av 1990-talet bestod webbplatsstatistiken främst av att räkna antalet klientförfrågningar (eller träffar) som gjordes till webbservern. Detta var en rimlig metod från början, eftersom varje webbplats ofta bestod av en enda HTML-fil. Men med införandet av bilder i HTML, och webbplatser som sträckte flera HTML-filer, blev detta antal mindre användbart. Den första riktiga kommersiella Log Analyzer släpptes av IPRO 1994.

två måttenheter infördes i mitten av 1990-talet för att mer exakt mäta mängden mänsklig aktivitet på webbservrar., Dessa var sidvisningar och besök (eller sessioner). En sidvy definierades som en begäran till webbservern för en sida, i motsats till en grafik, medan ett besök definierades som en sekvens av förfrågningar från en unikt identifierad klient som löpte ut efter en viss mängd inaktivitet, vanligtvis 30 minuter.

framväxten av sökmotorspindlar och robotar i slutet av 1990-talet, tillsammans med webbproxies och dynamiskt tilldelade IP-adresser för stora företag och Internetleverantörer, gjorde det svårare att identifiera unika mänskliga besökare på en webbplats., Log analysatorer svarade genom att spåra besök av cookies, och genom att ignorera förfrågningar från kända spindlar.

den omfattande användningen av webbcachar presenterade också ett problem för loggfilanalys. Om en person besöker en sida kommer den andra begäran ofta att hämtas från webbläsarens cache, så ingen begäran kommer att tas emot av webbservern. Det betyder att personens väg genom webbplatsen går förlorad. Caching kan besegras genom att konfigurera webbservern, men detta kan leda till försämrad prestanda för besökaren och större belastning på servrarna.,

page taggingEdit

oro för riktigheten i log file analysis i närvaro av caching, och önskan att kunna utföra webbanalys som en outsourcad tjänst, ledde till den andra datainsamlingsmetoden, sidtaggning eller ”web bugs”.

i mitten av 1990-talet sågs ofta webbräknare-det var bilder som inkluderades på en webbsida som visade hur många gånger bilden hade begärts, vilket var en uppskattning av antalet besök på den sidan., I slutet av 1990-talet utvecklades detta koncept till att inkludera en liten osynlig bild istället för en synlig, och genom att använda JavaScript för att passera tillsammans med bildförfrågan viss information om sidan och besökaren. Denna information kan sedan bearbetas på distans av ett webbanalysföretag och omfattande statistik genereras.

webbanalystjänsten hanterar också processen att tilldela en cookie till användaren, som unikt kan identifiera dem under sitt besök och i efterföljande besök., Acceptansnivåerna för cookies varierar avsevärt mellan webbplatser och kan påverka kvaliteten på de uppgifter som samlas in och rapporteras.

insamling av webbplatsdata med hjälp av en datainsamlingsserver från tredje part (eller till och med en intern datainsamlingsserver) kräver en ytterligare DNS-sökning av användarens dator för att bestämma insamlingsserverns IP-adress. Ibland kan förseningar i att slutföra en framgångsrik eller misslyckad DNS-sökning leda till att data inte samlas in.,

med den ökande populariteten för AJAX-baserade lösningar är ett alternativ till användningen av en osynlig bild att implementera ett samtal tillbaka till servern från den renderade sidan. I det här fallet, när sidan renderas i webbläsaren, skulle en bit av Ajax-kod ringa tillbaka till servern och skicka information om klienten som sedan kan aggregeras av ett webbanalysföretag. Detta är på vissa sätt bristfällig av webbläsarrestriktioner på servrarna som kan kontaktas med XMLHttpRequest objekt., Denna metod kan också leda till något lägre rapporterade trafiknivåer, eftersom besökaren kan stoppa sidan från att ladda i mitten av svaret innan Ajax-samtalet görs.

Logfile analysis vs page taggingEdit

både logfile analysprogram och page tagging lösningar är lätt tillgängliga för företag som vill utföra webbanalys. I vissa fall kommer samma webbanalysföretag att erbjuda båda metoderna. Frågan uppstår då om vilken metod ett företag ska välja. Det finns fördelar och nackdelar med varje tillvägagångssätt.,

fördelarna med logfile analysedit

de främsta fördelarna med log file analysis over page tagging är följande:

  • webbservern producerar normalt redan loggfiler, så rådata är redan tillgängliga. Inga ändringar på webbplatsen krävs.
  • data finns på företagets egna servrar och är i en standard, snarare än ett eget format. Detta gör det enkelt för ett företag att byta program senare, Använda flera olika program, och analysera historiska data med ett nytt program.,
  • loggfiler innehåller information om besök från sökmotorspindlar, som i allmänhet utesluts från analytics-verktygen med JavaScript-taggning. (Vissa sökmotorer kanske inte ens kör JavaScript på en sida.) Även om dessa inte bör rapporteras som en del av den mänskliga aktiviteten, det är användbar information för sökmotoroptimering.
  • loggfiler kräver inga ytterligare DNS-sökningar eller TCP långsam startar. Således finns det inga externa serversamtal som kan sakta sidladdningshastigheter, eller resultera i rabatterade sidvisningar.
  • webbservern registrerar tillförlitligt varje transaktion den gör, e.,g. servering PDF-dokument och innehåll som genereras av skript, och inte förlitar sig på besökarnas webbläsare samarbetar.

fördelarna med page taggingEdit

de främsta fördelarna med sidtaggning över log file analysis är följande:

  • räkning aktiveras genom att öppna sidan (med tanke på att webbklienten kör taggskript), inte begär det från servern. Om en sida cachas räknas den inte av serverbaserad logganalys. Cachade sidor kan redogöra för upp till en tredjedel av alla sidvisningar, vilket kan påverka många webbplatsmått negativt.,
  • Data samlas in via en komponent (”tagg”) på sidan, vanligtvis skrivet i JavaScript, även om Java eller Flash också kan användas. Ajax kan också användas tillsammans med ett skriptspråk på serversidan (som PHP) för att manipulera och (vanligtvis) lagra det i en databas, vilket i grunden möjliggör fullständig kontroll över hur data representeras.
  • skriptet kan ha tillgång till ytterligare information på webbklienten eller på användaren, som inte skickas i frågan, till exempel besökarnas skärmstorlekar och priset på de varor de köpte.,
  • Sidtaggning kan rapportera händelser som inte involverar en begäran till webbservern, såsom interaktioner inom Flash-filmer, partiell formulärkomplettering, mushändelser som onClick, onMouseOver, onFocus, onBlur etc.
  • sidtaggningstjänsten hanterar processen att tilldela cookies till besökare; med Log file analysis måste servern konfigureras för att göra detta.
  • sidtaggning är tillgänglig för företag som inte har tillgång till sina egna webbservrar.
  • på senare tid har sidtaggning blivit en standard i webbanalys.,

ekonomisk faktorsedit

Logfile analys utförs nästan alltid internt. Sidtaggning kan utföras internt, men det tillhandahålls oftare som en tredjepartstjänst. Den ekonomiska skillnaden mellan dessa två modeller kan också vara en ersättning för ett företag som bestämmer sig för att köpa.

  • Logfile analys innebär vanligtvis en engångsprogramvara köp; dock, vissa leverantörer införa maximala årliga sidvisningar med extra kostnader för att bearbeta ytterligare information., Förutom kommersiella erbjudanden finns flera open-source logfile analysverktyg tillgängliga gratis.
  • för Loggfilanalysdata måste lagras och arkiveras, vilket ofta växer stort snabbt. Även om kostnaden för hårdvara för att göra detta är minimal, kan overhead för en IT-avdelning vara betydande.
  • för logfile analys programvara måste bibehållas, inklusive uppdateringar och säkerhets patchar.
  • komplexa sidtaggningsleverantörer tar ut en månadsavgift baserat på volym, dvs. antal sidvisningar per månad som samlas in.,

vilken lösning som är billigare att implementera beror på mängden teknisk expertis inom företaget, den valda leverantören, mängden aktivitet som ses på webbplatserna, djupet och typen av information som söks och antalet olika webbplatser som behöver statistik.

oavsett vilken leverantörslösning eller datainsamlingsmetod som används, bör kostnaden för webbbesökaranalys och tolkning också inkluderas. Det vill säga kostnaden för att omvandla rådata till handlingsbar information., Detta kan vara från användning av tredjepartskonsulter, uthyrning av en erfaren webbanalytiker eller utbildning av en lämplig intern person. En kostnads-nyttoanalys kan sedan utföras. Till exempel, vilken intäktsökning eller kostnadsbesparingar kan erhållas genom att analysera webbbesökardata?

Hybrid methodsEdit

vissa företag producerar lösningar som samlar in data genom både loggfiler och sidtaggning och kan analysera båda typerna. Genom att använda en hybridmetod syftar de till att producera mer exakt statistik än endera metoden på egen hand., En tidig hybridlösning producerades 1998 av Rufus Evison.

Geolocation av visitorsEdit

med IP geolocation är det möjligt att spåra besökarnas platser. Med hjälp av IP geolocation databas eller API, besökare kan geolocated till stad, region eller landsnivå.

IP Intelligence, eller Internet Protocol (IP) Intelligence, är en teknik som kartlägger Internet och kategoriserar IP-adresser med parametrar som geografisk plats (Land, region, stat, stad och Postnummer), Anslutningstyp, Internetleverantör (ISP), proxyinformation och mer., Den första generationen av IP-intelligens kallades geotargeting eller geolocation-teknik. Denna information används av företag för online-målgruppssegmentering i applikationer som onlineannonsering, beteendeinriktning, innehållslokalisering (eller webbplatslokalisering), hantering av digitala rättigheter, Personalisering, onlinebedrägeridetektering, lokaliserad sökning, förbättrad analys, global trafikhantering och innehållsdistribution.,

klicka analyticsEdit

Clickpath-analys med hänvisande sidor till vänster och pilar och rektanglar som skiljer sig i tjocklek och expanse för att symbolisera rörelsekvantitet.

Click analytics är en speciell typ av webbanalys som ger särskild uppmärksamhet åt klick.

vanligtvis fokuserar click analytics på webbplatsanalys. En redaktör på en webbplats använder click analytics för att bestämma resultatet för hans eller hennes specifika webbplats, med avseende på var användarna av webbplatsen klickar.,

Klicka också på analytics kan hända i realtid eller ”unreal”-time, beroende på vilken typ av information som söks. Typiskt, front-page redaktörer på hög trafik nyheter media webbplatser kommer att vilja övervaka sina sidor i realtid, för att optimera innehållet. Redaktörer, designers eller andra typer av intressenter kan analysera klick på en bredare tidsram för att hjälpa dem att bedöma prestanda för författare, designelement eller annonser etc.

data om klick kan samlas in på minst två sätt., Helst är ett klick ”loggat” när det inträffar, och den här metoden kräver viss funktionalitet som hämtar relevant information när händelsen inträffar. Alternativt kan man anta att en sidvy är ett resultat av ett klick, och logga därför ett simulerat klick som ledde till den sidvyn.

customer lifecycle analyticsEdit

Customer lifecycle analytics är ett besökarcentrerat tillvägagångssätt för mätning som faller under paraplyet för livscykelmarknadsföring. Sidvisningar, klick och andra händelser (t.ex. API-samtal, åtkomst till tjänster från tredje part etc.,) är alla knutna till en enskild besökare i stället för att lagras som separata datapunkter. Customer lifecycle analytics försöker ansluta alla datapunkter till en marknadsföringstratt som kan ge insikter i besökarnas beteende och webbplatsoptimering.

andra metoderredigera

andra metoder för datainsamling används ibland. Packet sniffing samlar in data genom att sniffa nätverkstrafiken som passerar mellan webbservern och omvärlden. Packet sniffing innebär inga ändringar på webbsidor eller webbservrar., Att integrera webbanalys i webbserverprogramvaran är också möjligt. Båda dessa metoder hävdar att tillhandahålla bättre realtidsdata än andra metoder.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *