a webanalitikai folyamat alapvető lépései
a legtöbb webanalitikai folyamat négy alapvető szakaszra vagy lépésre esik, amelyek a következők:
- adatgyűjtés: ez a szakasz az alapvető, elemi adatok gyűjtése. Általában ezek az adatok számítanak. E szakasz célja az adatok összegyűjtése.
- adatfeldolgozás információvá: ez a szakasz általában figyelembe számít, hogy azok arányok, bár még mindig lehet néhány számít., Ennek a szakasznak az a célja, hogy az adatokat információvá, konkrétan metrikává alakítsa.
- Fejlődő KPI: Ebben a szakaszban összpontosít segítségével az arányok (és számít), majd infúzió őket az üzleti stratégiák, a továbbiakban a fő teljesítménymutatók (KPI). A KPI-k sokszor konverziós szempontokkal foglalkoznak, de nem mindig. Ez a szervezettől függ.
- online stratégia megfogalmazása: ez a szakasz a szervezet vagy vállalkozás online céljaival, céljaival és szabványaival foglalkozik., Ezek a stratégiák általában a pénzkereséshez, a pénzmegtakarításhoz vagy a marketshare növeléséhez kapcsolódnak.
egy másik alapvető funkció, amelyet az elemzők fejlesztettek ki a webhelyek optimalizálására, a kísérletek
- kísérletek és tesztelések: az A/B tesztelés egy ellenőrzött kísérlet két változattal, online beállításokban, például webfejlesztésben.
az A / B tesztelés célja, hogy azonosítsa és javasolja a weboldalakon bekövetkező változásokat, amelyek növelik vagy maximalizálják a statisztikailag vizsgált eredmény hatását.
minden szakasz hatással van vagy hatással lehet (azaz,, meghajtók) az azt megelőző vagy követő szakasz. Tehát néha a gyűjtéshez rendelkezésre álló adatok befolyásolják az online stratégiát. Más esetekben az online stratégia befolyásolja az összegyűjtött adatokat.
webanalitikai technológiákszerkesztés
a webanalitikának legalább két kategóriája van, a helyszíni és a helyszíni webanalitikának.
- az Off-site web analytics webmérésre és elemzésre utal, függetlenül attól, hogy egy személy rendelkezik-e weboldallal vagy fenntartja-e azt., Ez magában foglalja a mérés egy weboldal potenciális közönség (lehetőség), részesedése hang (láthatóság), valamint buzz (megjegyzések), hogy történik az interneten, mint egész.
- a helyszíni webanalitika, minél gyakoribb a kettő, mérje meg a látogató viselkedését egyszer egy adott weboldalon. Ez magában foglalja a meghajtókat és a konverziókat; például azt, hogy a különböző céloldalak milyen mértékben kapcsolódnak az online vásárlásokhoz. A helyszíni webanalitika egy adott webhely teljesítményét méri kereskedelmi összefüggésben., Ezeket az adatokat jellemzően összehasonlítják a teljesítmény fő teljesítménymutatóival, és arra használják, hogy javítsák a weboldal vagy a marketing kampány közönségválaszát. A Google Analytics és az Adobe Analytics a legszélesebb körben használt helyszíni webanalitikai szolgáltatás; bár új eszközök jelennek meg, amelyek további információrétegeket biztosítanak, beleértve a hőtérképeket és a munkamenet-visszajátszást.
történelmileg a webanalitikát a helyszíni látogatói mérésekre használták. Ez a jelentés azonban elmosódott, főleg azért, mert a gyártók mindkét kategóriába tartozó eszközöket gyártanak., Számos különböző gyártó nyújt helyszíni webanalitikai szoftvereket és szolgáltatásokat. Az adatok gyűjtésének két fő technikai módja van. Az első és hagyományos módszer, a server log file analysis elolvassa azokat a naplófájlokat, amelyekben a webszerver böngészők által rögzíti a fájlkérelmeket. A második módszer, az oldalcímkézés, a weboldalba ágyazott Javascriptet használja, hogy képkéréseket tegyen egy harmadik féltől származó elemzési dedikált szerverre, amikor egy weboldalt egy webböngésző renderel, vagy ha szükséges, egérkattintás esetén. Mindkettő olyan adatokat gyűjt, amelyek feldolgozhatók webes forgalmi jelentések készítéséhez.,
webanalitikai adatforrásokszerkesztés
a webanalitika alapvető célja a webes forgalomra és a használati mintákra vonatkozó adatok gyűjtése és elemzése. Az adatok elsősorban négy forrásból származnak:
- Direct HTTP request data: közvetlenül a HTTP request üzenetekből (HTTP request headers) származik.
- hálózati szint és szerver által generált adatok HTTP kérésekhez társítva: nem része egy HTTP kérésnek, de szükséges a sikeres kérésátvitelhez – például egy igénylő IP-címéhez.,
- HTTP kérésekkel küldött alkalmazásszintű ADATOK: alkalmazás szintű programok (például JavaScript, PHP, és ASP.Net), beleértve a munkamenetet és az áttételeket. Ezeket általában a belső naplók rögzítik, nem pedig a nyilvános webanalitikai szolgáltatások.
- külső adatok: össze lehet kapcsolni a helyszíni adatokkal, hogy elősegítsék a weboldal fent leírt viselkedésadatait, valamint értelmezzék a webhasználatot., Például az IP-címeket általában földrajzi régiókkal és internetszolgáltatókkal társítják, az e-maileket megnyitják és átkattintják, a közvetlen levelezési kampányadatokat, az értékesítést és az előzményeket, vagy szükség szerint más adattípusokat.
webszerver naplófájlelemzésszerkesztés
A webszerverek néhány tranzakciót naplófájlban rögzítenek. Hamarosan kiderült, hogy ezeket a naplófájlokat EGY program elolvashatja, hogy adatokat szolgáltasson a weboldal népszerűségéről. Így keletkezett web log elemző szoftver.,
az 1990-es évek elején a weboldal statisztikái elsősorban a webszerverre irányuló ügyfélkérések (vagy találatok) számának számlálásából álltak. Ez kezdetben ésszerű módszer volt, mivel minden webhely gyakran egyetlen HTML fájlból állt. Azonban a HTML-ben lévő képek, valamint a több HTML-fájlt átívelő webhelyek bevezetésével ez a szám kevésbé lett hasznos. Az első igazi kereskedelmi Log Analyzer megjelent IPRO 1994-ben.
két mértékegységet vezettek be az 1990-es évek közepén, hogy pontosabban felmérjék az emberi tevékenység mennyiségét a webszervereken., Ezek oldalnézetek és látogatások voltak (vagy ülések). Az oldalnézetet a webszerverhez intézett kérésként definiálták egy Oldalhoz, szemben a grafikával, míg a látogatást egy egyedileg azonosított ügyfél kéréseinek sorozataként határozták meg, amely egy bizonyos inaktivitás után lejárt, általában 30 perc.
a keresőpókok és robotok megjelenése az 1990-es évek végén, a webes proxykkal és a nagyvállalatok és internetszolgáltatók számára dinamikusan hozzárendelt IP-címekkel együtt megnehezítette a weboldal egyedi emberi látogatóinak azonosítását., A naplóelemzők úgy reagáltak, hogy cookie-kkal követték a látogatásokat, valamint figyelmen kívül hagyták az ismert pókok kéréseit.
a webes gyorsítótárak széles körű használata szintén problémát jelentett a naplófájlok elemzéséhez. Ha valaki újra felkeresi az oldalt, a második kérés gyakran lekérésre kerül a böngésző gyorsítótárából, így a webszerver nem kap kérést. Ez azt jelenti, hogy a személy útja a webhelyen elvész. A gyorsítótárazás a webszerver konfigurálásával legyőzhető, de ez a látogató teljesítményének romlását, illetve a szerverek nagyobb terhelését eredményezheti.,
Oldal taggingEdit
Érinti, a pontosság, a log-file elemzés jelenlétében cache, valamint a vágy, hogy képes elvégezni web analytics, mint egy kihelyezett szolgáltatást vezetett, hogy a második adatgyűjtési módszer, page tagging vagy Web bug’.
az 1990-es évek közepén gyakran láttak webszámlálókat — ezek olyan képek voltak egy weboldalon, amelyek megmutatták a kép kérésének hányszor, ami az adott oldalra tett látogatások számának becslése volt., Az 1990-es évek végén ez a koncepció úgy alakult ki, hogy egy kis láthatatlan képet tartalmazzon a látható helyett, és a JavaScript használatával a képhez mellékelve bizonyos információkat kérjen az oldalról és a látogatóról. Ezt az információt ezután távolról is feldolgozhatja egy webanalitikai cég, valamint kiterjedt statisztikák jönnek létre.
a webanalitikai szolgáltatás kezeli azt a folyamatot is, amikor egy cookie-t rendelnek a felhasználóhoz, amely egyedileg azonosítja őket látogatásuk során, illetve a későbbi látogatások során., A Cookie-k elfogadási aránya jelentősen eltér a weboldalak között, és befolyásolhatja az összegyűjtött és bejelentett adatok minőségét.
a weboldal adatainak harmadik féltől származó adatgyűjtési kiszolgálóval (vagy akár házon belüli adatgyűjtési kiszolgálóval) történő gyűjtése további DNS-keresést igényel a felhasználó számítógépétől a gyűjtőszerver IP-címének meghatározásához. Időnként a sikeres vagy sikertelen DNS-keresés befejezésének késedelme azt eredményezheti, hogy az adatokat nem gyűjtik össze.,
Az Ajax – alapú megoldások növekvő népszerűségével a láthatatlan kép használatának alternatívája a kiszolgálóra történő visszahívás végrehajtása a renderelt oldalról. Ebben az esetben, amikor az oldal megjelenik a webböngészőben, egy Ajax kód egy darabja visszahívja a kiszolgálót, és átadja az ügyfélre vonatkozó információkat, amelyeket egy webanalitikai vállalat összevonhat. Ez bizonyos szempontból hibás böngésző korlátozások a szerverek, amelyek kapcsolatba lehet lépni XmlHttpRequest tárgyakat., Ez a módszer kissé alacsonyabb jelentett forgalmi szintekhez is vezethet, mivel a látogató megállíthatja az oldal betöltését a válasz közepén, mielőtt az Ajax hívást kezdeményezne.
Logfile analysis vs page taggingEdit
mind a logfile elemzési programok, mind az oldalcímkézési megoldások könnyen elérhetők a webanalitikát végrehajtani kívánó vállalatok számára. Bizonyos esetekben ugyanaz a webelemző cég mindkét megközelítést kínálja. Felmerül a kérdés, hogy melyik módszert kell választania a vállalatnak. Minden megközelítésnek vannak előnyei és hátrányai.,
A logfile analysisEdit
előnyei a naplófájlok elemzésének fő előnyei az oldalcímkézéssel szemben a következők:
- a webszerver általában már naplófájlokat állít elő, így a nyers adatok már rendelkezésre állnak. A weboldalon nincs szükség változtatásra.
- az adatok a vállalat saját szerverein vannak, és szabványban vannak, nem pedig szabadalmaztatott formátumban. Ez megkönnyíti a vállalat számára a programok későbbi cseréjét, több különböző program használatát, valamint a történelmi adatok elemzését egy új programmal.,
- A naplófájlok információkat tartalmaznak a keresőmotorok pókjainak látogatásairól, amelyeket általában kizárnak az elemzési eszközökből a JavaScript címkézés használatával. (Egyes keresőmotorok esetleg nem is hajtják végre a Javascriptet egy oldalon.) Bár ezeket nem szabad az emberi tevékenység részeként jelenteni, hasznos információk a keresőmotor optimalizálásához.
- A naplófájlok nem igényelnek további DNS-keresést vagy TCP lassú indítást. Így nincsenek olyan külső szerverhívások, amelyek lassíthatják az oldal betöltési sebességét, vagy nem rögzített oldalnézeteket eredményezhetnek.
- a webszerver megbízhatóan rögzít minden tranzakciót, e.,g. PDF dokumentumok és szkriptek által generált tartalmak kiszolgálása, és nem támaszkodik a látogatók böngészőire.
az oldal taggingEdit
előnyei az oldal címkézésének fő előnyei a naplófájl-elemzéssel szemben a következők:
- A számlálás az oldal megnyitásával aktiválódik (tekintettel arra, hogy a web kliens futtatja a címke szkripteket), nem kérve azt a kiszolgálótól. Ha egy oldal Gyorsítótárazva van, akkor nem számít bele a szerver alapú naplóelemzés. A gyorsítótárazott oldalak az összes oldalnézet legfeljebb egyharmadát teszik ki, ami negatívan befolyásolhatja számos webhely-mutatót.,
- az adatokat az oldalon található összetevő (“címke”) segítségével gyűjtik össze, általában JavaScript-ben írva, bár Java vagy Flash is használható. Ajax is használható együtt egy szerver oldali programozási nyelv (mint például a PHP) manipulálni, és (általában) tárolja azt egy adatbázisban, alapvetően lehetővé teszi a teljes ellenőrzést, hogy az adatok ábrázolása.
- a szkript további információkhoz férhet hozzá a webes kliensen vagy a felhasználón, amelyeket nem küld el a lekérdezésben, például a látogatók képernyőméretéhez és a megvásárolt áruk árához.,
- az Oldalcímkék olyan eseményekről számolhatnak be, amelyek nem tartalmaznak kérést a webszerverhez, mint például a Flash filmek közötti interakciók, a részleges űrlap kitöltése, az egér események, például az onClick, az onMouseOver, az onFocus, az onBlur stb.
- az oldalcímkézési szolgáltatás kezeli a cookie-k látogatókhoz való hozzárendelésének folyamatát; a naplófájl-elemzéssel a kiszolgálót ehhez konfigurálni kell.
- az Oldalcímkézés olyan vállalatok számára érhető el, akik nem férnek hozzá saját webszerverükhöz.
- az utóbbi időben az oldalcímkézés a webanalitika szabványává vált.,
gazdasági tényezőkszerkesztés
a Logfile elemzést szinte mindig házon belül végzik. Az oldalcímkézés házon belül is elvégezhető, de gyakrabban harmadik féltől származó szolgáltatásként nyújtják. A két modell közötti gazdasági különbség megfontolás lehet egy olyan vállalat számára is, amely eldönti, hogy melyiket vásárolja meg.
- a Logfile elemzés általában egyszeri szoftvervásárlást foglal magában; azonban egyes gyártók maximális éves oldalnézeteket vezetnek be további költségekkel a további információk feldolgozásához., A kereskedelmi ajánlatok mellett számos nyílt forráskódú logfile elemző eszköz ingyenesen elérhető.
- a naplófájl elemzési adatokat tárolni és archiválni kell, ami gyakran gyorsan megnő. Bár a hardver költsége ehhez minimális, az informatikai osztály költségei jelentősek lehetnek.
- a Naplófájlelemző szoftvereket fenn kell tartani, beleértve a frissítéseket és a biztonsági javításokat is.
- a komplex oldalcímkézési szolgáltatók havi díjat számítanak fel a kötet alapján, azaz az összegyűjtött havi oldalnézetek száma alapján.,
melyik megoldás olcsóbb megvalósítani, attól függ, hogy mennyi technikai szakértelem van a vállalaton belül, az eladó által kiválasztott, a weboldalakon látható tevékenység mennyisége, a keresett információ mélysége és típusa, valamint a statisztikákat igénylő különálló webhelyek száma.
az alkalmazott szállítói megoldástól vagy adatgyűjtési módszertől függetlenül a weblátogatók elemzésének és értelmezésének költségeit is figyelembe kell venni. Vagyis a nyers adatok cselekvésre alkalmas információvá alakításának költsége., Ez lehet harmadik fél tanácsadóinak használata, tapasztalt webes elemző felvétele vagy megfelelő házon belüli személy képzése. Ezután költség-haszon elemzést lehet végezni. Például, milyen bevételnövekedést vagy költségmegtakarítást lehet elérni a webes látogatói adatok elemzésével?
Hibrid methodsEdit
Egy kis cégek termelnek megoldásokat, hogy összegyűjti az adatokat mind a log-fájlok page tagging, valamint elemzi mindkét fajta. Hibrid módszer alkalmazásával arra törekszenek, hogy pontosabb statisztikákat állítsanak elő, mint bármelyik módszer önmagában., A Rufus Evison 1998-ban készített egy korai hibrid megoldást.
A látogatók földrajzi Helyeszerkesztés
IP földrajzi helymeghatározással nyomon követhető a látogatók helye. Az IP földrajzi helymeghatározási adatbázis vagy API használatával a látogatók város, régió vagy ország szintjén helyezhetők el.
az IP Intelligence vagy az Internet Protocol (IP) Intelligence olyan technológia, amely leképezi az internetet, és az IP-címeket olyan paraméterek szerint kategorizálja, mint a földrajzi hely (ország, régió, állam, város És Irányítószám), a Kapcsolat típusa, az internetszolgáltató (ISP), a proxyinformációk stb., Az IP intelligencia első generációját geotargeting vagy geolocation technológiának nevezték. Ezt az információt használják a vállalkozások online közönség szegmentálás az alkalmazások olyan online reklám, viselkedési célzás, tartalom lokalizáció (vagy website lokalizáció), digitális jogok kezelése, testreszabás, online csalás felderítése, helyi keresés, megerősített analytics, a globális forgalom irányítás, valamint tartalom elosztó.,
Kattintson analyticsEdit
Clickpath Elemzés a hivatkozó oldalak balra nyilakkal, majd téglalap eltérő vastagságú kiterjedésű, hogy szimbolizálja a szállítási mennyiség.
A Click analytics egy speciális típusú webes elemzés, amely különös figyelmet fordít a kattintásokra.
általában a click analytics a helyszíni elemzésre összpontosít. Egy weboldal szerkesztője a click analytics segítségével határozza meg az adott webhely teljesítményét annak tekintetében, hogy a webhely felhasználói hol kattintanak.,
a click analytics valós időben vagy “unreal”időben is megtörténhet, a keresett információ típusától függően. Általában a nagy forgalmú hírmédia-oldalak első oldalainak szerkesztői valós időben szeretnék figyelemmel kísérni oldalaikat, hogy optimalizálják a tartalmat. Szerkesztők, tervezők vagy más típusú érdekeltek elemezheti kattintások szélesebb időkeretben, hogy segítsen nekik értékelni teljesítményét írók, tervezési elemek vagy reklámok stb.
a kattintásokra vonatkozó adatok legalább két módon gyűjthetők össze., Ideális esetben egy kattintás “naplózva” jelenik meg, amikor ez megtörténik, és ez a módszer bizonyos funkciókat igényel, amelyek az esemény bekövetkezésekor releváns információkat vesznek fel. Alternatív megoldásként felvetheti azt a feltételezést, hogy az oldalnézet egy kattintás eredménye, ezért jelentkezzen be egy szimulált kattintással, amely az oldalnézethez vezetett.
Customer lifecycle analyticsEdit
a Customer lifecycle analytics egy látogatóközpontú megközelítés a méréshez, amely az életciklus marketing ernyője alá tartozik. Oldalnézetek, kattintások és egyéb események (például API-hívások, harmadik fél szolgáltatásaihoz való hozzáférés stb.),) mind egyéni látogatóhoz kötődnek, ahelyett, hogy külön adatpontként tárolnák őket. A customer lifecycle analytics megpróbálja az összes adatpontot egy marketingcsatornába csatlakoztatni, amely betekintést nyújt a látogatók viselkedésébe és a weboldal optimalizálásába.
más módszerekszerkesztés
néha más adatgyűjtési módszereket is alkalmaznak. A csomagszippantás a webszerver és a külvilág között áthaladó hálózati forgalom szippantásával gyűjt adatokat. Csomag szippantás nem jár változások a weboldalak vagy webszerverek., A webanalitika integrálása a webszerver szoftverbe is lehetséges. Mindkét módszer azt állítja, hogy jobb valós idejű adatokat szolgáltat, mint más módszerek.