Perus Vaiheet Web-Analytiikan Prosessi

Useimmat web-analytiikan prosessit tulevat alas neljä keskeistä vaihetta tai vaihetta, jotka ovat:

  • tietojen Keruu: Tämä vaihe on kokoelma perus -, alkeis tiedot. Yleensä nämä tiedot ovat asioita. Tämän vaiheen tavoitteena on kerätä tietoja.
  • tietojen käsittely tiedoksi: tässä vaiheessa otetaan yleensä laskuja ja tehdään niistä suhdeluvut,vaikka niitä voi vielä olla jonkin verran., Tämän vaiheen tavoitteena on viedä tiedot ja täyttää sen tiedot, erityisesti mittareita.
  • Kehittää KPI: Tässä vaiheessa keskitytään käyttää suhdelukuja (ja laskee) ja infusing niitä liiketoiminta strategioita, kutsutaan key performance indicators (KPI). KPIs käsittelee monesti muuntokysymyksiä, mutta ei aina. Se riippuu organisaatiosta.
  • Online-strategian laatiminen: tässä vaiheessa on kyse organisaation tai liiketoiminnan online-tavoitteista, tavoitteista ja standardeista., Nämä strategiat liittyvät yleensä rahan tekemiseen, rahan säästämiseen tai markkinaosuuden kasvattamiseen.

Toinen keskeinen toiminto kehittämä analyytikot optimointi sivustot ovat kokeiluja,

  • Kokeiluja ja koettelemuksia: A/B-testaus on valvottava kokeilla kaksi vaihtoehtoa, online-asetukset, kuten web-kehitystä.

A / B-testauksen tavoitteena on tunnistaa ja ehdottaa verkkosivuille muutoksia, jotka lisäävät tai maksimoivat tilastollisesti testatun kiinnostavan tuloksen vaikutuksen.

Jokainen vaihe vaikuttaa tai voi vaikuttaa (ts.,, asemat) sitä edeltävä tai sitä seuraava vaihe. Niin, joskus tietoa, joka on käytettävissä keräämiseen vaikuttaa online-strategia. Muulloin nettistrategia vaikuttaa kerättyihin tietoihin.

Web analytics technologiesEdit

On olemassa ainakin kaksi eri web-analytiikka, off-site ja on-site web-analytiikka.

  • Off-site web analytics viittaa web-mittaukseen ja analyysiin riippumatta siitä, omistaako tai ylläpitääkö henkilö verkkosivustoa., Siihen kuuluu sivuston potentiaalisen yleisömäärän (mahdollisuus), ääniosuuden (näkyvyys) ja koko Internetissä tapahtuvan buzzin (Kommentit) mittaaminen.
  • sivuston verkkoanalytiikka, joka on näistä kahdesta yleisempi, mittaa kävijän käyttäytymistä kerran tietyllä sivustolla. Tämä sisältää sen kuljettajat ja muunnokset; esimerkiksi sen, missä määrin erilaiset laskeutumissivut liittyvät verkko-ostoksiin. Web analytics-sivusto mittaa tietyn verkkosivuston suorituskykyä kaupallisessa yhteydessä., Näitä tietoja verrataan tyypillisesti suorituskyvyn keskeisiin suorituskykyindikaattoreihin, ja niitä käytetään verkkosivuston tai markkinointikampanjan yleisövasteen parantamiseen. Google Analytics ja Adobe Analytics on yleisimmin käytetty online-sivuston web-analytiikan palvelua; vaikka uusia työkaluja ovat kehittymässä, jotka tarjoavat ylimääräisiä kerroksia tiedot, mukaan lukien lämmön karttoja ja istunnon replay.

Historiallisesti, web analytics on käytetty viittaamaan paikan päällä kävijä mittaus. Tämä merkitys on kuitenkin hämärtynyt lähinnä siksi, että myyjät tuottavat työkaluja, jotka kattavat molemmat luokat., Monet eri myyjät tarjoavat paikan päällä Web analytics-ohjelmistoja ja-palveluita. Tietojen keräämisessä on kaksi keskeistä teknistä tapaa. Ensimmäinen ja perinteinen menetelmä, palvelimen lokitiedoston analyysi, lukee lokitiedostoja, jossa web-palvelin records-pyyntöjä selaimissa. Toinen menetelmä, sivun koodaus, käyttää JavaScript upotettu verkkosivun tehdä kuvan pyynnöt kolmannen osapuolen analytics-oma palvelin, kun verkkosivu on suoritettu web-selaimen tai, jos haluat, kun hiirtä klikkaa tapahtuu. Molemmat keräävät tietoja, joita voidaan käsitellä verkkoliikenneraporttien tuottamiseksi.,

Web analytics-tiedot sourcesEdit

keskeinen tavoite web-analytiikka on kerätä ja analysoida tietoja, jotka liittyvät web-liikennettä ja käyttötavat. Tiedot tulee pääasiassa neljästä lähteestä:

  1. Suora HTTP-pyynnön tiedot: suoraan peräisin HTTP-pyynnön viestit (HTTP-pyynnön otsikot).
  2. Verkko-tasolla ja palvelimen tuottamat tiedot, jotka liittyvät HTTP-pyyntöjä: ole osa HTTP-pyynnön, mutta se on tarpeen onnistuneen pyynnön lähetykset, esimerkiksi IP-osoitteen pyytäjälle.,
  3. Sovellus-tason tiedot lähetetään HTTP-pyyntöjä: syntyy ja käsitellään sovellustason ohjelmia (kuten JavaScript, PHP, ja ASP.Net), mukaan lukien istunto ja lähetteet. Niitä napataan yleensä sisäisten lokien avulla julkisten verkkoanalytiikkapalvelujen sijaan.
  4. Ulkoiset tiedot: voidaan yhdistää hotellin tiedot, joiden avulla lisätä sivuston käyttäytyminen tiedot edellä on kuvattu ja tulkita web-käyttö., Esimerkiksi IP-osoitteet ovat yleensä liittyy Maantieteellisillä alueilla ja internet-palveluntarjoajat, e-mail avoin ja click-through hinnat, suoramainonta kampanja tiedot, myynnin ja johtaa historian, tai muita tietotyyppejä kuin tarvitaan.

Web-palvelimen loki-tiedosto analysisEdit

Web-palvelimet tallentaa joitakin niiden tapahtumat lokitiedostoon. Se oli pian tajusi, että nämä lokitiedostot voidaan lukea ohjelma antaa tiedot suosio verkkosivuilla. Näin syntyi web log-analysointiohjelmisto.,

1990-luvun alussa, sivuston tilastot koostuivat pääasiassa laskemalla asiakkaan pyyntöihin (tai osuu) tehty web-palvelin. Tämä oli aluksi kohtuullinen menetelmä, sillä jokainen verkkosivusto koostui usein yhdestä HTML-tiedostosta. Kuitenkin, käyttöönoton kuvien HTML, ja sivustot, jotka ulottuivat useita HTML-tiedostoja, tämä määrä tuli vähemmän hyötyä. IPRO julkaisi ensimmäisen true commercial Log Analyzerin vuonna 1994.

Kaksi mittayksiköt otettiin käyttöön 1990-luvun puolivälissä arvioida tarkemmin määrää ihmisen toimintaa web-palvelimia., Nämä olivat sivunäkymiä ja vierailuja (tai istuntoja). Sivun näkymä oli määritelty pyynnön web-palvelimen sivun, toisin kuin graafinen, kun taas vierailu oli määritelty sekvenssi pyyntöjä yksilöidä asiakas, joka päättyi sen jälkeen, kun on ollut käyttämättömänä tietyn aikaa, yleensä 30 minuuttia.

syntyminen hakukoneiden robotit ja robotit 1990-luvun lopulla, pitkin kanssa web valtakirjoja ja dynaamisesti määritetty IP-osoitteet suuret yritykset ja Palveluntarjoajat, tehdä se vaikeampi tunnistaa ainutlaatuinen ihmisten kävijöitä verkkosivuilla., Log-analysaattorit vastasivat seuraamalla evästeiden avulla käyntejä ja sivuuttamalla tunnettujen hämähäkkien pyynnöt.

web-välimuistien laajamittainen käyttö aiheutti ongelmia myös log-tiedostoanalyysissä. Jos henkilö tarkistaa sivun, toinen pyyntö haetaan usein selaimen välimuistista, joten web-palvelin ei saa pyyntöä. Tämä tarkoittaa sitä, että henkilön polku sivuston kautta katoaa. Välimuistia voi olla voitti määrittämällä web-palvelimen, mutta tämä voi johtaa huonontuneen suorituskyvyn kävijä ja suurempi kuormitus palvelimia.,

Sivu taggingEdit

huoli tarkkuuden log-tiedostosi läsnä välimuistiin, ja halu pystyä suorittaa web-analytiikan kuin ulkoistettu palvelu, johti toinen tiedonkeruu menetelmä, sivun koodaus tai Web bugs’.

Vuonna 1990-luvun puolivälissä, Web-laskurit olivat usein nähnyt — nämä olivat kuvat sisältyvät web-sivun, joka osoitti, kuinka monta kertaa kuva oli pyydetty, joka oli arvio käyntien määrä sivulla., 1990-luvun lopulla, tämä käsite kehittynyt myös pieni näkymätön kuva sen sijaan on näkyvissä yksi, ja käyttämällä JavaScript, kulkea pitkin kuvan kanssa pyytää, että tietyt tiedot-sivulla ja vierailija. Tämän jälkeen verkkoanalytiikkayritys voi käsitellä näitä tietoja etänä ja tuottaa laajoja tilastoja.

web-analytiikan palvelu hoitaa myös luokittamalla evästeen käyttäjälle, joka voi yksilöllisesti tunnistaa heille käynnin aikana ja myöhemmät käynnit., Evästeiden hyväksymisasteet vaihtelevat huomattavasti verkkosivustojen välillä ja voivat vaikuttaa kerättyjen ja raportoitujen tietojen laatuun.

verkkosivuilla Kerätä tietoja käyttämällä kolmannen osapuolen tiedonkeruu-palvelimen (tai jopa in-house data collection server) vaatii ylimääräisen DNS lookup käyttäjän tietokoneen IP-osoitteen määrittäminen kokoelma-palvelin. Toisinaan onnistuneiden tai epäonnistuneiden DNS-tarkastusten suorittamisen viivästyminen voi johtaa siihen, että tietoja ei kerätä.,

kun kasvava suosio Ajax-pohjaisia ratkaisuja, vaihtoehtoisen käytön näkymätön kuva on toteuttaa soittaa takaisin palvelimelle sulatettu sivu. Tässä tapauksessa, kun sivu muodostetaan web-selain, pala Ajax-koodin soittaa takaisin palvelimelle ja välittää tietoa asiakkaasta, joka voi sitten olla yhdistettyjä web analytics yritys. Tämä on jollain tavalla virheellinen selaimen rajoitukset palvelimet, joihin voidaan ottaa yhteyttä XmlHttpRequest esineitä., Myös tämä menetelmä voi johtaa hieman pienempi raportoitu liikennemääriin, koska kävijä voi pysäyttää sivun lataamisen puolivälissä vastausta ennen Ajax-kutsu on tehty.

Lokitiedoston analyysi vs sivu taggingEdit

Molemmat lokitiedoston analyysi ohjelmia ja sivun koodaus ratkaisut ovat helposti saatavilla yrityksille, jotka haluavat suorittaa web-analytiikka. Joissakin tapauksissa sama verkkoanalytiikkayritys tarjoaa molempia lähestymistapoja. Sitten herää kysymys, minkä menetelmän yrityksen pitäisi valita. Jokaisessa lähestymistavassa on etuja ja haittoja.,

Edut lokitiedoston analysisEdit

tärkeimmät edut lokitiedoston analyysi yli sivun koodaus ovat seuraavat:

  • web-palvelin yleensä jo tuottaa lokitiedostoja, joten raaka data on jo saatavilla. Verkkosivuihin ei tarvitse tehdä muutoksia.
  • tiedot ovat yhtiön omilla palvelimilla, ja ne ovat standardissa, eivät patentoidussa muodossa. Tämä helpottaa yritys vaihtaa ohjelmia myöhemmin, käyttää useita eri ohjelmia, ja analysoida historiallisia tietoja uuden ohjelman.,
  • Lokitiedostot sisältävät tietoa vierailut hakukoneiden robotit, jotka yleensä eivät kuulu analytics-työkaluja käyttäen JavaScript-koodaus. (Jotkut hakukoneet eivät välttämättä edes suorita JavaScriptiä sivulla.) Vaikka näitä ei pitäisi raportoida osana ihmisen toimintaa, se on hyödyllistä tietoa hakukoneoptimointiin.
  • lokitiedostot eivät vaadi ylimääräisiä DNS-hakuja tai TCP-hitaita käynnistyksiä. Näin ollen ei ole ulkoisia palvelinpuheluja, jotka voivat hidastaa sivun latausnopeuksia tai johtaa lukemattomiin sivunäkymiin.
  • WWW-palvelin tallentaa luotettavasti jokaisen tekemänsä tapahtuman, e.,g. PDF-dokumenttien ja skriptien tuottaman sisällön palveleminen, eikä se perustu vierailijoiden selaimiin, jotka tekevät yhteistyötä.

Edut sivu taggingEdit

tärkeimmät edut-sivun koodaus yli lokitiedoston analyysi ovat seuraavat:

  • Inventointi on aktivoitu, avaamalla sivun (ottaen huomioon, että web client toimii tag skriptejä), ei pyytää sitä palvelimelta. Jos sivu on välimuistissa, sitä ei lasketa palvelinpohjaisella lokianalyysillä. Välimuistissa olevat sivut voivat muodostaa jopa kolmanneksen kaikista sivunäkymistä, mikä voi vaikuttaa kielteisesti moniin sivuston mittareihin.,
  • tiedot kerätään sivulla olevan komponentin (”tag”) kautta, yleensä Javascriptillä kirjoitettuna, joskin myös Java tai Flash voidaan käyttää. Ajax voidaan käyttää myös yhdessä server-side scripting kieli (kuten PHP) manipuloida ja (yleensä) tallentaa sen tietokantaan, periaatteessa mahdollistaa täydellisen kontrollin, miten tiedot on edustettuna.
  • käsikirjoituksen voi saada lisää tietoa web-asiakas tai käyttäjä ei ole lähettänyt kyselyn, kuten vierailijoiden näytön kokoa ja tavaran hinta ne ostanut.,
  • Sivun koodaus voi raportoida tapahtumat, joihin ei liity pyynnön web-palvelimelle, kuten interaktio sisällä Flash-elokuvia, osittainen lomakkeen loppuun, hiiren tapahtumia, kuten onClick, onMouseOver, onFocus, onBlur jne.
  • sivun koodaus palvelu onnistuu luokittamalla evästeitä kävijöitä; log file analysis, palvelin on määritetty tähän.
  • page tagging on sellaisten yritysten saatavilla, joilla ei ole pääsyä omiin web-palvelimiinsa.
  • viime aikoina page taggingista on tullut verkkoanalytiikan standardi.,

taloudelliset factorsEdit

Logfile-analyysi tehdään lähes aina talon sisällä. Sivumerkintä voidaan suorittaa talon sisällä, mutta se tarjotaan useammin kolmannen osapuolen palveluna. Taloudellinen ero näiden kahden mallin välillä voi olla myös vastike yritykselle, joka päättää, mistä ostaa.

  • Lokitiedoston analyysi sisältää tyypillisesti kertaluonteinen ohjelmiston hankinta; kuitenkin, jotkut myyjät ovat ottamassa käyttöön vuosittain enintään sivun näkemyksiä ylimääräisiä kustannuksia prosessin muita tietoja., Kaupallisten tuotteiden lisäksi saatavilla on useita avoimen lähdekoodin logfile-analyysityökaluja maksutta.
  • Logfile-analyysitietoja varten on tallennettava ja arkistoitava tiedot, jotka kasvavat usein suuriksi nopeasti. Vaikka kustannukset laitteiston tehdä tämä on minimaalinen, yläpuolella IT-osasto voi olla huomattava.
  • Logfile-analysointiohjelmisto on säilytettävä, mukaan lukien päivitykset ja tietoturvalaastarit.
  • Complex page tagging-myyjät veloittavat kuukausimaksun, joka perustuu volyymiin eli kerättyjen sivunäkymien määrään kuukaudessa.,

ratkaisu, Joka on halvempi toteuttaa, riippuu paljon teknistä asiantuntemusta yrityksen sisällä, toimittaja valittu, määrä toimintaa nähnyt verkkosivuilla, syvyys ja millaista tietoa haetaan, ja määrä erillisiä sivustoja, jotka tarvitsevat tilastoja.

riippumatta toimittajan ratkaisusta tai tiedonkeruumenetelmästä tulisi mukaan myös web-kävijäanalyysin ja-tulkinnan kustannukset. Toisin sanoen kustannukset, jotka aiheutuvat raakadatan muuntamisesta toimintakelpoiseksi informaatioksi., Tämä voi johtua kolmannen osapuolen konsulttien käytöstä, kokeneen verkkoanalyytikon palkkaamisesta tai sopivan sisäpiiriläisen koulutuksesta. Sen jälkeen voidaan tehdä kustannus-hyötyanalyysi. Mitä tuloja tai kustannussäästöjä voi saada esimerkiksi analysoimalla web-kävijätietoja?

Hybridi methodsEdit

Jotkut yritykset tuottavat ratkaisuja, jotka keräävät dataa sekä log-tiedostoja, ja sivun koodaus ja osaa analysoida sekä erilaista. Hybridimenetelmällä ne pyrkivät tuottamaan tarkempia tilastoja kuin kumpikaan menetelmä yksinään., Varhaisen hybridiratkaisun valmisti vuonna 1998 Rufus Evison.

Visitorseditin geolokaatio

IP-geolokaatiolla on mahdollista seurata vierailijoiden paikkoja. IP geolocation-tietokannan tai API: n avulla vierailijat voidaan siirtää kaupungin, alueen tai maan tasolle.

IP-Tiedustelu -, tai Internet Protocol (IP) – Älykkyys, on teknologia, joka yhdistää Internetin ja luokittelee IP-osoitteet parametrit, kuten maantieteellinen sijainti (maa, alue, valtio, kaupunki ja postinumero), yhteyden tyyppi, Internet Service Provider (ISP), välityspalvelimen tiedot, ja enemmän., Ensimmäisen sukupolven IP-älykkyydestä käytettiin nimitystä geotargetointi-tai geolokaatioteknologia. Tätä tietoa käytetään yritysten online-yleisön segmentointi sovelluksia, kuten verkkomainonnan, behavioral targeting, sisällön lokalisointi (tai verkkosivuilla lokalisointi), digitaalisten oikeuksien hallinta, personointi, online-petoksia havaitseminen, paikallinen haku, parannettu analytics, global traffic management ja sisällön jakelu.,

Klikkaa analyticsEdit

Clickpath Analyysi viittaavat sivut vasemmalla ja nuolia ja suorakulmioita eri paksuus ja lakeus symboloivan liikkeen määrä.

Click analytics on tietyntyyppinen verkkoanalytiikka, joka kiinnittää erityistä huomiota klikkauksiin.

yleisesti, click analytics keskittyy paikan päällä tapahtuvaan analytiikkaan. Verkkosivuston toimittaja käyttää click Analyticsia määritelläkseen tietyn sivustonsa suorituskyvyn sen suhteen, missä sivuston käyttäjät klikkaavat.,

Myös, napsauta analytics voi tapahtua reaaliaikaisesti tai ”epätodellinen”-aikaa, riippuen siitä, millaista tietoa haetaan. Tyypillisesti etusivun toimittajat korkean liikenteen uutismediasivustoilla haluavat seurata sivujaan reaaliajassa, optimoida sisällön. Toimittajat, suunnittelijat tai muunlaiset sidosryhmät voivat analysoida klikkauksia laajemmalla aikataululla auttaakseen heitä arvioimaan kirjoittajien, suunnitteluelementtien tai mainosten suorituskykyä jne.

tiedot klikkauksista voidaan kerätä ainakin kahdella tavalla., Ihannetapauksessa, klikkaus on ”kirjautunut”, kun se tapahtuu, ja tämä menetelmä vaatii joitakin toimintoja, jotka poimii relevantteja tietoja, kun tapahtuma tapahtuu. Vaihtoehtoisesti voidaan olettaa, että sivunäkymä on klikkauksen tulos, ja näin ollen kirjata simuloitu klikkaus, joka johti kyseiseen sivunäkymään.

Asiakkaan elinkaaren analyticsEdit

Asiakkaan elinkaaren analytics on kävijä-centric lähestymistapa mittaus, joka kuuluu sateenvarjon elinkaaren markkinointi. Sivunäkymät, klikkaukset ja muut tapahtumat (kuten API-puhelut, pääsy kolmannen osapuolen palveluihin jne.,) ovat kaikki sidoksissa yksittäiseen kävijään sen sijaan, että ne tallennettaisiin erillisinä datapisteinä. Asiakas lifecycle analytics yrittää yhdistää kaikki datapisteet markkinointisuppiloon, joka voi tarjota oivalluksia kävijöiden käyttäytymisestä ja verkkosivujen optimoinnista.

joskus käytetään muita menetelmiäedit

muita tiedonkeruumenetelmiä. Packet sniffing kerää tietoja nuuhkimalla verkkopalvelimen ja ulkomaailman välistä verkkoliikennettä. Packet sniffing ei sisällä muutoksia www-sivuille tai web-palvelimille., Myös verkkoanalytiikan integroiminen www-palvelinohjelmistoon itsessään on mahdollista. Molemmat menetelmät väittävät tarjoavansa parempaa reaaliaikaista tietoa kuin muut menetelmät.

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *