Grundlegende Schritte des Webanalyseprozesses

Die meisten Webanalyseprozesse umfassen vier wesentliche Phasen oder Schritte:

  • Datenerfassung: Diese Phase ist die Erfassung der grundlegenden Elementardaten. Normalerweise sind diese Daten zählt der Dinge. Das Ziel dieser Phase ist es, die Daten zu sammeln.
  • Verarbeitung von Daten zu Informationen: Diese Phase nimmt normalerweise Zählungen auf und macht sie zu Verhältnissen, obwohl es immer noch einige Zählungen geben kann., Das Ziel dieser Phase ist es, die Daten zu übernehmen und sie in Informationen, insbesondere Metriken, umzuwandeln.
  • Entwicklung von KPI: Diese Phase konzentriert sich darauf, die Kennzahlen (und Zählungen) zu verwenden und sie mit Geschäftsstrategien zu verknüpfen, die als Key Performance Indicators (KPI) bezeichnet werden. KPIs befassen sich häufig mit Konvertierungsaspekten, jedoch nicht immer. Es hängt von der Organisation ab.
  • Online-Strategie formulieren: Diese Phase befasst sich mit den Online-Zielen, – Zielen und-Standards für die Organisation oder das Unternehmen., Diese Strategien beziehen sich normalerweise darauf, Geld zu verdienen, Geld zu sparen oder den Marktanteil zu erhöhen.

Eine weitere wesentliche Funktion, die von den Analysten für die Optimierung der Websites entwickelt wurde, sind die Experimente

  • Experimente und Tests: A/B-Tests sind ein kontrolliertes Experiment mit zwei Varianten in Online-Einstellungen wie Webentwicklung.

Das Ziel von A / B-Tests ist es, Änderungen an Webseiten zu identifizieren und vorzuschlagen, die die Wirkung eines statistisch getesteten Ergebnisses von Interesse erhöhen oder maximieren.

Jede Stufe wirkt oder kann sich auswirken (d.h.,, 1) die Stufe davor oder danach. Manchmal wirken sich die zur Sammlung verfügbaren Daten auf die Online-Strategie aus. In anderen Fällen wirkt sich die Online-Strategie auf die gesammelten Daten aus.

Webanalysetechnologienedit

Es gibt mindestens zwei Kategorien von Webanalysen, Off-Site-und On-Site-Webanalysen.

  • Off-Site-Webanalysen beziehen sich auf Webmessungen und-analysen, unabhängig davon, ob eine Person eine Website besitzt oder unterhält., Es umfasst die Messung der potenziellen Zielgruppe (Opportunity), des Stimmenanteils (Visibility) und des Buzz (Comments) einer Website, die im gesamten Internet stattfindet.
  • On-Site-Webanalysen, die häufiger der beiden, messen das Verhalten eines Besuchers einmal auf einer bestimmten Website. Dazu gehören seine Treiber und Conversions; zum Beispiel der Grad, in dem verschiedene Zielseiten mit Online-Käufen verknüpft sind. On-Site-Webanalysen messen die Leistung einer bestimmten Website im kommerziellen Kontext., Diese Daten werden in der Regel mit wichtigen Leistungsindikatoren für die Leistung verglichen und zur Verbesserung der Publikumsreaktion einer Website oder Marketingkampagne verwendet. Google Analytics und Adobe Analytics sind der am häufigsten verwendete Webanalysedienst vor Ort; Es entstehen jedoch neue Tools, die zusätzliche Informationsebenen bereitstellen, einschließlich Heatmaps und Sitzungswiedergabe.

Historisch gesehen wurde die Webanalyse verwendet, um auf die Besuchermessung vor Ort zu verweisen. Diese Bedeutung ist jedoch verschwommen geworden, hauptsächlich weil Anbieter Werkzeuge herstellen, die sich über beide Kategorien erstrecken., Viele verschiedene Anbieter bieten Webanalysesoftware und-dienste vor Ort an. Es gibt zwei technische Möglichkeiten, die Daten zu sammeln. Die erste und traditionelle Methode, die Serverprotokolldateianalyse, liest die Protokolldateien, in denen der Webserver Dateianforderungen von Browsern aufzeichnet. Die zweite Methode, Page Tagging, verwendet JavaScript, das in die Webseite eingebettet ist, um Bildanforderungen an einen Analytics-dedizierten Server eines Drittanbieters zu stellen, wenn eine Webseite von einem Webbrowser gerendert wird oder, falls gewünscht, wenn ein Mausklick erfolgt. Beide sammeln Daten, die zur Erstellung von Webverkehrsberichten verarbeitet werden können.,

Web Analytics data sourcesEdit

Das grundlegende Ziel von Web Analytics ist die Erfassung und Analyse von Daten im Zusammenhang mit Web-Traffic und Nutzungsmuster. Die Daten stammen hauptsächlich aus vier Quellen:

  1. Direkte HTTP-Anforderungsdaten: direkt aus HTTP-Anforderungsnachrichten (HTTP-Anforderungsheader).
  2. Netzwerkebene und servergenerierte Daten im Zusammenhang mit HTTP-Anforderungen: nicht Teil einer HTTP-Anforderung, aber für erfolgreiche Anforderungsübertragungen erforderlich – z. B. IP-Adresse eines Anforderers.,
  3. Daten auf Anwendungsebene, die mit HTTP-Anforderungen gesendet werden: generiert und verarbeitet von Programmen auf Anwendungsebene (wie JavaScript, PHP und ASP.Net), einschließlich Sitzungen und Empfehlungen. Diese werden normalerweise von internen Protokollen und nicht von öffentlichen Webanalysediensten erfasst.
  4. Externe Daten: Können mit Daten vor Ort kombiniert werden, um die oben beschriebenen Verhaltensdaten der Website zu erweitern und die Webnutzung zu interpretieren., Beispielsweise werden IP-Adressen normalerweise mit geografischen Regionen und Internetdienstanbietern, E-Mail-Öffnungs-und Klickraten, Direct-Mail-Kampagnendaten, Vertriebs-und Lead-Verlauf oder anderen Datentypen nach Bedarf verknüpft.

Webserver-Protokolldatei analysisEdit

Webserver zeichnen einige ihrer Transaktionen in einer Protokolldatei auf. Es wurde bald erkannt, dass diese Protokolldateien von einem Programm gelesen werden konnten, um Daten über die Beliebtheit der Website bereitzustellen. So entstand Web-Log-Analyse-Software.,

In den frühen 1990er Jahren bestand die Website-Statistik hauptsächlich darin, die Anzahl der Clientanforderungen (oder-treffer) an den Webserver zu zählen. Dies war zunächst eine vernünftige Methode, da jede Website oft aus einer einzigen HTML-Datei bestand. Mit der Einführung von Bildern in HTML und Websites, die sich über mehrere HTML-Dateien erstreckten, wurde diese Zählung jedoch weniger nützlich. Der erste echte kommerzielle Log Analyzer wurde 1994 von IPRO veröffentlicht.

Mitte der 1990er Jahre wurden zwei Maßeinheiten eingeführt, um die menschliche Aktivität auf Webservern genauer zu messen., Dies waren Seitenaufrufe und Besuche (oder Sitzungen). Eine Seitenansicht wurde als Anforderung an den Webserver für eine Seite im Gegensatz zu einer Grafik definiert, während ein Besuch als Folge von Anforderungen eines eindeutig identifizierten Clients definiert wurde, die nach einer bestimmten Inaktivität, normalerweise 30 Minuten, abgelaufen sind.

Das Aufkommen von Suchmaschinenspinnen und-robotern in den späten 1990er Jahren sowie Webproxys und dynamisch zugewiesenen IP-Adressen für große Unternehmen und ISPs erschwerten die Identifizierung eindeutiger menschlicher Besucher einer Website., Protokollanalysatoren reagierten, indem sie Besuche durch Cookies verfolgten und Anfragen bekannter Spinnen ignorierten.

Die umfangreiche Verwendung von Web-Caches stellte auch ein Problem für die Protokolldateianalyse dar. Wenn eine Person eine Seite erneut besucht, wird die zweite Anforderung häufig aus dem Cache des Browsers abgerufen, sodass keine Anforderung vom Webserver empfangen wird. Dies bedeutet, dass der Weg der Person durch die Site verloren geht. Caching kann durch die Konfiguration des Webservers besiegt werden, Dies kann jedoch zu einer Verschlechterung der Leistung für den Besucher und einer größeren Belastung der Server führen.,

Page taggingEdit

Bedenken hinsichtlich der Genauigkeit der Protokolldateianalyse bei Vorhandensein von Caching und des Wunsches, Webanalysen als ausgelagerter Dienst durchführen zu können, führten zur zweiten Datenerfassungsmethode, Page Tagging oder „Web Bugs“.

Mitte der 1990er Jahre wurden häufig Webzähler gesehen — dies waren Bilder, die auf einer Webseite enthalten waren und die Anzahl der Male zeigten, wie oft das Bild angefordert wurde, was eine Schätzung der Anzahl der Besuche auf dieser Seite war., In den späten 1990er Jahren entwickelte sich dieses Konzept, um ein kleines unsichtbares Bild anstelle eines sichtbaren Bildes aufzunehmen und mithilfe von JavaScript bestimmte Informationen über die Seite und den Besucher an das Bild weiterzugeben. Diese Informationen können dann von einem Webanalyseunternehmen remote verarbeitet und umfangreiche Statistiken generiert werden.

Der Webanalysedienst verwaltet auch den Prozess der Zuweisung eines Cookies an den Benutzer, der ihn während seines Besuchs und bei nachfolgenden Besuchen eindeutig identifizieren kann., Die Cookie-Akzeptanzraten variieren erheblich zwischen den Websites und können die Qualität der gesammelten und gemeldeten Daten beeinträchtigen.

Das Sammeln von Website-Daten mithilfe eines Datenerfassungsservers eines Drittanbieters (oder sogar eines internen Datenerfassungsservers) erfordert eine zusätzliche DNS-Suche durch den Computer des Benutzers, um die IP-Adresse des Erfassungsservers zu bestimmen. Gelegentlich können Verzögerungen beim Abschluss einer erfolgreichen oder fehlgeschlagenen DNS-Suche dazu führen, dass keine Daten gesammelt werden.,

Mit der zunehmenden Beliebtheit Ajax-basierter Lösungen besteht eine Alternative zur Verwendung eines unsichtbaren Bildes darin, einen Rückruf von der gerenderten Seite auf den Server zu implementieren. In diesem Fall wird beim Rendern der Seite im Webbrowser ein Ajax-Code an den Server zurückgerufen und Informationen über den Client übergeben, die dann von einem Webanalyseunternehmen aggregiert werden können. Dies ist in gewisser Weise fehlerhaft durch Browser-Einschränkungen auf den Servern, die mit XMLHttpRequest-Objekten kontaktiert werden können., Diese Methode kann auch zu einem etwas niedrigeren gemeldeten Datenverkehr führen, da der Besucher möglicherweise das Laden der Seite in der Mitte der Antwort stoppt, bevor der Ajax-Aufruf ausgeführt wird.

Logfile-Analyse vs Page taggingEdit

Sowohl Logfile-Analyseprogramme als auch Page Tagging-Lösungen stehen Unternehmen zur Verfügung, die Webanalysen durchführen möchten. In einigen Fällen bietet dasselbe Webanalyseunternehmen beide Ansätze an. Es stellt sich dann die Frage, welche Methode ein Unternehmen wählen soll. Es gibt Vorteile und Nachteile für jeden Ansatz.,

Vorteile von logfile analysisEdit

Die Hauptvorteile von logfile Analysis gegenüber Page Tagging sind folgende:

  • Der Webserver erzeugt normalerweise bereits Protokolldateien, sodass die Rohdaten bereits verfügbar sind. Es sind keine Änderungen an der Website erforderlich.
  • Die Daten befinden sich auf den eigenen Servern des Unternehmens und sind in einem Standardformat und nicht in einem proprietären Format. Dies erleichtert es einem Unternehmen, später Programme zu wechseln, verschiedene Programme zu verwenden und historische Daten mit einem neuen Programm zu analysieren.,
  • Logfiles enthalten Informationen zu Besuchen von Suchmaschinen-Spidern, die in der Regel mit JavaScript-Tagging von den Analysetools ausgeschlossen sind. (Einige Suchmaschinen führen möglicherweise nicht einmal JavaScript auf einer Seite aus.) Obwohl diese nicht als Teil der menschlichen Aktivität gemeldet werden sollten, sind sie nützliche Informationen für die Suchmaschinenoptimierung.
  • Logfiles erfordern keine zusätzlichen DNS-Lookups oder langsame TCP-Starts. Daher gibt es keine externen Serveraufrufe, die die Seitenladegeschwindigkeit verlangsamen oder zu nicht abgezählten Seitenaufrufen führen können.
  • Der Webserver zeichnet zuverlässig jede Transaktion auf, die er durchführt, e.,g. Bereitstellung von PDF-Dokumenten und Inhalten, die durch Skripte generiert werden, und nicht auf die Zusammenarbeit der Browser der Besucher angewiesen.

Vorteile von Page taggingEdit

Die Hauptvorteile von Page Tagging gegenüber der Protokolldateianalyse sind folgende:

  • Die Zählung wird durch Öffnen der Seite aktiviert (vorausgesetzt, der Webclient führt die Tag-Skripte aus), ohne sie vom Server anzufordern. Wenn eine Seite zwischengespeichert wird, wird sie nicht durch serverbasierte Protokollanalyse gezählt. Zwischengespeicherte Seiten können bis zu einem Drittel aller Seitenaufrufe ausmachen, was sich negativ auf viele Site-Metriken auswirken kann.,
  • Daten werden über eine Komponente („Tag“) auf der Seite gesammelt, die normalerweise in JavaScript geschrieben ist, obwohl auch Java oder Flash verwendet werden können. Ajax kann auch in Verbindung mit einer serverseitigen Skriptsprache (wie PHP) verwendet werden, um es zu manipulieren und (normalerweise) in einer Datenbank zu speichern, was im Grunde eine vollständige Kontrolle darüber ermöglicht, wie die Daten dargestellt werden.
  • Das Skript hat möglicherweise Zugriff auf zusätzliche Informationen über den Webclient oder den Benutzer, die nicht in der Abfrage gesendet wurden, wie z. B. die Bildschirmgrößen der Besucher und den Preis der von ihnen gekauften Waren.,
  • Page Tagging kann über Ereignisse berichten, die keine Anforderung an den Webserver beinhalten, wie z. B. Interaktionen innerhalb von Flash-Filmen, teilweise Formularvervollständigung, Mausereignisse wie onClick, onMouseOver, onFocus, onBlur usw.
  • Der Page-Tagging-Dienst verwaltet den Prozess der Zuweisung von Cookies an Besucher; Bei der Protokolldateianalyse muss der Server dafür konfiguriert werden.
  • Page Tagging steht Unternehmen zur Verfügung, die keinen Zugriff auf ihre eigenen Webserver haben.
  • In letzter Zeit ist das Seiten-Tagging zu einem Standard in der Webanalyse geworden.,

Wirtschaftliche Faktorenedit

Die Logfile-Analyse wird fast immer im eigenen Haus durchgeführt. Seiten-Tagging kann intern durchgeführt werden, wird jedoch häufiger als Drittanbieterdienst bereitgestellt. Der wirtschaftliche Unterschied zwischen diesen beiden Modellen kann auch eine Überlegung für ein Unternehmen sein, das sich für den Kauf entscheidet.

  • Die Logfile-Analyse beinhaltet in der Regel einen einmaligen Softwarekauf; Einige Anbieter führen jedoch maximale jährliche Seitenaufrufe mit zusätzlichen Kosten ein, um zusätzliche Informationen zu verarbeiten., Neben kommerziellen Angeboten stehen mehrere Open-Source-Logfile-Analysetools kostenlos zur Verfügung.
  • Für die Logfile-Analyse müssen Daten gespeichert und archiviert werden, die oft schnell groß werden. Obwohl die Hardwarekosten dafür minimal sind, kann der Aufwand für eine IT-Abteilung beträchtlich sein.
  • Für Logfile analyse software müssen gepflegt werden, einschließlich updates und sicherheit patches.
  • Komplexe Seiten-Tagging-Anbieter berechnen eine monatliche Gebühr basierend auf dem Volumen, dh der Anzahl der gesammelten Seitenaufrufe pro Monat.,

Welche Lösung günstiger zu implementieren ist, hängt von der Menge des technischen Know-hows innerhalb des Unternehmens, dem gewählten Anbieter, dem Umfang der auf den Websites angezeigten Aktivitäten, der Tiefe und Art der gesuchten Informationen sowie der Anzahl der verschiedenen Websites ab, die Statistiken benötigen.

Unabhängig von der Herstellerlösung oder der verwendeten Datenerfassungsmethode sollten auch die Kosten für die Analyse und Interpretation von Webbesuchern berücksichtigt werden. Das heißt, die Kosten für die Umwandlung von Rohdaten in umsetzbare Informationen., Dies kann durch den Einsatz von externen Beratern, die Einstellung eines erfahrenen Webanalysten oder die Schulung einer geeigneten internen Person erfolgen. Anschließend kann eine Kosten-Nutzen-Analyse durchgeführt werden. Welche Umsatzsteigerung oder Kosteneinsparungen können beispielsweise durch die Analyse der Webbesucherdaten erzielt werden?

Hybride Methodenedit

Einige Unternehmen produzieren Lösungen, die Daten sowohl über Protokolldateien als auch über Seiten-Tagging sammeln und beide Arten analysieren können. Durch die Verwendung einer Hybridmethode zielen sie darauf ab, genauere Statistiken als jede der beiden Methoden selbst zu erstellen., Eine frühe Hybridlösung wurde 1998 von Rufus Evison produziert.

Geolocation von Besuchernedit

Mit IP Geolocation ist es möglich, die Standorte der Besucher zu verfolgen. Mithilfe der IP-Geolocation-Datenbank oder-API können Besucher auf Stadt -, Regional-oder Länderebene geolokalisiert werden.

IP Intelligence oder Internet Protocol (IP) Intelligence ist eine Technologie, die das Internet abbildet und IP-Adressen nach Parametern wie geografischem Standort (Land, Region, Bundesland, Stadt und Postleitzahl), Verbindungstyp, kategorisiert Internet Service Provider (ISP), Proxy-Informationen und mehr., Die erste Generation von IP-Intelligenz wurde als Geotargeting oder Geolocation-Technologie bezeichnet. Diese Informationen werden von Unternehmen für die Online-Zielgruppensegmentierung in Anwendungen wie Online-Werbung, verhaltensorientiertes Targeting, Inhaltslokalisierung (oder Website-Lokalisierung), digitales Rechtemanagement, Personalisierung, Online-Betrugserkennung, lokalisierte Suche, erweiterte Analysen, globales Verkehrsmanagement und Inhaltsverteilung verwendet.,

Klicken Sie auf analyticsEdit

Klickpfad-Analyse mit verweisende Webseiten, auf der linken Seite und die Pfeile und Rechtecke mit unterschiedlicher Dicke und weite zu symbolisieren Bewegung Menge.

Click Analytics ist eine spezielle Art von Webanalysen, die Klicks besondere Aufmerksamkeit schenkt.

Click Analytics konzentriert sich im Allgemeinen auf Analysen vor Ort. Ein Editor einer Website verwendet Click Analytics, um die Leistung seiner Website in Bezug darauf, wo die Benutzer der Website klicken, zu bestimmen.,

Außerdem kann Click Analytics in Echtzeit oder in „unwirklicher“Zeit erfolgen, abhängig von der Art der gesuchten Informationen. In der Regel möchten Front-Page-Editoren auf stark frequentierten Nachrichtenmedien ihre Seiten in Echtzeit überwachen, um den Inhalt zu optimieren. Redakteure, Designer oder andere Arten von Stakeholdern können Klicks auf einen breiteren Zeitrahmen analysieren, um die Leistung von Autoren, Designelementen oder Anzeigen usw. zu bewerten.

Daten über Klicks können auf mindestens zwei Arten gesammelt werden., Idealerweise wird ein Klick „protokolliert“, wenn es auftritt, und diese Methode erfordert einige Funktionen, die relevante Informationen aufnimmt, wenn das Ereignis auftritt. Alternativ kann man davon ausgehen, dass eine Seitenansicht das Ergebnis eines Klicks ist, und daher einen simulierten Klick protokollieren, der zu dieser Seitenansicht geführt hat.

Customer Lifecycle analyticsEdit

Customer Lifecycle Analytics ist ein besucherzentrierter Messansatz, der unter das Dach des Lifecycle Marketing fällt. Seitenaufrufe, Klicks und andere Ereignisse (z. B. API-Aufrufe, Zugriff auf Dienste von Drittanbietern usw.,) sind alle an einen einzelnen Besucher gebunden, anstatt als separate Datenpunkte gespeichert zu werden. Customer Lifecycle Analytics versucht, alle Datenpunkte zu einem Marketing-Trichter zu verbinden, der Einblicke in das Besucherverhalten und die Website-Optimierung bietet.

Andere Methodenedit

Manchmal werden andere Methoden der Datenerfassung verwendet. Packet Sniffing sammelt Daten, indem es den Netzwerkverkehr zwischen dem Webserver und der Außenwelt schnüffelt. Paket-Sniffing beinhaltet keine Änderungen an den Webseiten oder Webservern., Die Integration von Webanalysen in die Webserver-Software selbst ist ebenfalls möglich. Beide Methoden behaupten, bessere Echtzeitdaten als andere Methoden bereitzustellen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.