étapes de base du processus D’analyse Web
La plupart des processus d’analyse web se résument à quatre étapes essentielles, qui sont:
- collecte de données: Cette étape est la collecte des données élémentaires de base. Habituellement, ces données sont des comptes de choses. L’objectif de cette étape est de recueillir les données.
- traitement des données en Informations: cette étape prend généralement des dénombrements et en fait des ratios, bien qu’il puisse encore y avoir des dénombrements., L’objectif de cette étape est de prendre les données et de se conformer en informations, notamment statistiques.
- développer des indicateurs de performance clés: Cette étape se concentre sur l’utilisation des ratios (et des comptes) et leur insufflation avec des stratégies commerciales, appelées indicateurs de performance clés (indicateurs de performance clés). Souvent, les KPI traitent des aspects de conversion, mais pas toujours. Il dépend de l’organisation.
- formulation de la stratégie en ligne: Cette étape concerne les buts, objectifs et normes en ligne pour l’organisation ou l’entreprise., Ces stratégies sont généralement liées à gagner de l’argent, à économiser de l’argent ou à augmenter la part de marché.
Une autre fonction essentielle développée par les analystes pour l’optimisation des sites Web sont les expériences
- expériences et tests: le test A / B est une expérience contrôlée avec deux variantes, dans des paramètres en ligne, tels que le développement web.
l’objectif des tests A / B est d’identifier et de suggérer des modifications aux pages web qui augmentent ou maximisent l’effet d’un résultat statistiquement testé d’intérêt.
chaque étape a un impact ou peut avoir un impact (c.-à-d.,, lecteurs) l’étape qui la précède ou la suit. Ainsi, parfois, les données disponibles pour la collecte ont un impact sur la stratégie en ligne. D’autres fois, la stratégie en ligne affecte les données recueillies.
technologies d’analyse Webmodifier
Il existe au moins deux catégories d’analyse web, l’analyse Web hors site et l’analyse Web sur site.
- l’analyse Web hors site fait référence à la mesure et à l’analyse web, qu’une personne possède ou gère un site web., Il comprend la mesure de l’audience potentielle d’un site web (opportunité), de la part de voix (visibilité) et du buzz (commentaires) qui se passe sur Internet dans son ensemble.
- l’analyse Web sur site, la plus courante des deux, mesure le comportement d’un visiteur une fois sur un site Web spécifique. Cela inclut ses pilotes et les conversions; par exemple, le degré auquel les différentes pages de destination sont associées aux achats en ligne. L’analyse Web sur site mesure la performance d’un site Web spécifique dans un contexte commercial., Ces données sont généralement comparées à des indicateurs de performance clés pour la performance et sont utilisées pour améliorer la réponse du public d’un site web ou d’une campagne marketing. Google Analytics et Adobe Analytics sont les services d’analyse Web sur site les plus utilisés; bien que de nouveaux outils apparaissent qui fournissent des couches supplémentaires d’informations, y compris des cartes thermiques et une relecture de session.
historiquement, l’analyse web a été utilisée pour faire référence à la mesure des visiteurs sur site. Cependant, cette signification est devenue floue, principalement parce que les fournisseurs produisent des outils qui couvrent les deux catégories., De nombreux fournisseurs différents fournissent des logiciels et des services d’analyse web sur site. Il existe deux principaux moyens techniques de collecter les données. La première méthode traditionnelle, l’analyse des fichiers journaux du serveur, lit les fichiers journaux dans lesquels le serveur web enregistre les demandes de fichiers par les navigateurs. La deuxième méthode, le marquage de page, utilise JavaScript intégré dans la page Web pour faire des demandes d’image à un serveur tiers dédié à l’analyse, chaque fois qu’une page web est rendue par un navigateur web ou, si vous le souhaitez, lorsqu’un clic de souris se produit. Les deux collectent des données qui peuvent être traitées pour produire des rapports de trafic web.,
données Web analytics sourcesEdit
L’objectif fondamental de l’analyse web est de recueillir et d’analyser des données relatives au trafic web et les habitudes d’utilisation. Les données proviennent principalement de quatre sources:
- Direct HTTP request data: provient directement des messages de requête HTTP (en-têtes de requête HTTP).
- données générées par le niveau du réseau et le serveur associées aux requêtes HTTP: ne font pas partie d’une requête HTTP, mais elles sont requises pour les transmissions de requêtes réussies – par exemple, l’adresse IP d’un demandeur.,
- données au niveau de L’Application envoyées avec les requêtes HTTP: générées et traitées par des programmes au niveau de l’application (tels que JavaScript, PHP et ASP.Net), y compris la session et les renvois. Ceux-ci sont généralement capturés par des journaux internes plutôt que par des services d’analyse Web publics.
- données externes: peuvent être combinées avec des données sur site pour aider à augmenter les données de comportement du site web décrites ci-dessus et à interpréter l’utilisation du web., Par exemple, les adresses IP sont généralement associées aux régions géographiques et aux fournisseurs de services internet, aux taux d’ouverture et de clics des e-mails, aux données de campagne de publipostage, à l’historique des ventes et des prospects, ou à d’autres types de données selon les besoins.
analyse des fichiers journaux du serveur Webmodifier
les serveurs Web enregistrent certaines de leurs transactions dans un fichier journal. On s’est vite rendu compte que ces fichiers journaux pouvaient être lus par un programme pour fournir des données sur la popularité du site web. Ainsi est né le logiciel d’analyse de journal web.,
Au début des années 1990, les statistiques du site web consistaient principalement à compter le nombre de requêtes (ou de visites) des clients effectuées sur le serveur web. C’était une méthode raisonnable au départ, car chaque site web consistait souvent en un seul fichier HTML. Cependant, avec l’introduction d’images en HTML et de sites Web couvrant plusieurs fichiers HTML, ce nombre est devenu moins utile. Le premier véritable Analyseur de journal commercial a été publié par IPRO en 1994.
deux unités de mesure ont été introduites au milieu des années 1990 pour évaluer plus précisément la quantité d’activité humaine sur les serveurs web., Il s’agissait de pages vues et de visites (ou de sessions). Une vue de page a été définie comme une demande faite au serveur web pour une page, par opposition à un graphique, tandis qu’une visite a été définie comme une séquence de demandes d’un client identifié de manière unique qui a expiré après une certaine période d’inactivité, généralement 30 minutes.
L’émergence des robots et des robots des moteurs de recherche à la fin des années 1990, ainsi que des proxys web et des adresses IP attribuées dynamiquement aux grandes entreprises et aux FAI, a rendu plus difficile l’identification des visiteurs humains uniques sur un site web., Les analyseurs de journaux ont répondu en suivant les visites par des cookies et en ignorant les demandes des araignées connues.
l’utilisation intensive des caches web a également posé un problème pour l’analyse des fichiers journaux. Si une personne revisite une page, la deuxième demande sera souvent récupérée dans le cache du navigateur, et donc aucune demande ne sera reçue par le serveur web. Cela signifie que le chemin de la personne à travers le site est perdu. La mise en cache peut être vaincue en configurant le serveur web, mais cela peut entraîner une dégradation des performances pour le visiteur et une charge plus importante sur les serveurs.,
taggingEdit de Page
Les préoccupations concernant la précision de l’analyse des fichiers journaux en présence de la mise en cache, et le désir de pouvoir effectuer des analyses web en tant que service externalisé, ont conduit à la deuxième méthode de collecte de données, le Tagging de page ou « Web bugs ».
Au milieu des années 1990, les compteurs Web étaient couramment vus-il s’agissait d’images incluses dans une page web qui montraient le nombre de fois où l’image avait été demandée, ce qui était une estimation du nombre de visites sur cette page., À la fin des années 1990, ce concept a évolué pour inclure une petite image invisible au lieu d’une image visible, et, en utilisant JavaScript, pour transmettre avec l’image demande certaines informations sur la page et le visiteur. Ces informations peuvent ensuite être traitées à distance par une société d’analyse web et des statistiques détaillées générées.
le service d’analyse Web gère également le processus d’attribution d’un cookie à l’utilisateur, qui peut l’identifier de manière unique lors de sa visite et lors de visites ultérieures., Les taux d’acceptation des cookies varient considérablement d’un site à l’autre et peuvent affecter la qualité des données collectées et rapportées.
la collecte des données du site web à l’aide d’un serveur de collecte de données tiers (ou même d’un serveur de collecte de données interne) nécessite une recherche DNS supplémentaire par l’ordinateur de l’utilisateur pour déterminer l’adresse IP du serveur de collecte. À l’occasion, des retards dans la réalisation d’une recherche DNS réussie ou échouée peuvent entraîner l’impossibilité de collecter des données.,
avec la popularité croissante des solutions basées sur Ajax, une alternative à l’utilisation d’une image invisible consiste à implémenter un rappel au serveur à partir de la page rendue. Dans ce cas, lorsque la page est rendue sur le navigateur web, un morceau de code Ajax rappelle au serveur et transmet des informations sur le client qui peuvent ensuite être agrégées par une société d’analyse web. Ceci est à certains égards défectueux par les restrictions du navigateur sur les serveurs qui peuvent être contactés avec les objets XmlHttpRequest., En outre, cette méthode peut conduire à des niveaux de trafic signalés légèrement inférieurs, car le visiteur peut arrêter le chargement de la page à la mi-réponse avant que l’appel Ajax ne soit effectué.
analyse de fichier journal vs taggingEdit de page
Les programmes d’analyse de fichier journal et les solutions de marquage de page sont facilement disponibles pour les entreprises qui souhaitent effectuer des analyses web. Dans certains cas, la même société d’analyse Web offrira les deux approches. La question se pose alors de savoir quelle méthode une entreprise devrait choisir. Il y a des avantages et des inconvénients à chaque approche.,
avantages de logfile analysisEdit
Les principaux avantages de l’analyse des fichiers journaux par rapport au balisage de page sont les suivants:
- le serveur web produit normalement déjà des fichiers journaux, de sorte que les données brutes sont déjà disponibles. Aucune modification du site web n’est requise.
- Les données se trouvent sur les propres serveurs de l’entreprise et sont dans un format standard plutôt que propriétaire. Cela permet à une entreprise de changer de programme plus tard, d’utiliser plusieurs programmes différents et d’analyser les données historiques avec un nouveau programme.,
- Les fichiers journaux contiennent des informations sur les visites des spiders des moteurs de recherche, qui sont généralement exclues des outils d’analyse utilisant le balisage JavaScript. (Certains moteurs de recherche peuvent même ne pas exécuter JavaScript sur une page.) Bien que ceux-ci ne doivent pas être signalés dans le cadre de l’activité humaine, il est des informations utiles pour l’optimisation des moteurs de recherche.
- Les fichiers journaux ne nécessitent aucune recherche DNS supplémentaire ou démarrage lent TCP. Ainsi, il n’y a pas d’appels de serveur externe qui peuvent ralentir les vitesses de chargement des pages ou entraîner des pages vues Non comptabilisées.
- le serveur web enregistre de manière fiable chaque transaction qu’il effectue, E.,G. servir des documents PDF et du contenu généré par des scripts, et ne repose pas sur la coopération des navigateurs des visiteurs.
avantages du taggingEdit de page
Les principaux avantages du tagging de page par rapport à l’analyse de fichier journal sont les suivants:
- Le comptage est activé en ouvrant la page (étant donné que le client Web exécute les scripts de balise), sans le demander au serveur. Si une page est mise en cache, elle ne sera pas comptée par l’analyse du journal basée sur le serveur. Les pages mises en cache peuvent représenter jusqu’à un tiers de toutes les pages vues, ce qui peut avoir un impact négatif sur de nombreuses mesures du site.,
- Les données sont collectées via un composant (« tag ») dans la page, généralement écrit en JavaScript, bien que Java ou Flash puissent également être utilisés. Ajax peut également être utilisé en conjonction avec un langage de script côté serveur (tel que PHP) pour le manipuler et (généralement) le stocker dans une base de données, permettant essentiellement un contrôle complet sur la façon dont les données sont représentées.
- le script peut avoir accès à des informations supplémentaires sur le client web ou sur l’utilisateur, non envoyées dans la requête, telles que la taille de l’écran des visiteurs et le prix des biens achetés.,
- Le marquage de Page peut signaler des événements qui n’impliquent pas de demande au serveur web, tels que les interactions dans les films Flash, la complétion partielle du formulaire, les événements de souris tels que onClick, onMouseOver, onFocus, onBlur, etc.
- Le service de marquage de page gère le processus d’attribution des cookies aux visiteurs; avec l’analyse des fichiers journaux, le serveur doit être configuré pour ce faire.
- Le marquage de Page est disponible pour les entreprises qui n’ont pas accès à leurs propres serveurs web.
- récemment, le tagging de page est devenu un standard dans l’analyse web.,
facteurs économiquesModifier
l’analyse des fichiers journaux est presque toujours effectuée en interne. Le marquage de Page peut être effectué en interne, mais il est plus souvent fourni en tant que service tiers. La différence économique entre ces deux modèles peut également être une considération pour une entreprise qui décide laquelle acheter.
- l’analyse des fichiers journaux implique généralement un achat de logiciel unique; cependant, certains fournisseurs introduisent des pages vues annuelles maximales avec des coûts supplémentaires pour traiter des informations supplémentaires., En plus des offres commerciales, plusieurs outils d’analyse de fichiers journaux open source sont disponibles gratuitement.
- Pour l’analyse des fichiers journaux, les données doivent être stockées et archivées, ce qui augmente souvent rapidement. Bien que le coût du matériel pour ce faire soit minime, les frais généraux pour un service informatique peuvent être considérables.
- Pour l’analyse des fichiers journaux, les logiciels doivent être maintenus, y compris les mises à jour et les correctifs de sécurité.
- Les fournisseurs de balises de pages Complexes facturent des frais mensuels basés sur le volume, c’est-à-dire le nombre de pages vues par mois collectées.,
La solution la moins chère à mettre en œuvre dépend de la quantité d’expertise technique au sein de l’entreprise, du fournisseur choisi, de la quantité d’activité observée sur les sites Web, de la profondeur et du type d’informations recherchées, et du nombre de sites Web distincts nécessitant des statistiques.
quelle que soit la solution du fournisseur ou la méthode de collecte de données utilisée, le coût de l’analyse et de l’interprétation des visiteurs web devrait également être inclus. Qui est, le coût de transformer les données brutes en informations exploitables., Cela peut être de l’utilisation de tiers consultants, l’embauche d’un analyste web, ou de la formation d’une personne interne. Une analyse coûts-avantages peut alors être effectuée. Par exemple, quelles augmentations de revenus ou économies de coûts peuvent être obtenues en analysant les données des visiteurs web?
Hybrid methodsEdit
certaines entreprises produisent des solutions qui collectent des données à la fois via des fichiers journaux et des balises de page et peuvent analyser les deux types. En utilisant une méthode hybride, ils visent à produire des statistiques plus précises que l’une ou l’autre méthode seule., Une première solution hybride a été produite en 1998 par Rufus Evison.
géolocalisation des visiteursmodifier
avec la géolocalisation IP, il est possible de suivre l’emplacement des visiteurs. À l’aide de la base de données ou de L’API de géolocalisation IP, les visiteurs peuvent être géolocalisés au niveau de la ville, de la région ou du pays.
L’Intelligence IP, ou Internet Protocol (IP) Intelligence, est une technologie qui cartographie Internet et catégorise les adresses IP par paramètres tels que l’emplacement géographique (pays, région, État, Ville et Code postal), le type de connexion, le fournisseur D’accès Internet (FAI), les informations de proxy, etc., La première génération d’Intelligence IP a été appelée technologie de ciblage géographique ou de géolocalisation. Ces informations sont utilisées par les entreprises pour la segmentation d’audience en ligne dans des applications telles que la publicité en ligne, le ciblage comportemental, la localisation de contenu (ou la localisation de sites Web), la gestion des droits numériques, la personnalisation, la détection de fraude en ligne, la recherche localisée, l’analyse améliorée, la gestion du trafic mondial et la distribution,
Cliquez sur analyticsEdit
Chemin d’entrée de l’Analyse avec les pages de référence sur la gauche et les flèches et les rectangles différents dans l’épaisseur et de l’étendue pour symboliser le mouvement de la quantité.
Cliquez sur analytics est un type spécial de web analytics, qui accorde une attention particulière aux clics.
Généralement, cliquez sur l’analytique se concentre sur l’analyse du site. Un éditeur d’un site web utilise click analytics pour déterminer les performances de son site particulier, en ce qui concerne l’endroit où les utilisateurs du site cliquent.,
en outre, click analytics peut se produire en temps réel ou en temps « irréel », selon le type d’information recherchée. En règle générale, les éditeurs de première page sur les sites de médias d’information à fort trafic voudront surveiller leurs pages en temps réel, afin d’optimiser le contenu. Les éditeurs, les concepteurs ou d’autres types de parties prenantes peuvent analyser les clics sur un laps de temps plus large pour les aider à évaluer la performance des rédacteurs, des éléments de conception ou des publicités, etc.
Les données sur les clics peuvent être collectées de deux manières au moins., Idéalement, un clic est « enregistré » lorsqu’il se produit, et cette méthode nécessite certaines fonctionnalités qui récupèrent des informations pertinentes lorsque l’événement se produit. Alternativement, on peut supposer qu’une vue de page est le résultat d’un clic, et donc enregistrer un clic simulé qui a conduit à cette vue de page.
customer lifecycle analyticsEdit
Customer lifecycle analytics est une approche de mesure centrée sur les visiteurs qui relève du marketing du cycle de vie. Pages vues, clics et autres événements (tels que les appels D’API, l’accès à des services tiers, etc.,) sont tous liés à un visiteur individuel au lieu d’être stockés en tant que points de données séparés. Customer lifecycle analytics tente de connecter tous les points de données dans un entonnoir marketing qui peut offrir des informations sur le comportement des visiteurs et l’optimisation du site web.
Autres methodsEdit
d’Autres méthodes de collecte de données sont parfois utilisés. Packet sniffing collecte des données en reniflant le trafic réseau passant entre le serveur web et le monde extérieur. Le reniflage de paquets n’implique aucune modification des pages web ou des serveurs web., L’intégration de l’analyse web dans le logiciel du serveur web lui-même est également possible. Ces deux méthodes prétendent fournir de meilleures données en temps réel que les autres méthodes.