pasos básicos del proceso de análisis Web
La mayoría de los procesos de análisis web se reducen a cuatro etapas o pasos esenciales, que son:
- recopilación de datos: esta etapa es la recopilación de los datos básicos y elementales. Por lo general, estos datos son cuentas de cosas. El objetivo de esta etapa es recoger los datos.
- procesamiento de datos en información: Esta etapa generalmente toma recuentos y los hace ratios, aunque todavía puede haber algunos recuentos., El objetivo de esta etapa es tomar los datos y conformarlos en información, específicamente métricas.
- Desarrollo de KPI: esta etapa se centra en utilizar los ratios (y recuentos) e infundirlos con estrategias de negocio, denominados indicadores clave de rendimiento (KPI). Muchas veces, los KPI se ocupan de aspectos de conversión, pero no siempre. Depende de la organización.
- formulación de estrategia en línea: esta etapa se refiere a las metas, objetivos y estándares en línea para la organización o negocio., Estas estrategias generalmente están relacionadas con ganar dinero, ahorrar dinero o aumentar la cuota de mercado.
otra función esencial desarrollada por los analistas para la optimización de los sitios web son los experimentos
- experimentos y pruebas: las pruebas A/B son un experimento controlado con dos variantes, en configuraciones en línea, como el desarrollo web.
el objetivo de las pruebas A/B es identificar y sugerir cambios en las páginas web que aumenten o maximicen el efecto de un resultado estadísticamente probado de interés.
cada etapa impacta o puede impactar (i. e.,, unidades) la etapa anterior o siguiente. Por lo tanto, a veces los datos que están disponibles para la recopilación afectan la estrategia en línea. Otras veces, la estrategia en línea afecta a los datos recopilados.
tecnologías de análisis Webeditar
hay al menos dos categorías de análisis web, fuera del sitio y en el sitio de análisis web.
- El análisis web fuera del sitio se refiere a la medición y el análisis web, independientemente de si una persona posee o mantiene un sitio web., Incluye la medición de la audiencia potencial de un sitio web (oportunidad), la cuota de voz (visibilidad) y el zumbido (comentarios) que está sucediendo en Internet en su conjunto.
- El análisis web en el sitio, el más común de los dos, mide el comportamiento de un visitante una vez en un sitio web específico. Esto incluye sus controladores y conversiones; por ejemplo, el grado en que las diferentes páginas de destino están asociadas con las compras en línea. El análisis web en el sitio mide el rendimiento de un sitio web específico en un contexto comercial., Estos datos generalmente se comparan con indicadores clave de rendimiento para el rendimiento y se utilizan para mejorar la respuesta de la audiencia de un sitio web o campaña de marketing. Google Analytics y Adobe Analytics son los servicios de análisis web en el sitio más utilizados; aunque están surgiendo nuevas herramientas que proporcionan capas adicionales de información, incluidos mapas de calor y repetición de sesiones.
históricamente, el análisis web se ha utilizado para hacer referencia a la medición de visitantes en el sitio. Sin embargo, este significado se ha vuelto borroso, principalmente porque los proveedores están produciendo herramientas que abarcan ambas categorías., Muchos proveedores diferentes proporcionan software y servicios de análisis web en el sitio. Hay dos formas técnicas principales de recopilar los datos. El primer método tradicional, el análisis de archivos de registro del servidor, lee los archivos de registro en los que el servidor web registra las solicitudes de archivos de los navegadores. El segundo método, etiquetado de páginas, utiliza JavaScript incrustado en la página web para realizar solicitudes de imágenes a un servidor dedicado a análisis de terceros, siempre que una página web sea renderizada por un navegador web o, si se desea, cuando se produce un clic del ratón. Ambos recopilan datos que se pueden procesar para producir informes de tráfico web.,
fuentes de datos de análisis Webeditar
el objetivo fundamental de la analítica Web es recopilar y analizar datos relacionados con el tráfico web y los patrones de uso. Los datos provienen principalmente de cuatro fuentes:
- Direct HTTP request data: proviene directamente de los mensajes de solicitud HTTP (encabezados de solicitud HTTP).
- datos generados a nivel de red y servidor asociados con solicitudes HTTP: no son parte de una solicitud HTTP, pero son necesarios para transmisiones de solicitudes exitosas, por ejemplo, la dirección IP de un solicitante.,
- datos de nivel de aplicación enviados con solicitudes HTTP: generados y procesados por programas de nivel de aplicación (como JavaScript, PHP y ASP.Net), incluidas la sesión y las remisiones. Por lo general, estos son capturados por registros internos en lugar de servicios públicos de análisis web.
- Datos externos: se pueden combinar con datos en el sitio para ayudar a aumentar los datos de comportamiento del sitio web descritos anteriormente e interpretar el uso de la web., Por ejemplo, las direcciones IP generalmente se asocian con regiones geográficas y proveedores de servicios de internet, tasas de apertura y clics de correo electrónico, datos de campañas de correo directo, historial de ventas y leads u otros tipos de datos según sea necesario.
web server log file analysiseditar
los servidores web registran algunas de sus transacciones en un archivo de registro. Pronto se dio cuenta de que estos archivos de Registro podrían ser leídos por un programa para proporcionar datos sobre la popularidad del sitio web. Así surgió el software de análisis de Registro web.,
a principios de la década de 1990, las estadísticas del sitio web consistían principalmente en contar el número de solicitudes de clientes (o visitas) realizadas al servidor web. Este era un método razonable inicialmente, ya que cada sitio web a menudo consistía en un solo archivo HTML. Sin embargo, con la introducción de imágenes en HTML y sitios web que abarcaban múltiples archivos HTML, Este recuento se volvió menos útil. El primer analizador de registro comercial verdadero fue lanzado por IPRO en 1994.
se introdujeron dos unidades de medida a mediados de la década de 1990 para medir con mayor precisión la cantidad de actividad humana en los servidores web., Estas fueron páginas vistas y visitas (o sesiones). Una vista de página se definió como una solicitud hecha al servidor web para una página, en lugar de un gráfico, mientras que una visita se definió como una secuencia de solicitudes de un cliente identificado de forma única que expiró después de una cierta cantidad de inactividad, generalmente 30 minutos.
la aparición de Arañas de motores de búsqueda y robots a finales de la década de 1990, junto con proxies web y direcciones IP asignadas dinámicamente para grandes empresas e ISP, hizo más difícil identificar visitantes humanos únicos a un sitio web., Los analizadores de Registros respondieron rastreando las visitas mediante cookies e ignorando las solicitudes de Arañas conocidas.
el uso extensivo de cachés web también presentó un problema para el análisis de archivos de registro. Si una persona vuelve a visitar una página, la segunda solicitud a menudo se recuperará de la caché del navegador, por lo que el servidor web no recibirá ninguna solicitud. Esto significa que el camino de la persona a través del sitio se pierde. El almacenamiento en caché puede ser derrotado configurando el servidor web, pero esto puede resultar en un rendimiento degradado para el visitante y una mayor carga en los servidores.,
page taggingEdit
Las preocupaciones sobre la precisión del análisis de archivos de registro en presencia de almacenamiento en caché, y el deseo de poder realizar análisis web como un servicio subcontratado, llevaron al segundo método de recopilación de datos, etiquetado de páginas o ‘Web bugs’.
a mediados de la década de 1990, los contadores Web eran comúnmente vistos-estas eran imágenes incluidas en una página web que mostraban el número de veces que la imagen había sido solicitada, lo que era una estimación del número de visitas a esa página., A finales de la década de 1990, este concepto evolucionó para incluir una pequeña imagen invisible en lugar de una visible, y, mediante el uso de JavaScript, para pasar junto con la imagen solicitar cierta información sobre la página y el visitante. Esta información puede ser procesada de forma remota por una empresa de análisis web, y se generan estadísticas extensas.
el servicio de analítica Web también gestiona el proceso de asignación de una cookie al usuario, que puede identificarle de forma única durante su visita y en visitas posteriores., Las tasas de aceptación de cookies varían significativamente entre los sitios web y pueden afectar la calidad de los datos recopilados e informados.
la recopilación de datos del sitio Web mediante un servidor de recopilación de datos de terceros (o incluso un servidor de recopilación de datos interno) requiere una búsqueda de DNS adicional por parte del ordenador del usuario para determinar la dirección IP del servidor de recopilación. En ocasiones, los retrasos en completar una búsqueda de DNS exitosa o fallida pueden dar lugar a que no se recopilen datos.,
con la creciente popularidad de las soluciones basadas en Ajax, una alternativa al uso de una imagen invisible es implementar una llamada al servidor desde la página renderizada. En este caso, cuando la página se representa en el navegador web, una pieza de código Ajax llamaría al servidor y pasaría información sobre el cliente que luego puede ser agregada por una empresa de análisis web. Esto es de alguna manera defectuoso por las restricciones del navegador en los servidores que se pueden contactar con objetos XmlHttpRequest., Además, este método puede conducir a niveles de tráfico reportados ligeramente más bajos, ya que el visitante puede detener la carga de la página en mitad de la respuesta antes de que se realice la llamada Ajax.
análisis de archivos de Registro vs etiquetado de pagaseditar
tanto los programas de análisis de archivos de registro como las soluciones de etiquetado de páginas están disponibles para las empresas que desean realizar análisis web. En algunos casos, la misma empresa de análisis web ofrecerá ambos enfoques. Surge entonces la pregunta de qué método debe elegir una empresa. Hay ventajas y desventajas para cada enfoque.,
ventajas del análisis de archivos de logeditar
las principales ventajas del análisis de archivos de registro sobre el etiquetado de páginas son las siguientes:
- El servidor web normalmente ya produce archivos de registro, por lo que los datos en bruto ya están disponibles. No se requieren cambios en el sitio web.
- Los datos están en los propios servidores de la compañía, y están en un formato estándar, en lugar de un formato propietario. Esto hace que sea fácil para una empresa cambiar de programa más tarde, usar varios programas diferentes y analizar datos históricos con un nuevo programa.,
- Los archivos de registro contienen información sobre las visitas de las arañas del motor de búsqueda, que generalmente se excluyen de las herramientas de análisis mediante el etiquetado JavaScript. (Es posible que algunos motores de búsqueda ni siquiera ejecuten JavaScript en una página. Aunque estos no deben ser reportados como parte de la actividad humana, es información útil para la optimización de motores de búsqueda.
- Los archivos de registro no requieren búsquedas DNS adicionales ni inicios lentos TCP. Por lo tanto, no hay llamadas al servidor externo que puedan ralentizar las velocidades de carga de la página o dar lugar a vistas de página no contadas.
- El servidor web registra de forma fiable cada transacción que realiza, e.,g. servir documentos PDF y contenido generado por scripts, y no se basa en la cooperación de los navegadores de los visitantes.
ventajas del etiquetado de pagaseditar
Las principales ventajas del etiquetado de páginas sobre el análisis de archivos de registro son las siguientes:
- El Conteo se activa abriendo la página (dado que el cliente Web ejecuta los scripts de etiquetas), no solicitándolo al servidor. Si una página se almacena en caché, no se contará mediante el análisis de Registros basado en el servidor. Las páginas en caché pueden representar hasta un tercio de todas las vistas de Página, lo que puede afectar negativamente a muchas métricas del sitio.,
- Los datos se recopilan a través de un componente («etiqueta») en la página, generalmente escrito en JavaScript, aunque también se pueden usar Java o Flash. Ajax también se puede usar junto con un lenguaje de scripting del lado del servidor (como PHP) para manipularlo y (generalmente) almacenarlo en una base de datos, básicamente permitiendo un control completo sobre cómo se representan los datos.
- el script puede tener acceso a información adicional sobre el cliente web o sobre el Usuario, no enviada en la consulta, como los tamaños de pantalla de los visitantes y el precio de los bienes que compraron.,
- El etiquetado de páginas puede informar sobre eventos que no implican una solicitud al servidor web, como interacciones dentro de películas Flash, finalización parcial de formularios, eventos del mouse como onClick, onMouseOver, onFocus, onBlur, etc.
- El servicio de etiquetado de páginas gestiona el proceso de asignación de cookies a los visitantes; con el análisis de archivos de registro, el servidor tiene que estar configurado para hacerlo.
- El etiquetado de páginas está disponible para empresas que no tienen acceso a sus propios servidores web.
- últimamente, el etiquetado de páginas se ha convertido en un estándar en el análisis web.,
factores Económicoseditar
el análisis del archivo de Registro casi siempre se realiza internamente. El etiquetado de páginas se puede realizar internamente, pero más a menudo se proporciona como un servicio de terceros. La diferencia económica entre estos dos modelos también puede ser una consideración para que una empresa decida cuál comprar.
- El análisis de archivos de Registro generalmente implica una compra de software única; sin embargo, algunos proveedores están introduciendo vistas de página anuales máximas con costos adicionales para procesar información adicional., Además de las ofertas comerciales, varias herramientas de análisis de archivos de registro de código abierto están disponibles de forma gratuita.
- para el análisis de archivos de registro, los datos deben almacenarse y archivarse, lo que a menudo crece rápidamente. Aunque el costo de hardware para hacer esto es mínimo, la sobrecarga para un departamento de TI puede ser considerable.
- para el software de análisis de archivos de registro debe mantenerse, incluidas las actualizaciones y los parches de seguridad.
- Los proveedores de etiquetado de páginas complejas cobran una tarifa mensual basada en el volumen, es decir, el número de páginas vistas por mes recopiladas.,
Qué solución es más barata de implementar depende de la cantidad de experiencia técnica dentro de la empresa, el proveedor elegido, la cantidad de actividad vista en los sitios web, la profundidad y el tipo de información buscada y el número de sitios web distintos que necesitan estadísticas.
independientemente de la solución del proveedor o del método de recopilación de datos empleado, también debe incluirse el costo del análisis y la interpretación de los visitantes de la web. Es decir, el costo de convertir los datos sin procesar en información procesable., Esto puede deberse al uso de consultores externos, la contratación de un analista web experimentado o la capacitación de una persona interna adecuada. Luego se puede realizar un análisis de costo-beneficio. Por ejemplo, ¿qué aumento de ingresos o ahorros de costos se pueden obtener al analizar los datos de los visitantes de la web?
métodos Hibridoseditar
algunas empresas producen soluciones que recopilan datos a través de archivos de registro y etiquetado de páginas y pueden analizar ambos tipos. Mediante el uso de un método híbrido, su objetivo es producir estadísticas más precisas que cualquier método por sí solo., Una solución híbrida temprana fue producida en 1998 por Rufus Evison.
Geolocalización de visitadoreseditar
con geolocalización IP, es posible rastrear las ubicaciones de los visitantes. Usando la base de datos de geolocalización IP o API, los visitantes pueden ser geolocalizados a nivel de ciudad, región o país.
la inteligencia IP, o inteligencia de Protocolo de Internet (IP), es una tecnología que mapea Internet y categoriza las direcciones IP por parámetros como la ubicación geográfica (país, región, estado, ciudad y código postal), tipo de conexión, proveedor de servicios de Internet (ISP), información de proxy y más., La primera generación de inteligencia IP se denominó tecnología de geoobjetivo o geolocalización. Esta información es utilizada por las empresas para la segmentación de la audiencia en línea en aplicaciones como publicidad en línea, segmentación por comportamiento, localización de contenido (o localización de sitios web), gestión de derechos digitales, personalización, detección de fraude en línea, búsqueda localizada, análisis mejorado, gestión del tráfico global y distribución de contenido.,
Click analyticsEdit
análisis de ruta de clics con páginas de referencia a la izquierda y flechas y rectángulos que difieren en grosor y extensión para simbolizar la cantidad de movimiento.
El análisis de clics es un tipo especial de análisis web que presta especial atención a los clics.
comúnmente, click analytics se centra en el análisis en el sitio. Un editor de un sitio web utiliza click analytics para determinar el rendimiento de su sitio en particular, con respecto a dónde hacen clic los usuarios del sitio.,
Además, el análisis de clics puede ocurrir en tiempo real o en tiempo»irreal», dependiendo del tipo de información buscada. Por lo general, los editores de primera página en sitios de medios de noticias de alto tráfico querrán monitorear sus páginas en tiempo real, para optimizar el contenido. Los editores, diseñadores u otros tipos de partes interesadas pueden analizar los clics en un marco de tiempo más amplio para ayudarlos a evaluar el rendimiento de los escritores, elementos de diseño o anuncios, etc.
Los datos sobre los clics se pueden recopilar de al menos dos maneras., Idealmente, un clic se «registra» cuando se produce, y este método requiere alguna funcionalidad que recoge información relevante cuando se produce el evento. Alternativamente, se puede establecer la suposición de que una vista de página es el resultado de un clic y, por lo tanto, registrar un clic simulado que condujo a esa vista de página.
Customer lifecycle analyticsEdit
Customer lifecycle analytics es un enfoque centrado en el visitante para medir que cae bajo el paraguas del marketing del ciclo de vida. Vistas de página, clics y otros eventos (como llamadas a la API, acceso a servicios de terceros, etc.).,) están todos vinculados a un visitante individual en lugar de ser almacenados como puntos de datos separados. Customer lifecycle analytics intenta conectar todos los puntos de datos en un embudo de marketing que puede ofrecer información sobre el comportamiento de los visitantes y la optimización del sitio web.
Other methodsEdit
Other methods of data collection are sometimes used. El rastreo de paquetes recopila datos al rastrear el tráfico de red que pasa entre el servidor web y el mundo exterior. El rastreo de paquetes no implica cambios en las páginas web o servidores web., También es posible integrar el análisis web en el propio software del servidor web. Ambos métodos afirman proporcionar mejores datos en tiempo real que otros métodos.