Passos Básicos de Web Analytics Processo

a Maioria dos web analytics processos de descer a quatro essencial fases ou etapas, que são:

  • Recolha de dados: Esta etapa é a coleta de básico, o elementar de dados. Normalmente, estes dados são contagens de coisas. O objectivo desta fase é recolher os dados.tratamento de dados em informação: esta fase normalmente leva contagens e torna-os rácios, embora ainda possa haver algumas contagens., O objetivo desta etapa é pegar os dados e conformá-los em informação, especificamente métricas.
  • Desenvolvimento do KPI: esta fase centra-se na utilização dos rácios (e contagens) e na sua infusão com estratégias de Negócio, referidos como indicadores-chave de desempenho (KPI). Muitas vezes, os KPIs lidam com aspectos de conversão, mas nem sempre. Depende da organização.formulação de estratégia online: esta etapa está relacionada com os objetivos, objetivos e padrões online para a organização ou negócio., Estas estratégias estão normalmente relacionadas com a obtenção de dinheiro, a poupança de dinheiro ou o aumento da quota de mercado.

outra função essencial desenvolvida pelos analistas para a otimização dos sites são os experimentos

  • Experiments and testings: A / B testing is a controlled experiment with two variants, in online settings, such as web development.

o objetivo do teste A/B é identificar e sugerir alterações nas páginas web que aumentam ou maximizam o efeito de um resultado estatisticamente testado de interesse.cada fase tem impactos ou pode impactar.,, drives) o estágio anterior ou seguinte. Assim, às vezes, os dados disponíveis para a coleta impactam a estratégia online. Outras vezes, a estratégia online afeta os dados coletados.

web analytics technologiesEdit

Existem pelo menos duas categorias de web analytics, off-site e on-site web analytics.

  • Web analytics fora do site refere-se à medição e análise da web, independentemente de uma pessoa possuir ou manter um site., Ele inclui a medição do público potencial de um site (oportunidade), compartilhamento de voz (visibilidade), e buzz (comentários) que está acontecendo na Internet como um todo.
  • on-site web analytics, o mais comum dos dois, medir o comportamento de um visitante uma vez em um site específico. Isso inclui seus drivers e conversões; por exemplo, o grau em que diferentes páginas de pouso estão associados com compras on-line. A web analytics no site mede o desempenho de um site específico em um contexto comercial., Estes dados são normalmente comparados com os principais indicadores de desempenho para o desempenho e são usados para melhorar a resposta do público de um site ou campanha de marketing. Google Analytics e Adobe Analytics são os Serviços de análise web mais amplamente utilizados no site; embora novas ferramentas estejam surgindo que fornecem camadas adicionais de informação, incluindo mapas de calor e replay sessão.

historicamente, a análise da web tem sido usada para se referir à medição de visitantes no local. No entanto, este significado tornou-se turvo, principalmente porque os vendedores estão produzindo ferramentas que abrangem ambas as Categorias., Muitos fornecedores diferentes fornecem software e serviços de análise web no site. Existem duas formas técnicas principais de recolher os dados. O primeiro e tradicional método, a análise de arquivos de log do servidor, lê os logfiles em que o servidor web registra pedidos de arquivos por navegadores. O segundo método, tagging de página, usa JavaScript incorporado na página web para fazer pedidos de imagem para um servidor dedicado a análise de terceiros, sempre que uma página web é renderizada por um navegador web ou, se desejado, quando um clique do mouse ocorre. Ambos coletam dados que podem ser processados para produzir relatórios de tráfego web.,

web analytics data sourcesEdit

the fundamental goal of web analytics is to collect and analyse data related to web traffic and usage patterns. Os dados vêm principalmente de quatro fontes:

  1. dados de requisição HTTP direta: diretamente vem de mensagens de requisição HTTP (cabeçalhos de requisição HTTP).
  2. nível de rede e dados gerados pelo servidor associados a solicitações HTTP: não faz parte de uma solicitação HTTP, mas é necessário para transmissões de requisição bem – sucedidas-por exemplo, endereço IP de um requisitante.,
  3. dados de Nível de Aplicação enviados com pedidos HTTP: gerados e processados por programas de nível de aplicação (tais como JavaScript, PHP, e ASP.Net), incluindo sessões e consultas. Estes são geralmente capturados por logs internos em vez de serviços públicos de análise web.
  4. dados externos: podem ser combinados com dados no site para ajudar a aumentar os dados de comportamento do site descritos acima e interpretar o uso da web., Por exemplo, endereços IP são geralmente associados com Regiões Geográficas e provedores de serviços de internet, e-mail aberto e click-through tarifas, dados de campanha de correio direto, vendas e histórico de liderança, ou outros tipos de dados, conforme necessário.

analisisedit de registo de ficheiros do servidor Web

os servidores Web registam algumas das suas transacções num ficheiro de Registo. Logo se percebeu que esses arquivos de log poderiam ser lidos por um programa para fornecer dados sobre a popularidade do site. Assim surgiu o software de análise de log web.,

no início da década de 1990, as estatísticas do site consistiam principalmente em contar o número de solicitações de clientes (ou hits) feitas para o servidor web. Este foi um método razoável inicialmente, uma vez que cada site muitas vezes consistia de um único arquivo HTML. No entanto, com a introdução de imagens em HTML, e sites que abrangeram vários arquivos HTML, esta contagem tornou-se menos útil. O primeiro verdadeiro Analisador de Log comercial foi lançado pelo IPRO em 1994.

duas unidades de medida foram introduzidas em meados da década de 1990 para medir com mais precisão a quantidade de atividade humana em servidores web., Estas foram vistas de página e visitas (ou sessões). Uma vista de página foi definida como um pedido feito ao servidor web para uma página, em oposição a um gráfico, enquanto uma visita foi definida como uma sequência de pedidos de um cliente identificado unicamente que expirou após uma certa quantidade de inactividade, geralmente 30 minutos.

a emergência de aranhas e Robôs de busca no final da década de 1990, juntamente com proxies web e endereços IP dinamicamente atribuídos para grandes empresas e ISPs, tornou mais difícil identificar visitantes humanos únicos para um site., Os analisadores de Log responderam através de visitas de rastreamento por cookies, e ignorando pedidos de aranhas conhecidas.

O uso extensivo de caches web também apresentou um problema para a análise de arquivos de log. Se uma pessoa revisita uma página, o segundo pedido muitas vezes será recuperado do cache do navegador, e assim nenhum pedido será recebido pelo servidor web. Isto significa que o caminho da pessoa através do site está perdido. Cache pode ser derrotado configurando o servidor web, mas isso pode resultar em desempenho degradado para o visitante e maior carga nos servidores.,

Page taggingEdit

preocupações sobre a precisão da análise de arquivos log na presença de cache, e o desejo de ser capaz de realizar análises web como um serviço terceirizado, levou ao segundo método de coleta de dados, marcação de páginas ou ‘bugs Web’.

em meados da década de 1990, os contadores Web eram comumente vistos-estas eram imagens incluídas em uma página web que mostrava o número de vezes que a imagem tinha sido solicitada, o que era uma estimativa do número de visitas a essa página., No final da década de 1990, este conceito evoluiu para incluir uma pequena imagem invisível, em vez de uma visível, e, usando o JavaScript, para passar junto com a imagem, solicitar que determinadas informações sobre a página e o visitante. Esta informação pode então ser processada remotamente por uma empresa de análise web, e estatísticas extensas geradas.

o serviço web analytics também gerencia o processo de atribuição de um cookie para o usuário, que pode identificá-los unicamente durante a sua visita e em visitas subsequentes., As taxas de aceitação de cookies variam significativamente entre sites e podem afetar a qualidade dos dados coletados e relatados.

coleta de dados do site usando um servidor de coleta de dados de terceiros (ou mesmo um servidor de coleta de dados interno) requer uma pesquisa DNS adicional pelo computador do Usuário para determinar o endereço IP do servidor de coleta. Ocasionalmente, atrasos na conclusão de uma pesquisa bem sucedida ou falha DNS pode resultar em dados não sendo coletados.,com a crescente popularidade de soluções baseadas em Ajax, uma alternativa ao uso de uma imagem invisível é implementar uma chamada de volta para o servidor a partir da página renderizada. Neste caso, quando a página é renderizada no navegador web, Um pedaço de código Ajax ligaria de volta para o servidor e passaria informações sobre o cliente que podem então ser agregadas por uma empresa de análise web. Isto é de alguma forma defeituoso por restrições de navegador nos servidores que podem ser contatados com objetos XmlHttpRequest., Além disso, este método pode levar a níveis de tráfego ligeiramente mais baixos relatados, uma vez que o visitante pode parar a página de carregar em meio-resposta antes da chamada Ajax é feita.

Logfile analysis vs page taggingEdit

Both logfile analysis programs and page tagging solutions are readily available to companies that wish to perform web analytics. Em alguns casos, a mesma empresa de análise web oferecerá ambas as abordagens. Coloca-se então a questão de saber qual o método que uma empresa deve escolher. Há vantagens e desvantagens em cada abordagem.,

vantagens do analisisedit logfile

As principais vantagens da análise de ficheiros log sobre a marcação de páginas são as seguintes:

  • o servidor web normalmente já produz ficheiros log, pelo que os dados brutos já estão disponíveis. Não são necessárias alterações ao site.
  • os dados estão nos próprios servidores da empresa, e está em um padrão, ao invés de um formato proprietário. Isso torna mais fácil para uma empresa mudar de programas mais tarde, usar vários programas diferentes, e analisar dados históricos com um novo programa.,
  • Logfiles contain information on visits from search engine spiders, which generally are excluded from the analytics tools using JavaScript tagging. (Alguns motores de busca podem nem executar JavaScript em uma página.) Embora estes não devem ser relatados como parte da atividade humana, é informação útil para a otimização do motor de busca.
  • Logfiles require no additional DNS lookups or TCP slow starts. Assim, não existem chamadas externas do servidor que podem abrandar as velocidades de carga da página, ou resultar em vistas de página não contadas.
  • o servidor web registra de forma confiável todas as transações que faz, E.,G. servir documentos PDF e conteúdo gerado por scripts, e não depende da cooperação dos navegadores dos visitantes.

vantagens da taggingEdit da página

As principais vantagens da tagging da página sobre a análise de arquivos de log são as seguintes:

  • A contagem é ativada pela abertura da página (dado que o cliente Web executa os scripts de tag), não requerendo-o do servidor. Se uma página é Cache, ela não será contada pela análise de log baseada em servidor. As páginas em cache podem ser responsáveis por até um terço de todas as visualizações de páginas, o que pode afetar negativamente muitas métricas do site.,
  • Os dados são coletados através de um componente (“tag”) na página, geralmente escrito em JavaScript, embora Java ou Flash também pode ser usado. Ajax também pode ser usado em conjunto com uma linguagem de script do lado do servidor (como PHP) para manipular e (geralmente) armazená-lo em um banco de dados, basicamente permitindo o controle completo sobre como os dados são representados.
  • o script pode ter acesso a informações adicionais sobre o cliente web ou sobre o Usuário, não enviado na consulta, tais como tamanhos de tela dos visitantes e o preço dos bens que eles compraram.,
  • page tagging pode relatar eventos que não envolvem um pedido para o servidor web, tais como interações dentro de filmes Flash, completação parcial da forma, eventos do mouse como onClick, onMouseOver, onFocus, onBlur etc.
  • o serviço de marcação de páginas gerencia o processo de atribuição de cookies aos visitantes; com a análise de arquivos de log, o servidor tem de ser configurado para fazer isso.
  • a marcação de Páginas está disponível para empresas que não têm acesso aos seus próprios servidores web.
  • ultimamente, a marcação de páginas tornou-se um padrão na web analytics.,

Economic factorsEdit

Logfile analysis is almost always performed in-house. A marcação de páginas pode ser realizada internamente, mas é mais frequentemente fornecida como um serviço de terceiros. A diferença económica entre estes dois modelos também pode ser uma consideração para uma empresa que decide qual comprar.

  • Logfile analysis typically involves a one-off software purchase; however, some vendors are introducing maximum annual page views with additional costs to process additional information., Além de ofertas comerciais, várias ferramentas de análise de logfile de código aberto estão disponíveis gratuitamente.
  • para análise de Logfile os dados devem ser armazenados e arquivados, que muitas vezes cresce grande rapidamente. Embora o custo de hardware para fazer isso é mínimo, a sobrecarga para um departamento de TI pode ser considerável.
  • para o software de análise de Logfile precisa ser mantido, incluindo atualizações e patches de segurança.os vendedores de etiquetas de páginas complexas cobram uma taxa mensal baseada no volume, ou seja, o número de visualizações de páginas por mês recolhidas.,

Que solução é mais barata de implementar depende da quantidade de experiência técnica dentro da empresa, o fornecedor escolhido, a quantidade de atividade visto nos Sites, a profundidade e tipo de informação procurada, e o número de sites distintos que necessitam de estatísticas.

independentemente da solução do Fornecedor ou método de coleta de dados Empregados, o custo da análise e interpretação de visitantes da web também deve ser incluído. Ou seja, o custo de transformar os dados brutos em informação passível de Acção., Isto pode ser a partir do uso de consultores de terceiros, a contratação de um analista experiente da web, ou a formação de uma pessoa adequada dentro da casa. Uma análise custo-benefício pode então ser realizada. Por exemplo, que Aumento de receita ou economia de custos podem ser obtidos através da análise dos dados de visitantes da web?

methodsEdit híbrido

algumas empresas produzem soluções que coletam dados através de arquivos de log e tagging de página e podem analisar ambos os tipos. Usando um método híbrido, eles visam produzir estatísticas mais precisas do que qualquer um dos métodos por si só., Uma solução híbrida inicial foi produzida em 1998 por Rufus Evison.

Geolocalização do visitorsEdit

com geolocalização IP, é possível rastrear os locais dos visitantes. Usando o banco de dados de geolocalização IP ou API, os visitantes podem ser geolocalizados para o nível da cidade, região ou país.

IP Intelligence, ou Internet Protocol (IP) Intelligence, é uma tecnologia que mapeia a Internet e categoriza endereços IP por parâmetros como localização geográfica (país, região, estado, cidade e Código Postal), tipo de conexão, provedor de Serviços de Internet (ISP), informações proxy, e muito mais., A primeira geração de inteligência IP foi referida como tecnologia de geotargagem ou geolocalização. Esta informação é usada pelas empresas para a segmentação de audiência online em aplicações como publicidade online, orientação comportamental, localização de conteúdo (ou localização do site), gestão de direitos digitais, personalização, detecção de fraude online, busca localizada, análise melhorada, gerenciamento de tráfego global e distribuição de conteúdo.,

Clique analyticsEdit

Clickpath Análise com páginas de referência à esquerda e flechas e retângulos diferentes na espessura e extensão para simbolizar o movimento de quantidade.

Click analytics é um tipo especial de Web analytics que dá especial atenção aos cliques.

comumente, click analytics centra-se na análise no local. Um editor de um site usa click analytics para determinar o desempenho de seu site particular, no que diz respeito a onde os usuários do site estão clicando.,

também, clique em análise pode acontecer em tempo real ou em tempo”irreal”, dependendo do tipo de informação procurada. Normalmente, os editores de primeira página em sites de mídia de notícias de alto tráfego vão querer monitorar suas páginas em tempo real, para otimizar o conteúdo. Editores, designers ou outros tipos de stakeholders podem analisar cliques em um prazo mais amplo para ajudá-los a avaliar o desempenho de escritores, elementos de design ou anúncios, etc.

os dados sobre cliques podem ser recolhidos de pelo menos duas maneiras., Idealmente, um clique é “logado” quando ocorre, e este método requer alguma funcionalidade que recolhe informações relevantes quando o evento ocorre. Alternativamente, pode-se instituir a suposição de que uma vista de página é um resultado de um clique, e, portanto, logar um clique simulado que levou a essa vista de página.

A análise do ciclo de vida do cliente é uma abordagem centrada no Visitante da medição que se insere no âmbito do marketing do ciclo de vida. Vistas de página, cliques e outros eventos (tais como chamadas API, acesso a serviços de terceiros, etc.,) estão todos ligados a um visitante individual em vez de serem armazenados como pontos de dados separados. Análise do ciclo de vida do cliente tenta conectar todos os pontos de dados em um funil de marketing que pode oferecer insights sobre o comportamento do visitante e otimização do site.por vezes são utilizados outros métodos de recolha de dados. O sniffing de pacotes recolhe dados através do sniffing do tráfego de rede que passa entre o servidor web e o mundo exterior. O sniffing de pacotes não envolve alterações nas páginas web ou servidores web., Integrar a análise web no próprio software do servidor web também é possível. Ambos os métodos pretendem fornecer dados em tempo real melhores do que outros métodos.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *