의 기본 단계 Web Analytics 과정
대부분의 웹 분석 프로세스에 와서 네 가지 필수적인 단계 또는 단계,습니다:
- 컬렉션 데이터의:이 단계에서의 컬렉션은 기본,초등학 데이터입니다. 일반적으로 이러한 데이터는 사물의 수입니다. 이 단계의 목적은 데이터를 수집하는 것입니다.
- 데이터의 처리에 정보:이 단계는 일반적으로 계산 및 그들에게 비율에 있지만,여전히 될 수있는 일부 계산합니다., 이 단계의 목적은 데이터를 가져 와서 정보,특히 메트릭에 부합하는 것입니다.
- 개발 KPI:이 단계에 초점을 맞추고를 사용하여 비율(계산)및 그들을 일으키는 비즈니스 전략이라고 하는 핵심 성과 지표(KPI). 많은 경우 Kpi 는 변환 측면을 다루지 만 항상 그런 것은 아닙니다. 그것은 조직에 달려 있습니다.
- 온라인 전략 공식화:이 단계는 조직이나 비즈니스에 대한 온라인 목표,목표 및 표준에 관한 것입니다., 이러한 전략은 일반적으로 돈을 벌거나 돈을 절약하거나 시장 점유율을 높이는 것과 관련이 있습니다.
또 다른 필수 기능에 의해 개발된 분석가의 최적화를 위해 웹사이트 실험
- 실험 및 테스트:A/B 테스팅을 제어 실험을 가진 두 개,온라인에서 설정과 같은 웹 개발.
의 목표는 A/B 테스팅을 식별하고 변경을 제안하는 웹 페이지 증가 또는 효과를 극대화합의 통계적 테스트 결과입니다.
각 단계에 영향을 주거나 영향을 줄 수 있습니다(예:,,드라이브)선행하거나 따르는 단계. 따라서 때때로 수집에 사용할 수있는 데이터가 온라인 전략에 영향을 미칩니다. 다른 시간에는 온라인 전략이 수집 된 데이터에 영향을 미칩니다.
Web analytics technologiesEdit
적어도 두 가지 범주의 웹 분석,오프 사이트 및 온 사이트 웹 분석이 있습니다.
- 오프 사이트 웹 분석은 사람이 웹 사이트를 소유하거나 유지 관리하는지 여부에 관계없이 웹 측정 및 분석을 의미합니다., 그것은 포함되어 있는 측정의 웹사이트의 잠재적인 고객(기회)에 공유하의 음성(visibility),및 버즈(댓글)에는 인터넷에서 일어나는다.
- 두 가지 중 더 일반적인 현장 웹 분석은 특정 웹 사이트에서 방문자의 행동을 한 번 측정합니다. 이 포함되어 있 드라이버와 변환,예를 들어,이 정도는 다른 페이지 방문과 관련 온라인 구매입니다. 현장 웹 분석은 상업적 맥락에서 특정 웹 사이트의 성능을 측정합니다., 이 데이터는 일반적으로 비교에 대해 핵심성과지표에 대한 성과를 향상시키기 위해 사용된 웹사이트 또는 마케팅 캠페인의 관객 response. Google 애널리틱스 및 Adobe 분석은 가장 널리 사용되는 사 웹 분석 서비스에만 새로운 도구가 신흥을 제공하는 정보에 대한 추가적인 레이어를 포함하여,열도와 세션이 있습니다.
역사적으로 웹 분석은 현장 방문자 측정을 참조하는 데 사용되었습니다. 그러나이 의미는 주로 공급 업체가 두 범주에 걸친 도구를 생산하고 있기 때문에 흐려졌습니다., 많은 다른 공급 업체가 현장 웹 분석 소프트웨어 및 서비스를 제공합니다. 데이터를 수집하는 두 가지 주요 기술적 방법이 있습니다. 첫 번째이자 전통적인 방법 인 서버 로그 파일 분석은 웹 서버가 브라우저에 의한 파일 요청을 기록하는 로그 파일을 읽습니다. 두 번째 방법,페이지 태그 지정,자바 스크립트를 사용에 내장 된 웹 페이지를 이미지로 요청하면 타 분석-전용 server,할 때마다 웹 페이지에 렌더링하여 웹 브라우저 또는 원하는 경우,마우스를 클릭할 때 발생합니다. 둘 다 웹 트래픽 보고서를 생성하기 위해 처리 할 수있는 데이터를 수집합니다.,
Web analytics data sourcesEdit
web analytics 의 기본 목표는 웹 트래픽 및 사용 패턴과 관련된 데이터를 수집하고 분석하는 것입니다. 데이터 주로에서 온 네원
- 직접 HTTP 데이터를 요청:직접에서 오는 HTTP 요청 메시지(HTTP 요청 헤더).
- 네트워크 수준과 서버가 생성과 관련된 데이터에 HTTP 요청이지:HTTP 요청의 일부이지만,그것은 필요한 성공적인 요청 변속기-예를 들어,IP 주소의 요청자.,
- HTTP 요청과 함께 전송되는 애플리케이션 레벨 데이터:애플리케이션 레벨 프로그램(예:JavaScript,PHP 및 ASP.Net),세션 및 추천 포함. 이들은 일반적으로 공개 웹 분석 서비스가 아닌 내부 로그에 의해 캡처됩니다.
- 외부 데이터가:와 결합할 수 있습에 사이트 데이터를 보강 웹사이트 동작 데이터 위에서 설명하고 해석하는 웹을 사용합니다., 예를 들어,IP 주소는 일반적으로 관련된 지리적 지역과 인터넷 서비스 제공자,전자 메일을 열고 클릭을 통해 요금,다이렉트 메일 캠페인 데이터,영업 및 지도사,또는 다른 데이터 형식으로 필요합니다.
웹 서버 로그 파일 analysisEdit
웹 서버는 로그 파일에 트랜잭션의 일부를 기록합니다. 그것이 곧 실현된 이러한 로그 파일에서 읽을 수 있는 프로그램에 대한 데이터를 제공의 인기 웹 사이트입니다. 따라서 웹 로그 분석 소프트웨어가 발생했습니다.,
1990 년대 초반,웹사이트 통계로 구성되는 주로의 수를 계산하고 클라이언트의 요청을(또는 안타)웹 서버입니다. 각 웹 사이트는 종종 단일 HTML 파일로 구성되기 때문에 처음에는 합리적인 방법이었습니다. 그러나 HTML 에 이미지가 도입되고 여러 HTML 파일에 걸쳐 웹 사이트가이 카운트가 덜 유용 해졌습니다. 최초의 진정한 상용 로그 분석기는 1994 년 IPRO 에 의해 발표되었습니다.1990 년대 중반에 웹 서버의 인간 활동량을보다 정확하게 측정하기 위해 두 가지 측정 단위가 도입되었습니다., 이들은 페이지 뷰 및 방문(또는 세션)이었습니다. 페이지 넣었으로 정의 열람청구가 신속하게 처리하고 웹 서버에 페이지에 대한 반대로,그래픽,하는 동안 방문했으로 정의 시퀀스에서 요청을 고유하게 식별하는 클라이언트가 만료 후 일정 금액의 활동,일반적으로 30 분 거리입니다.
의 출현을 검색 엔진은 거미와 로봇에서 1990 년대 후반과 함께,웹 프록시와는 동적으로 할당된 IP 주소에 대한 대기업 Isp,는 것이 더 어려운을 식별하는 고유한 인간의 웹사이트에 방문자를., 로그 분석기는 쿠키에 의한 방문을 추적하고 알려진 거미의 요청을 무시함으로써 응답했습니다.
웹 캐시의 광범위한 사용은 또한 로그 파일 분석에 대한 문제를 제시했다. 사람이 페이지를 다시 방문하면 브라우저의 캐시에서 두 번째 요청이 자주 검색되므로 웹 서버에서 요청을받지 못합니다. 즉,사이트를 통과하는 사람의 경로가 손실됩니다. 캐싱은 웹 서버를 구성하여 패배시킬 수 있지만 이로 인해 방문자의 성능이 저하되고 서버의 부하가 커질 수 있습니다.,
페이지 taggingEdit
문제의 정확성에 대한 로그 파일 분석의 존재에 캐싱,욕망을 욕망하는 욕망을 수행할 수 있는 웹 분석으로 아웃소싱 서비스,지도하는 두 번째 데이터 수집방법,페이지를 태그나 웹사 버그’.
1990 년대 중반,웹사이 카운터는 일반적으로 본—이러한 이미지 포함 된 웹 페이지에서 보여주는 번호간의 이미지를 요청했던의 추정 번호의 방문 하는 페이지입니다., 1990 년대 후반에는,이 개념의 진화를 포함하는 작은 보이지 않는 대신 이미지시고,자바 스크립트를 사용하여 전달하는 이미지와 함께 요청을 특정 페이지에 대한 정보를 확인 및 방문객을 맞이했습니다. 그런 다음이 정보는 웹 분석 회사에서 원격으로 처리 할 수 있으며 광범위한 통계가 생성됩니다.
웹 분석 서비스 관리자 할당하는 프로세스 쿠키는 사용자에게 고유하게 식별할 수 있 동안 그들 자신의 방문에서는 후속 방문., 쿠키 수락률은 웹 사이트마다 크게 다르며 수집 및보고 된 데이터의 품질에 영향을 줄 수 있습니다.
수집하는 데이터 웹 사이트를 사용하여 타사의 데이터 수집 서버(또는 사내 데이터 수집 서버)에 필요한 추가 DNS 검색하여 사용자의 컴퓨터에 IP 주소를 확인합의 컬렉션은 서버입니다. 경우에 따라 DNS 조회 성공 또는 실패 완료 지연으로 인해 데이터가 수집되지 않을 수 있습니다.,
의 증가 인기와 함께 Ajax 기반의 솔루션에 대한 대안의 사용을 보이지 않는 이미지를 구현하는 것입 통화를 다시 서버에서 렌더링되는 페이지입니다. 이 경우,페이지를 렌더링할 때 웹 브라우저에서,조각의 아약스 코드를 호출을 다시 서버와 정보를 전달에 대한 클라이언트는 통합할 수 있습에 의 웹 분석 회사입니다. 이것은 어떤면에서 xmlhttprequest 객체와 접촉 할 수있는 서버의 브라우저 제한에 결함이 있습니다., 또한,이 방법을 이어질 수 있는 약간 낮은보고,미래 때문에 방문자 수를 중지에서 페이지에서 로드 중간 전에 응답 Ajax 를 호출한다.
Logfile 분석 vs 페이지 taggingEdit
모두 logfile 분석 프로그램 페이지 태그 솔루션은 쉽게 사용할 수 있는 회사를 수행하 web analytics. 어떤 경우에는 동일한 웹 분석 회사가 두 가지 접근 방식을 모두 제공 할 것입니다. 그런 다음 회사가 어떤 방법을 선택해야하는지에 대한 의문이 생깁니다. 각 접근법에는 장점과 단점이 있습니다.,
의 장점 logfile analysisEdit
주요 장점의 로그 파일을 분석해 페이지 태그는 다음과 같습니다:
- 웹 서버가 일반적으로 이미 생산한 로그 파일,그래서 원시 데이터를 이미 사용할 수 있습니다. 웹 사이트를 변경하지 않아도됩니다.
- 데이터는 회사의 자체 서버에 있으며 독점적 인 형식이 아닌 표준으로되어 있습니다. 이를 통해 회사는 나중에 프로그램을 전환하고 여러 가지 프로그램을 사용하며 새 프로그램으로 과거 데이터를 쉽게 분석 할 수 있습니다.,
- Logfiles 에 대한 정보를 포함하고 방문에서 검색 엔진은 거미는 일반적으로는 제외에서 애널리틱스를 사용하여 도구 JavaScript 태그. (일부 검색 엔진은 페이지에서 자바 스크립트를 실행하지 않을 수도 있습니다.)이들은 인간 활동의 일부로보고되어서는 안되지만 검색 엔진 최적화에 유용한 정보입니다.
- Logfiles 에는 추가 DNS 조회 또는 TCP 느린 시작이 필요하지 않습니다. 따라서 페이지로드 속도를 늦추거나 마운트 할 수없는 페이지 뷰를 초래할 수있는 외부 서버 호출이 없습니다.
- 웹 서버는 만드는 모든 트랜잭션을 안정적으로 기록합니다.,g.스크립트에 의해 생성 된 PDF 문서 및 콘텐츠를 제공하고,협력 방문자의 브라우저에 의존하지 않습니다.
의 장점 페이지 taggingEdit
의 주요 장점 페이지 태그를 통해 로그 파일을 분석은 다음과 같습니다:
- 계산에 의해 활성화 열 페이지(주어진 웹 클라이언트 실행하는 태그는 스크립트),지 않을 요청하는 서버에서. 페이지가 캐시되면 서버 기반 로그 분석에 의해 계산되지 않습니다. 캐시된 페이지할 수 있는 최대의 모든 페이지를 전망할 수 있는 부정적인 영향을 미치는 많은 사이트 메트릭.,
- 데이터는 페이지의 구성 요소(“태그”)를 통해 수집되며 일반적으로 Java 또는 Flash 도 사용할 수 있지만 JavaScript 로 작성됩니다. Ajax 할 수도 있습과 함께 사용되는 서버 스크립트 언어(PHP)조작할 수 있고,(보통)데이터베이스에 저장,기본적으로 사용하는 방법에 대한 완전한 제어권을 데이터가 표시됩니다.
- 스크립트에 액세스할 수 있습하는 데 필요한 정보를 제공합니다.에서 웹 클라이언트에서 또는 사용자,전송되지 않습에서 쿼리와 같은 방문자의 화면 크기 및 상품의 가격은 그들입니다.,
- 페이지에 태그할 수 있는 보고서에는 이벤트를 포함하지 않는 요청을 웹서버와 같은 상호작용에서는 플래시 영화,부분적인 형태로 완료,마우스 이벤트 등 onClick,onMouseOver,onFocus,onBlur etc.
- 페이지 태그 서비스 관리 프로세스의 할당하기 위해 쿠키를 관광객과 로그 파일을 분석하면,서버를 구성됩니다.
- 페이지 태깅은 자체 웹 서버에 액세스 할 수없는 회사에서 사용할 수 있습니다.
- 최근에 페이지 태깅은 웹 분석의 표준이되었습니다.,
경제 factorsEdit
로그 파일 분석은 거의 항상 사내에서 수행됩니다. 페이지 태깅은 사내에서 수행 할 수 있지만 타사 서비스로 제공되는 경우가 더 많습니다. 이 두 모델의 경제적 차이는 구매할 회사를 결정하는 고려 사항 일 수도 있습니다.
- Logfile 분석은 일반적으로 포함 one-off 소프트웨어 구매;그러나,일부는 공급업체가 소개하는 최대 연 페이지 뷰 추가 비용을 처리하여 추가적인 정보를 찾으십시오., 상업용 오퍼링 외에도 여러 오픈 소스 로그 파일 분석 도구를 무료로 사용할 수 있습니다.
- 로그 파일 분석 데이터를 저장하고 보관해야하므로 종종 빠르게 커집니다. 이를 수행하는 하드웨어 비용은 최소이지만 IT 부서의 오버 헤드는 상당 할 수 있습니다.
- 로그 파일 분석 소프트웨어의 경우 업데이트 및 보안 패치를 포함하여 유지 관리해야합니다.
- 복잡한 페이지 태깅 공급 업체는 볼륨,즉 수집 된 월 페이지 뷰 수에 따라 월별 요금을 부과합니다.,
는 솔루션은 저렴하게 구현하의 양에 따라 달라 기술에 대한 전문 지식을 갖춘 회사,공급업체 선택,활동의 금액에서 본 웹사이트 깊이 유형의 정보를 모색하고,수의 뚜렷한 웹사이트에 필요한 통계입니다.
사용 된 공급 업체 솔루션이나 데이터 수집 방법에 관계없이 웹 방문자 분석 및 해석 비용도 포함되어야합니다. 즉,원시 데이터를 실행 가능한 정보로 전환하는 데 드는 비용입니다., 이것은 제 3 자 컨설턴트의 사용,숙련 된 웹 분석가의 고용 또는 적절한 사내 사람의 교육에서 비롯된 것일 수 있습니다. 그런 다음 비용 편익 분석을 수행 할 수 있습니다. 예를 들어 웹 방문자 데이터를 분석하여 얻을 수있는 수익 증가 또는 비용 절감 효과는 무엇입니까?
하이브리드 methodsEdit
일부 기업을 생산하는 솔루션이 수집하는 데이터는 모두를 통해 로그 파일과 페이지 태깅 및 분석할 수 있습니다 두 종류가 있습니다. 하이브리드 방법을 사용함으로써,그들은 그 자체로 두 방법보다 더 정확한 통계를 생산하는 것을 목표로합니다., 초기 하이브리드 솔루션은 1998 년 Rufus Evison 에 의해 제작되었습니다.
visitorsEdit 의 위치 정보
IP 위치 정보를 사용하면 방문자의 위치를 추적 할 수 있습니다. 는 IP 를 사용하여 위치 정보 데이터베이스 또는 API,방문자가 될 수 있는 위치 정보를 포함하는 도시,지역 또는 국가 수준입니다.
IP 정보,또는 인터넷 프로토콜(IP)정보,기술지도 인터넷 및 분류 IP 주소를 매개변수에 의하여 지리적 위치와 같은(국가,지역,국가,도시 및 우편번호),연결 유형,인터넷 서비스 업체(ISP),프록시가 정보를,그리고 더 많은., IP 인텔리전스의 1 세대는 지오 타겟팅 또는 위치 정보 기술로 언급되었습니다. 이 정보를 사용하여 기업에 대한 온라인 대상 세그멘테이 응용 프로그램에서 같은 온라인 광고,행동,대상으로 컨텐츠 지역화(또는 웹 사이트 현지화),디지털 권한 관리,개인 설정,온라인 사기 행위 감지,지역화된 검색을 강화 분석,글로벌 트래픽 관리 및 콘텐츠 배포합니다.,
클릭 analyticsEdit
Clickpath 분석과 추천 페이지 왼쪽에있는 화살과 직사각형에서 다양한 두께와 공을 상징하는 운동량입니다.
클릭 분석은 클릭에 특별한주의를 기울이는 특별한 유형의 웹 분석입니다.일반적으로 클릭 분석은 현장 분석에 중점을 둡니다. 웹 사이트의 편집자는 클릭 분석을 사용하여 사이트 사용자가 클릭하는 위치와 관련하여 특정 사이트의 성능을 결정합니다.,
또한 분석을 클릭하 발생할 수 있습 실시간 또는”비현실적”간의 종류에 따라 정보를 구하고 있습니다. 일반적으로,앞 페이지의 편집자에서 높은 트래픽 소식 미디어의 사이트 모니터링하기를 원할 것입 자신의 페이지를 실시간으로 컨텐츠를 최적화하기 위해. 편집자,디자이너 또는 다른 형태의 이해관계자 분석할 수 있습 클릭하면 더 넓은 시간 구조를 평가하기 위한 성능의 작가,디자인 요소 또는 광고 등등.
클릭에 대한 데이터는 적어도 두 가지 방법으로 수집될 수 있다., 이상적으로는 클릭이 발생할 때”기록”되며,이 방법에는 이벤트가 발생할 때 관련 정보를 픽업하는 일부 기능이 필요합니다. 또는 페이지 뷰가 클릭의 결과라는 가정을 구성 할 수 있으므로 해당 페이지 뷰로 이끄는 시뮬레이션 된 클릭을 기록 할 수 있습니다.
고객 라이프사이클 analyticsEdit
고객 수명 주기 분석은 방문객 중심의 접근 방식을 측정하는 폭포에서 우산의 수명 주기 마케팅입니다. 페이지 뷰,클릭 및 기타 이벤트(예:API 호출,타사 서비스 액세스 등),)는 모두 별도의 데이터 포인트로 저장되는 대신 개별 방문자에게 묶여 있습니다. 고객 수명 주기 분석을 시도를 연결하는 모든 데이터 포인트로 마케팅 깔때기을 제공할 수 있는 통찰력으로 방문자 행동하고 웹사이트를 최적화입니다.
다른 방법 sedit
다른 데이터 수집 방법이 때때로 사용됩니다. 패킷 스니핑은 웹 서버와 외부 세계 사이를 통과하는 네트워크 트래픽을 스니핑하여 데이터를 수집합니다. 패킷 스니핑은 웹 페이지 또는 웹 서버에 대한 변경을 포함하지 않습니다., 웹 분석을 웹 서버 소프트웨어 자체에 통합하는 것도 가능합니다. 이 두 가지 방법 모두 다른 방법보다 더 나은 실시간 데이터를 제공한다고 주장합니다.피>