Web Analyticsプロセスの基本的なステップ

ほとんどのweb analyticsプロセスは、

  • データの収集:この段階は、基本的な、基本的なデータの収集です。 通常、これらのデータは物事の数です。 この段階の目的は、データを収集することです。
  • 情報へのデータの処理:この段階では、通常、カウントを取り、それらを比率にしますが、まだいくつかのカウントがあるかもしれません。, この段階の目的は、データを取得し、情報、特にメトリックに適合させることです。
  • KPIの開発:この段階では、比率(およびカウント)を使用し、主要業績評価指標(KPI)と呼ばれるビジネス戦略を注入することに焦点を当てています。 多くの場合、Kpiは変換の側面を扱いますが、必ずしもそうではありません。 それは組織によって異なります。
  • オンライン戦略の策定:この段階では、組織やビジネスのオンライン目標、目標、および基準に関係しています。, これらの戦略は、通常、お金を稼ぐお金を節約、または市場シェアを増加に関連しています。

ウェブサイトの最適化のためのアナリストによって開発されたもう一つの重要な機能は、実験です

  • 実験とテスト:A/Bテストは、web開発などのオン

A/Bテストの目標は、関心のある統計的にテストされた結果の効果を増加または最大化するウェブページの変更を特定し、提案することです。

各段階に影響するのです影響(,,drives)その前または後のステージ。 そのため、収集可能なデータがオンライン戦略に影響を与えることがあります。 他の場合、オンライン戦略は収集されたデータに影響します。

ウェブ分析技術編集

ウェブ分析には、オフサイトとオンサイトの二つのカテゴリーがあります。

  • オフサイトウェブ分析とは、個人がウェブサイトを所有または維持しているかどうかにかかわらず、ウェブ測定および分析を指します。, それはウェブサイトの潜在的な聴衆(機会)、声(可視性)の分け前、および全体としてインターネットで起こっているぶんぶん言う音(コメント)の測定を含んでいる。
  • オンサイトウェブ分析は、二つのより一般的な、特定のウェブサイト上で一度訪問者の行動を測定します。 たとえば、異なるランディングページがオンライン購入に関連付けられている程度などです。 オンサイトweb分析は、商業的な文脈で特定のwebサイトのパフォーマンスを測定します。, このデータは一般に対して比較されるキーのためのパフォーマンス指標性能として用いられるインターネットホームページやマーケティングキャンペーンの観客に応じます。 GoogleアナリティクスとAdobeアナリティクスは、オンサイトのweb分析サービスで最も広く使用されていますが、ヒートマップやセッションリプレイなど、追加の

歴史的に、ウェブ分析は、オンサイト訪問者の測定を参照するために使用されてきました。 しかし、この意味では面で境界がなくなりつつあり、ベンダーの製造ツールの間には、両カテゴリを対象とします。, 多くの異なるベンダの提供するサイトのウェブ解析ソフトウェア-サービス データを収集するには、二つの主な技術的方法があります。 最初の従来の方法であるserver log file analysisは、webサーバーがブラウザーによるファイル要求を記録するログファイルを読み取ります。 第二の方法であるページタグ付けは、webページに埋め込まれたJavaScriptを使用して、webページがwebブラウザによってレンダリングされたり、必要に応じてマウスクリ 両方のデータを収集することで処理されweb交通ます。,

Web analytics data sourcesEdit

web analyticsの基本的な目標は、webトラフィックと使用パターンに関連するデータを収集および分析することです。 直接HTTPリクエストデータ:直接HTTPリクエストメッセージ(HTTPリクエストヘッダー)から来ています。

  • HTTP要求に関連付けられたネットワークレベルおよびサーバ生成データ:HTTP要求の一部ではありませんが、要求の送信が成功するために必要です(たとえば、要,
  • HTTPリクエストで送信されるアプリケーションレベルのデータ:アプリケーションレベルのプログラム(JavaScript、PHP、およびASP.Netセッションおよび紹介を含む)。 これらは通常撮影による内部ログで公開ウェブ分析サービス
  • 外部データ:オンサイトデータと組み合わせて、上記のウェブサイトの行動データを強化し、ウェブの使用状況を解釈するのに役立ちます。, たとえば、IPアドレスは、通常、地理的地域やインターネットサービスプロバイダー、電子メールの開封率とクリックスルー率、ダイレクトメールキャンペーンデータ、売上
  • Webサーバーログファイル分析編集

    Webサーバーは、トランザクションの一部をログファイルに記録します。 またまたこれらのログファイルを読むことが出来るのでプログラムに関する情報を提供するtweetは、ここブ-サービスを提供しています。 ウェブログ解析ソフト”,

    1990年代初頭、webサイトの統計は、主にwebサーバーに対して行われたクライアント要求(またはヒット)の数を数えることで構成されていました。 こうした合理的な方法で、当初は、それぞれのウェブサイトを頻繁について,単一のHTMLファイルで作成します。 しかし、HTMLでの画像の導入、および複数のHTMLファイルにまたがるwebサイトにより、この数はあまり役に立たなくなりました。 最初の本当の商業丸太の検光子は1994年にIPROによって解放された。

    二つの測定単位は、ウェブサーバー上の人間の活動の量をより正確に測定するために1990年代半ばに導入されました。, これらは、ページビューと訪問(またはセッション)でし ページビューは、グラフィックではなく、ページに対してwebサーバーに対して行われた要求として定義され、訪問は、特定の非アクティブ量、通常は30分後に期限切れ

    1990年代後半に検索エンジンのスパイダーやロボットが出現し、ウェブプロキシや大企業やIspに動的に割り当てられたIPアドレスとともに、ウェブサイトへのユニークな人間の訪問者を識別することがより困難になった。, ログ分析装置の応の追跡を訪問によるクッキーを無視するための要求から知られるモンスターボックスの方

    webキャッシュの広範な使用は、ログファイル分析の問題も提示しました。 ユーザーがページを再訪した場合、第二の要求はブラウザのキャッシュから取得されることが多いため、webサーバーによって要求が受信されません。 これは、サイトを通る人のパスが失われることを意味します。 キャッシュ可能に敗れを構成することによりwebサーバが、この結果に劣化した性能をお客様に大きな負荷方法に関する例を提供します。,

    Page taggingEdit

    キャッシュの存在下でのログファイル分析の精度、および外部委託サービスとしてweb分析を実行できるようにする欲求についての懸念は、第二のデータ収集方法、ページタグ付けまたは”Webバグ”につながった。

    1990年代半ばには、Webカウンターがよく見られました—これらは、画像が要求された回数を示すwebページに含まれる画像であり、そのページへの訪問回数の推, 1990年代後半、このコンセプトは、目に見えるものではなく小さな目に見えない画像を含むように進化し、JavaScriptを使用することによって、ページと訪問者に関する特定の情報を要求する画像と一緒に渡すようになりました。 この情報は、web分析会社によってリモートで処理され、広範な統計が生成されます。

    web analyticsサービスは、ユーザーにcookieを割り当てるプロセスも管理し、訪問中およびその後の訪問時にcookieを一意に識別できます。, クッキー受け入れたくなったけれど、予算が大幅にサイトに影響を及ぼす可能性があり、品質データの収集について報告。

    サードパーティのデータ収集サーバー(または社内のデータ収集サーバー)を使用してwebサイトデータを収集するには、収集サーバーのIPアドレスを決定するために、ユーザーのコンピュータによる追加のDNS検索が必要です。 場合によっては、DNS検索の成功または失敗の完了が遅れると、データが収集されなくなることがあります。,

    Ajaxベースのソリューションの人気が高まるにつれて、目に見えないイメージを使用する代わりに、レンダリングされたページからサーバーにコールバックを実装 この場合、ページがwebブラウザーでレンダリングされると、Ajaxコードの一部がサーバーにコールバックされ、クライアントに関する情報が渡され、web分析会社によっ これは、XmlHttpRequestオブジェクトと接続できるサーバー上のブラウザの制限によっていくつかの点で欠陥があります。, また、この方法は、Ajax呼び出しが行われる前に訪問者が応答の途中でページの読み込みを停止する可能性があるため、報告されたトラフィックレベル

    ログファイル分析対ページタグ付け編集

    ログファイル分析プログラムとページタグ付けソリューションの両方が、web分析を実行したい企業にとってすぐに利用できます。 場合によっては、同じweb分析会社が両方のアプローチを提供します。 その後、会社がどの方法を選択すべきかという疑問が生じます。 それぞれのアプローチには長所と短所があります。,

    ログファイル分析の利点編集

    ページタグ付けに対するログファイル分析の主な利点は次のとおりです。

    • webサーバーは通常、すでにログファイルを生成しているため、生データはすでに利用可能です。 ウェブサイトへの変更は必要ありません。
    • データは自社のサーバー上にあり、独自の形式ではなく標準形式です。 このしやすい会社プログラムを切り替え以降、複数の異なるプログラムの分析履歴データを新しいプログラム。,
    • ログファイルには、検索エンジンのスパイダーからの訪問に関する情報が含まれています。 (一部の検索エンジンは、ページ上でJavaScriptを実行しない場合があります。)これらは人間の活動の一部として報告されるべきではありませんが、検索エンジン最適化のための有用な情報です。
    • ログファイルでは、追加のDNSルックアップやTCP遅い開始は必要ありません。 このような外部のサーバーの電話をゆっくりできるページのロード速度、または結果uncountedす。
    • webサーバーは、それが行うすべてのトランザクションを確実に記録します。,g.スクリプトによって生成されたPDF文書およびコンテンツを提供し、訪問者のブラウザが協力することに依存しない。

    ページタグ付けの利点edit

    ログファイル分析よりもページタグ付けの主な利点は次のとおりです。

    • カウントは、webクライアントがタグスクリプトを実行する場合には、サーバーから要求しないで、ページを開くことによってアクティブになります。 ページがキャッシュされている場合、サーバーベースのログ分析ではカウントされません。 キャッシュされたページは、すべてのページビューの三分の一までを占めることができ、多くのサイト指標に悪影響を,
    • データは、ページ内のコンポーネント(”タグ”)を介して収集され、通常はJavaScriptで書かれますが、JavaまたはFlashも使用できます。 Ajaxは、サーバー側のスクリプト言語(PHPなど)と組み合わせて使用して、データベースを操作して(通常は)データベースに保存することもでき、基本的にデータがどのように表
    • スクリプトは、訪問者の画面サイズや購入した商品の価格など、クエリで送信されないwebクライアントまたはユーザーの追加情報にアクセスでき,
    • ページタグ付けは、Flashムービー内のやり取り、部分的なフォーム補完、onClick、onMouseOver、onFocus、onBlurなどのマウスイベントなど、webサーバーへの要求を伴わないイベントについて報告できます。
    • ページタグ付けサービスは、訪問者にcookieを割り当てるプロセスを管理します。
    • ページのタグ付けは、自分のwebサーバーにアクセスできない企業が利用できます。
    • 最近、ページタグ付けはweb分析の標準となっています。,

    Economic factorsEdit

    ログファイル分析は、ほとんどの場合、社内で実行されます。 ページのタグ付けは社内で実行できますが、サードパーティのサービスとして提供されることが多いです。 これら二つのモデル間の経済的な違いはまた購入するかどれを決定する会社のための考察である場合もある。

    • ログファイル分析には通常、一度だけのソフトウェア購入が含まれますが、一部のベンダーでは、追加情報を処理するために追加コストをかけて年間ページビューを最大に導入しています。, 商用の製品に加えて、いくつかのオープンソースのログファイル分析ツールが無料で利用できます。
    • ログファイル分析のためには、データを格納およびアーカイブする必要があります。 これを行うためのハードウェアのコストは最小限ですが、IT部門のオーバーヘッドはかなりのものになる可能性
    • ログファイル解析ソフトウェアの更新やセキュリティパッチを含め、保守する必要があります。
    • 複雑なページタグ付けベンダーは、収集された月あたりのページビュー数などの量に基づいて月額料金を請求します。,

    どのソリューションを実装するのが安いかは、社内の技術的専門知識の量、選択したベンダー、ウェブサイトで見られる活動の量、求められる情報の深さと種類、および統計を必要とする別個のウェブサイトの数に依存する。

    採用されたベンダーソリューションまたはデータ収集方法にかかわらず、web訪問者の分析および解釈のコストも含める必要があります。 つまり、生データを実用的な情報に変換するコストです。, これは、サードパーティのコンサルタントの使用、経験豊富なwebアナリストの雇用、または適切な社内人の訓練から行うことができます。 その後、費用便益分析を実行することができます。 たとえば、web訪問者データを分析することで、どのような収益の増加やコスト削減が得られますか?

    Hybrid methodsEdit

    一部の企業では、ログファイルとページタグ付けの両方を介してデータを収集し、両方の種類を分析できるソリューションを作成しています。 によるハイブリッド法によるものを目指し、より正確な統計をしており、そのほとんどの方法です。, 初期のハイブリッドソリューション制作された1998年よァEvison.

    訪問者の地理位置情報編集

    IP地理位置情報を使用すると、訪問者の場所を追跡することができます。 IP地理位置情報データベースまたはAPIを使用して、訪問者は都市、地域または国レベルに地理位置情報を設定できます。

    IPインテリジェンス、またはインターネットプロトコル(IP)インテリジェンスは、インターネットをマッピングし、地理的位置(国、地域、州、都市、郵便番号)、接続タイプ、インターネットサービスプロバイダ(ISP)、プロキシ情報などのパラメータによってIPアドレスを分類する技術です。, 第一世代のIPインテリジェンスは、geotargetingまたはgeolocation technologyと呼ばれていました。 この情報は、オンライン広告、行動ターゲティング、コンテンツのローカライズ(またはウェブサイトのローカライズ)、デジタル著作権管理、パーソナライゼーション、,

    Click analyticsEdit

    移動量を象徴するために、左の参照ページと厚さと広がりが異なる矢印と長方形でクリックパス分析。

    クリック分析は、クリックに特別な注意を払う特別なタイプのweb分析です。

    一般的に、click analyticsはオンサイト分析に焦点を当てています。 ウェブサイトの編集者は、クリック分析を使用して、サイトのユーザーがクリックしている場所に関して、特定のサイトのパフォーマンスを決定します。,

    また、クリック分析は、求められる情報の種類に応じて、リアルタイムまたは”非現実的な”時間に発生する可能性があります。 一般的に、トラフィックの高いニュースメディアサイトのフロントページ編集者は、コンテンツを最適化するために、リアルタイムで自分のページを監視 編集者、デザイナー、または他のタイプの利害関係者は、より広い時間枠でクリックを分析して、ライター、デザイン要素、広告などのパフォーマンスを評価す

    クリックに関するデータは、少なくとも二つの方法で収集することができます。, 理想的には、クリックが発生したときに”記録”され、この方法では、イベントが発生したときに関連情報を取得する機能が必要です。 また、研究所を前提に、ページビューはクリックしてログ擬似クリックに至るページ。

    Customer lifecycle analyticsEdit

    Customer lifecycle analyticsは、ライフサイクルマーケティングの傘下にある測定に対する訪問者中心のアプローチです。 ページビュー、クリック、その他のイベント(API呼び出し、サードパーティサービスへのアクセスなど), ですので、全てを手個人のお客様の代わりに格納されるようになってい別のデータポイント。 お客様のライフサイクル分析の試み接続のすべてのデータポイントへのマーケティングファンネルが提供できる洞察をお客様がどのようなサービスやwebサイトを最適化する

    その他のメソッド編集

    データ収集の他のメソッドが使用されることがあります。 パケットを盗聴を収集によるデータの盗聴の交通ネットワークの間を通過するウェブサーバーを外す。 パケットスニッフィングは、webページやwebサーバーに変更を加えません。, Web分析をwebサーバーソフトウェア自体に統合することも可能です。 両方のこれらの方法の請求項をよりリアルタイムデータ以外の方法。

    コメントを残す

    メールアドレスが公開されることはありません。 * が付いている欄は必須項目です