większość procesów web analytics sprowadza się do czterech zasadniczych etapów lub kroków, które są:
- zbieranie danych: ten etap jest zbieraniem podstawowych, elementarnych danych. Zazwyczaj dane te są liczone rzeczy. Celem tego etapu jest zebranie danych.
- przetwarzanie danych w informacje: na tym etapie zwykle bierze się zliczenia i czyni je współczynnikami, chociaż nadal mogą istnieć pewne zliczenia., Celem tego etapu jest przyjęcie danych i dostosowanie ich do informacji, w szczególności metryk.
- rozwijanie KPI: ten etap koncentruje się na wykorzystaniu wskaźników (i zliczeń) i wprowadzeniu ich do strategii biznesowych, zwanych kluczowymi wskaźnikami wydajności (KPI). Wiele razy KPI dotyczą aspektów konwersji, ale nie zawsze. To zależy od organizacji.
- Formułowanie strategii online: ten etap dotyczy celów online, celów i standardów dla organizacji lub biznesu., Strategie te są zwykle związane z zarabianiem pieniędzy, oszczędzaniem pieniędzy lub zwiększaniem rynku.
kolejną istotną funkcją opracowaną przez analityków do optymalizacji stron internetowych są eksperymenty
- eksperymenty i testy: testowanie A / B jest kontrolowanym eksperymentem z dwoma wariantami, w Ustawieniach online, takich jak tworzenie stron internetowych.
celem testów A / B jest identyfikacja i sugerowanie zmian na stronach internetowych, które zwiększają lub maksymalizują efekt statystycznie testowanego wyniku zainteresowania.
każdy etap ma wpływ lub może mieć wpływ (tj.,, dyski) etap poprzedzający lub następujący po nim. Tak więc czasami dane, które są dostępne do zebrania, wpływają na strategię online. Innym razem strategia online wpływa na zebrane dane.
technologie analityki Internetowejedytuj
istnieją co najmniej dwie kategorie analityki internetowej, poza witryną i analityki internetowej na miejscu.
- Off-site web analytics odnosi się do pomiaru i analizy stron internetowych niezależnie od tego, czy dana osoba jest właścicielem lub utrzymuje stronę internetową., Obejmuje to pomiar potencjalnej grupy odbiorców (możliwości) strony internetowej, udział głosu (widoczność) i szumu (komentarze), który dzieje się w Internecie jako całości.
- On-site web analytics, bardziej powszechne z nich, zmierzyć zachowanie odwiedzającego raz na określonej stronie internetowej. Obejmuje to sterowniki i konwersje; na przykład stopień, w jakim różne strony docelowe są powiązane z zakupami online. Analityka internetowa na miejscu mierzy wydajność określonej strony internetowej w kontekście komercyjnym., Dane te są zazwyczaj porównywane z kluczowymi wskaźnikami wydajności i są wykorzystywane do poprawy reakcji odbiorców na stronie internetowej lub kampanii marketingowej. Google Analytics i Adobe Analytics są najczęściej używanymi usługami analityki internetowej na miejscu; pojawiają się jednak nowe narzędzia, które zapewniają dodatkowe warstwy informacji, w tym mapy ciepła i powtórkę sesji.
historycznie analityka internetowa była używana do pomiaru odwiedzin na stronie. Jednak znaczenie to stało się niewyraźne, głównie dlatego, że dostawcy produkują narzędzia, które obejmują obie kategorie., Wielu różnych dostawców zapewnia oprogramowanie i usługi analizy internetowej na miejscu. Istnieją dwa główne techniczne sposoby gromadzenia danych. Pierwsza i tradycyjna metoda, server log file analysis, odczytuje pliki logów, w których serwer WWW rejestruje żądania plików przez przeglądarki. Druga metoda, tagowanie stron, wykorzystuje JavaScript osadzony na stronie internetowej do wysyłania żądań obrazów do serwera dedykowanego analitykom innej firmy, za każdym razem, gdy strona jest renderowana przez przeglądarkę internetową lub, w razie potrzeby, po kliknięciu myszy. Oba zbierają dane, które mogą być przetwarzane w celu tworzenia raportów o ruchu w sieci.,
Web analytics źródła danychedytuj
podstawowym celem web analytics jest zbieranie i analizowanie danych związanych z ruchem w sieci i wzorcami użytkowania. Dane pochodzą głównie z czterech źródeł:
- bezpośrednie dane żądania HTTP: bezpośrednio pochodzą z wiadomości żądania HTTP (nagłówki żądań HTTP).
- dane generowane z poziomu sieci i serwera powiązane z żądaniami HTTP: nie są częścią żądania HTTP, ale są wymagane do pomyślnej transmisji żądania – na przykład adres IP żądającego.,
- dane z poziomu aplikacji wysyłane z żądaniami HTTP: generowane i przetwarzane przez programy poziomu aplikacji (takie jak JavaScript, PHP i ASP.Net), w tym sesji i skierowań. Są one zwykle rejestrowane przez wewnętrzne dzienniki, a nie publiczne usługi analizy internetowej.
- dane zewnętrzne: mogą być łączone z danymi na miejscu, aby pomóc zwiększyć opisane powyżej dane dotyczące zachowania witryny i zinterpretować korzystanie z Internetu., Na przykład adresy IP są zwykle powiązane z regionami geograficznymi i dostawcami usług internetowych, stawkami otwierania i klikania poczty e-mail, danymi kampanii direct mail, sprzedażą i historią potencjalnych klientów lub innymi typami danych w razie potrzeby.
analiza pliku dziennika Serwerówedytuj
serwery internetowe rejestrują niektóre ze swoich transakcji w pliku dziennika. Wkrótce okazało się, że te pliki dziennika mogą być odczytywane przez program, aby dostarczyć dane na temat popularności strony internetowej. Tak powstał web log analysis software.,
na początku lat 90.statystyki stron internetowych polegały przede wszystkim na zliczaniu liczby zapytań klientów (lub odsłon) na serwer WWW. Początkowo była to rozsądna metoda, ponieważ każda strona internetowa często składała się z jednego pliku HTML. Jednak wraz z wprowadzeniem obrazów w HTML i stron internetowych, które obejmowały wiele plików HTML, liczba ta stała się mniej użyteczna. Pierwszy prawdziwy komercyjny Analizator logów został wydany przez IPRO w 1994 roku.
dwie jednostki miary zostały wprowadzone w połowie lat 90., aby dokładniej ocenić ilość ludzkiej aktywności na serwerach internetowych., Były to odsłony i wizyty (lub sesje). Widok strony został zdefiniowany jako żądanie skierowane do serwera www o stronę, w przeciwieństwie do grafiki, podczas gdy wizyta została zdefiniowana jako sekwencja żądań od jednoznacznie zidentyfikowanego klienta, które wygasły po pewnej ilości nieaktywności, zwykle 30 minut.
pojawienie się pająków i robotów wyszukiwarek pod koniec lat 90., wraz z serwerami proxy i dynamicznie przypisywanymi adresami IP dla dużych firm i dostawców usług internetowych, utrudniło identyfikację unikalnych osób odwiedzających stronę internetową., Analizatory logów zareagowały śledząc wizyty za pomocą Plików cookie i ignorując żądania znanych pająków.
szerokie wykorzystanie pamięci podręcznych www również stanowiło problem przy analizie plików logów. Jeśli dana osoba ponownie odwiedzi stronę, drugie żądanie często zostanie pobrane z pamięci podręcznej przeglądarki, a więc serwer WWW nie otrzyma żadnego żądania. Oznacza to, że ścieżka osoby przez witrynę jest utracona. Buforowanie może zostać pokonane przez skonfigurowanie serwera www, ale może to spowodować pogorszenie wydajności dla odwiedzającego i większe obciążenie serwerów.,
oznaczanie Stronedytuj
obawy o dokładność analizy plików dziennika w obecności buforowania oraz chęć wykonania analizy stron internetowych jako usługi outsourcingowej doprowadziły do drugiej metody zbierania danych, tagowania stron lub „błędów internetowych”.
w połowie lat 90. XX wieku powszechnie widziano liczniki internetowe — były to obrazy zawarte na stronie internetowej, które pokazywały liczbę żądań obrazu, co stanowiło szacunkową liczbę odwiedzin na tej stronie., Pod koniec lat 90. koncepcja ta ewoluowała, aby uwzględnić mały niewidoczny obraz zamiast widocznego i, za pomocą JavaScript, przekazać wraz z obrazem żądanie pewnych informacji o stronie i odwiedzającym. Informacje te mogą być następnie przetwarzane zdalnie przez firmę analityczną i generowane obszerne statystyki.
usługa analityki internetowej zarządza również procesem przypisywania użytkownikowi pliku cookie, który może jednoznacznie zidentyfikować go podczas wizyty i podczas kolejnych wizyt., Wskaźniki akceptacji plików Cookie różnią się znacznie między stronami internetowymi i mogą wpływać na jakość gromadzonych i raportowanych danych.
zbieranie danych strony internetowej za pomocą zewnętrznego serwera gromadzenia danych (lub nawet wewnętrznego serwera gromadzenia danych) wymaga dodatkowego wyszukiwania DNS przez komputer użytkownika w celu określenia adresu IP serwera gromadzenia danych. Czasami opóźnienia w zakończeniu pomyślnego lub nieudanego wyszukiwania DNS mogą spowodować, że dane nie zostaną zebrane.,
wraz z rosnącą popularnością rozwiązań opartych na Ajax, alternatywą dla wykorzystania niewidocznego obrazu jest zaimplementowanie wywołania z powrotem do serwera z wyrenderowanej strony. W takim przypadku, gdy strona jest renderowana w przeglądarce internetowej, fragment kodu Ajax oddzwoni do serwera i przekaże informacje o kliencie, które mogą być następnie agregowane przez firmę analityczną. Jest to w pewnym sensie błędne przez ograniczenia przeglądarki na serwerach, z którymi można się kontaktować z obiektami XmlHttpRequest., Ponadto metoda ta może prowadzić do nieco niższego poziomu zgłaszanego ruchu, ponieważ odwiedzający może zatrzymać ładowanie strony w połowie odpowiedzi przed wywołaniem Ajax.
analiza plików logów a oznaczanie stronedytuj
zarówno programy do analizy plików logów, jak i rozwiązania do tagowania stron są łatwo dostępne dla firm, które chcą przeprowadzać analizy stron internetowych. W niektórych przypadkach ta sama firma analityczna oferuje oba podejścia. Pojawia się pytanie, Jaką metodę firma powinna wybrać. Istnieją zalety i wady każdego podejścia.,
zalety analizy plików logówedytuj
główne zalety analizy plików logów nad tagowaniem stron są następujące:
- serwer WWW zwykle produkuje pliki logów, więc surowe dane są już dostępne. Nie są wymagane żadne zmiany na stronie internetowej.
- dane znajdują się na własnych serwerach firmy i są w standardowym, a nie zastrzeżonym formacie. Ułatwia to firmie późniejsze przełączanie programów, używanie kilku różnych programów i analizowanie danych historycznych za pomocą nowego programu.,
- pliki dziennika zawierają informacje o odwiedzinach z pająków wyszukiwarek, które zazwyczaj są wyłączone z narzędzi analitycznych za pomocą znaczników JavaScript. (Niektóre wyszukiwarki mogą nawet nie uruchamiać JavaScript na stronie.) Chociaż nie powinny one być zgłaszane jako część działalności człowieka, jest to przydatna informacja dla optymalizacji pod kątem wyszukiwarek.
- pliki logów nie wymagają dodatkowych wyszukiwań DNS ani powolnego uruchamiania TCP. W związku z tym nie ma zewnętrznych wywołań serwera, które mogą spowolnić szybkość ładowania strony lub spowodować nie liczone odsłony strony.
- serwer WWW niezawodnie rejestruje każdą dokonaną transakcję, np.,g. wyświetlania dokumentów PDF i treści generowanych przez skrypty i nie polega na współpracy przeglądarek odwiedzających.
zalety tagowania stronedytuj
główne zalety tagowania stron nad analizą plików dziennika są następujące:
- Liczenie jest aktywowane przez otwarcie strony (biorąc pod uwagę, że web Klient uruchamia skrypty znaczników), nie żądając go z serwera. Jeśli strona jest buforowana, nie będzie ona liczona przez Analizę logów opartą na serwerze. Strony w pamięci podręcznej mogą zawierać do jednej trzeciej wszystkich wyświetleń strony, co może mieć negatywny wpływ na wiele wskaźników witryny.,
- dane są gromadzone za pomocą komponentu („znacznika”) na stronie, Zwykle napisanego w JavaScript, choć można również użyć Javy lub Flash. Ajax może być również używany w połączeniu z językiem skryptowym po stronie serwera (takim jak PHP) do manipulowania i (zazwyczaj) przechowywania go w bazie danych, zasadniczo umożliwiając pełną kontrolę nad tym, jak dane są reprezentowane.
- skrypt może mieć dostęp do dodatkowych informacji w programie web client lub o użytkowniku, nie przesłanych w zapytaniu, takich jak rozmiary ekranu odwiedzających i cena zakupionych towarów.,
- tagowanie Stron może zgłaszać zdarzenia, które nie wymagają żądania do serwera www, takie jak interakcje w filmach Flash, częściowe wypełnianie formularzy, zdarzenia myszy, takie jak onClick, onMouseOver, onFocus, onBlur itp.
- usługa tagowania stron zarządza procesem przypisywania plików cookie odwiedzającym; w przypadku analizy plików dziennika serwer musi być skonfigurowany do tego celu.
- tagowanie stron jest dostępne dla firm, które nie mają dostępu do własnych serwerów WWW.
- ostatnio tagowanie stron stało się standardem w analityce internetowej.,
czynniki Ekonomiczneedytuj
analiza plików logów jest prawie zawsze wykonywana we własnym zakresie. Tagowanie stron może być wykonywane we własnym zakresie, ale częściej jest dostarczane jako usługa strony trzeciej. Różnica ekonomiczna między tymi dwoma modelami może być również czynnikiem decydującym o zakupie przez firmę.
- analiza plików logów zazwyczaj obejmuje jednorazowy zakup oprogramowania; jednak niektórzy dostawcy wprowadzają maksymalne roczne odsłony stron z dodatkowymi kosztami przetwarzania dodatkowych informacji., Oprócz ofert komercyjnych dostępnych jest bezpłatnie kilka narzędzi do analizy plików dziennika typu open source.
- w przypadku analizy plików logów dane muszą być przechowywane i archiwizowane, co często szybko rośnie. Chociaż koszt sprzętu do tego jest minimalny, koszty ogólne dla działu IT mogą być znaczne.
- w przypadku oprogramowania do analizy plików logów należy utrzymywać oprogramowanie, w tym aktualizacje i poprawki zabezpieczeń.
- dostawcy kompleksowego tagowania stron pobierają miesięczną opłatę w oparciu o ilość, tj. liczbę wyświetleń strony w miesiącu.,
to, które rozwiązanie jest tańsze do wdrożenia, zależy od ilości wiedzy technicznej w firmie, wybranego dostawcy, ilości aktywności obserwowanej na stronach internetowych, głębokości i rodzaju poszukiwanych informacji oraz liczby odrębnych stron internetowych wymagających statystyk.
niezależnie od zastosowanego rozwiązania dostawcy lub metody gromadzenia danych, należy również uwzględnić koszt analizy i interpretacji odwiedzających stronę internetową. Oznacza to, że koszt przekształcenia nieprzetworzonych danych w użyteczne informacje., Może to wynikać z korzystania z konsultantów zewnętrznych, zatrudnienia doświadczonego analityka internetowego lub szkolenia odpowiedniej osoby wewnętrznej. Następnie można przeprowadzić analizę kosztów i korzyści. Na przykład, jaki wzrost przychodów lub oszczędności można uzyskać, analizując dane odwiedzających witrynę?
metody Hybrydoweedit
niektóre firmy produkują rozwiązania, które zbierają dane zarówno poprzez pliki dziennika, jak i tagowanie stron i mogą analizować oba rodzaje. Stosując metodę hybrydową, mają one na celu tworzenie dokładniejszych statystyk niż każda z metod sama w sobie., Wczesne rozwiązanie hybrydowe zostało wyprodukowane w 1998 roku przez Rufusa Evisona.
Geolokalizacja odwiedzinedytuj
dzięki geolokalizacji IP możliwe jest śledzenie lokalizacji odwiedzających. Korzystając z geolokalizacyjnej bazy danych IP lub API, odwiedzający mogą być geolokalizowani na poziomie miasta, regionu lub kraju.
inteligencja IP, lub Internet Protocol (IP) Intelligence, to technologia, która mapuje Internet i kategoryzuje adresy IP według parametrów, takich jak lokalizacja geograficzna (kraj, region, Stan, Miasto i Kod Pocztowy), typ połączenia, dostawca usług internetowych (ISP), informacje proxy i inne., Pierwsza generacja inteligencji IP była określana jako technologia geotargetingu lub geolokalizacji. Informacje te są wykorzystywane przez firmy do segmentacji odbiorców online w aplikacjach takich jak reklama online, targetowanie behawioralne, lokalizacja treści (lub lokalizacja strony internetowej), zarządzanie prawami cyfrowymi, Personalizacja, wykrywanie oszustw online, zlokalizowane wyszukiwanie, ulepszona analityka, globalne zarządzanie ruchem i dystrybucja treści.,
kliknij analyticsEdit
Analiza ścieżki kliknięcia z odsyłającymi stronami po lewej stronie oraz strzałkami i prostokątami różniącymi się grubością i przestrzenią, symbolizującymi ilość ruchu.
Click analytics to specjalny rodzaj analizy internetowej, który zwraca szczególną uwagę na kliknięcia.
zazwyczaj click analytics skupia się na analizie na miejscu. Edytor witryny korzysta z analizy kliknięć w celu określenia wydajności swojej konkretnej witryny, w odniesieniu do miejsca, w którym użytkownicy witryny klikają.,
również analiza kliknięć może mieć miejsce w czasie rzeczywistym lub w czasie „nierealnym”, w zależności od rodzaju poszukiwanych informacji. Zazwyczaj redaktorzy pierwszych stron w serwisach medialnych o dużym natężeniu ruchu będą chcieli monitorować swoje strony w czasie rzeczywistym, aby zoptymalizować zawartość. Redaktorzy, projektanci lub inne typy interesariuszy mogą analizować kliknięcia w szerszym przedziale czasowym, aby pomóc im ocenić wydajność pisarzy, elementów projektu lub reklam itp.
dane o kliknięciach mogą być gromadzone na co najmniej dwa sposoby., Najlepiej jest, gdy kliknięcie jest „rejestrowane”, a ta metoda wymaga pewnej funkcjonalności, która pobiera odpowiednie informacje, gdy wystąpi zdarzenie. Alternatywnie można założyć, że widok strony jest wynikiem kliknięcia, a zatem zarejestrować symulowane kliknięcie, które doprowadziło do tego widoku strony.
Analiza cyklu Życiowegoedytuj
Analiza cyklu życia klienta to podejście zorientowane na odwiedzających do pomiaru, które wchodzi w zakres marketingu cyklu życia. Wyświetlenia stron, kliknięcia i inne zdarzenia (takie jak wywołania API, dostęp do usług innych firm itp.,) są powiązane z indywidualnym odwiedzającym, a nie są przechowywane jako oddzielne punkty danych. Analiza cyklu życia klienta próbuje połączyć wszystkie punkty danych w lejek marketingowy, który może oferować wgląd w zachowanie odwiedzających i optymalizację witryny.
Inne metodyedytuj
Inne metody zbierania danych są czasami używane. Sniffing pakietów zbiera dane poprzez wąchanie ruchu sieciowego przechodzącego między serwerem WWW a światem zewnętrznym. Sniffing pakietów nie wymaga żadnych zmian na stronach internetowych ani serwerach internetowych., Możliwa jest również integracja analityki internetowej z samym oprogramowaniem serwera www. Obie te metody twierdzą, że zapewniają lepsze dane w czasie rzeczywistym niż inne metody.