Веб аналітика

From Wikiversity

Веб аналітика[edit]

Веб-аналітика – це вимірювання, збір, аналіз і звітування веб-даних для розуміння й оптимізації використання Інтернету. Веб-аналітика – це не просто процес вимірювання веб-трафіку, але може використовуватися як інструмент для дослідження бізнесу та ринку, а також оцінки та підвищення ефективності веб-сайту. Додатки веб-аналітики також можуть допомогти компаніям оцінити результати традиційних друкованих або трансляційних рекламних кампаній. Його можна використовувати для оцінки того, як змінюється трафік на веб-сайт після запуску нової рекламної кампанії. Веб-аналітика надає інформацію про кількість відвідувачів веб-сайту та кількість переглядів сторінок. Це допомагає оцінити тенденції трафіку та популярності, що корисно для дослідження ринку. Основні етапи процесу веб-аналітики Більшість процесів веб-аналітики зводяться до чотирьох основних етапів або кроків:Збір даних: Цей етап – збір основних, елементарних даних. Зазвичай ці дані є підрахунками. Метою цього етапу є збір даних.Обробка даних в інформацію: на цьому етапі зазвичай береться підрахунок і формується їх співвідношення, хоча деякі підрахунки все ж можуть бути. Метою цього етапу є отримання даних і узгодження їх з інформацією, зокрема метриками.Розробка KPI: на цьому етапі зосереджено на використанні коефіцієнтів (і підрахунків) та наповненні їх бізнес-стратегіями, які називають ключовими показниками ефективності (KPI). Багато разів KPI стосуються аспектів конверсії, але не завжди. Це залежить від організації.Формулювання онлайн-стратегії: Цей етап стосується онлайн-цілей, завдань і стандартів для організації чи бізнесу. Ці стратегії зазвичай пов’язані із зароблянням грошей, заощадженням грошей або збільшенням частки ринку.Іншою важливою функцією, розробленою аналітиками для оптимізації веб-сайтів, є експерименти Експерименти та тестування: A/B-тестування – це контрольований експеримент із двома варіантами в онлайн-налаштуваннях, наприклад веб-розробка.Мета A/B-тестування полягає в тому, щоб визначити та запропонувати зміни до веб-сторінок, які підвищують або максимізують ефект статистично перевіреного результату, який цікавить.Кожен етап впливає або може вплинути (тобто стимулювати) на етап, що передує або слідує за ним. Тому іноді дані, які доступні для збору, впливають на онлайн-стратегію. В інших випадках онлайн-стратегія впливає на зібрані дані.

Технології веб-аналітики[edit]

Існує принаймні дві категорії веб-аналітики: веб-аналітика поза сайтом і веб-аналітика на сайті.Веб-аналітика за межами сайту відноситься до веб-вимірювання та аналізу незалежно від того, чи є особа власником веб-сайту чи підтримує його. Він включає вимірювання потенційної аудиторії веб-сайту (можливості), частки голосу (видимості) та галасу (коментарі), що відбувається в Інтернеті в цілому.Веб-аналітика на сайті, більш поширена з двох, вимірює поведінку відвідувача один раз на певному веб-сайті. Це включає його драйвери та перетворення; наприклад, ступінь пов’язаності різних цільових сторінок з покупками в Інтернеті. Веб-аналітика на місці вимірює ефективність конкретного веб-сайту в комерційному контексті. Ці дані зазвичай порівнюються з ключовими показниками ефективності та використовуються для покращення реакції аудиторії веб-сайту або маркетингової кампанії. Google Analytics і Adobe Analytics є найбільш широко використовуваними послугами веб-аналітики на сайті; хоча з’являються нові інструменти, які надають додаткові шари інформації, включаючи теплові карти та відтворення сеансу.Історично веб-аналітика використовувалася для позначення вимірювання відвідуваності на сайті. Однак це значення стало розмитим, головним чином тому, що постачальники виробляють інструменти, які охоплюють обидві категорії. Багато різних постачальників надають програмне забезпечення та послуги веб-аналітики на місці. Існує два основних технічних способи збору даних. Перший і традиційний метод, аналіз файлів журналу сервера, зчитує файли журналу, в які веб-сервер записує запити файлів від браузерів. Другий метод, тегування сторінки, використовує JavaScript, вбудований у веб-сторінку, щоб надсилати запити зображень до стороннього сервера, призначеного для аналітики, щоразу, коли веб-сторінка відображається веб-браузером або, за бажанням, коли відбувається клацання мишею. Обидва збирають дані, які можна обробити для створення звітів про веб-трафік.

Джерела даних веб-аналітики[edit]

Основною метою веб-аналітики є збір і аналіз даних, пов’язаних з веб-трафіком і моделями використання. Дані в основному надходять з чотирьох джерел: Дані прямих запитів HTTP: безпосередньо надходять із повідомлень запитів HTTP (заголовки запитів HTTP).Дані на рівні мережі та сервера, пов’язані із запитами HTTP: не є частиною HTTP-запиту, але необхідні для успішної передачі запитів, наприклад, IP-адреса запитувача.Дані рівня програми, надіслані із запитами HTTP: генеруються та обробляються програмами рівня програми (наприклад, JavaScript, PHP і ASP.Net), включаючи сеанси та рефералів. Зазвичай вони фіксуються внутрішніми журналами, а не загальнодоступними службами веб-аналітики. Зовнішні дані: можна поєднувати з даними на сайті, щоб допомогти розширити дані про поведінку веб-сайту, описані вище, та інтерпретувати використання Інтернету. Наприклад, IP-адреси зазвичай асоціюються з географічними регіонами та постачальниками Інтернет-послуг, показниками відкритості та кліків електронної пошти, даними кампанії прямої розсилки, продажами та історією потенційних клієнтів або іншими типами даних, якщо потрібно.

Аналіз файлу журналу веб-сервера[edit]

Веб-сервери записують деякі зі своїх транзакцій у файл журналу. Незабаром стало зрозуміло, що ці файли журналів можуть бути прочитані програмою, щоб надати дані про популярність веб-сайту. Так з'явилося програмне забезпечення для аналізу веб-журналів. На початку 1990-х років статистика веб-сайту в основному полягала в підрахунку кількості клієнтських запитів (або звернень), зроблених на веб-сервер. Спочатку це був розумний метод, оскільки кожен веб-сайт часто складався з одного файлу HTML. Однак із запровадженням зображень у HTML та веб-сайтів, які охоплювали декілька файлів HTML, ця кількість стала менш корисною. Перший справжній комерційний Log Analyzer був випущений IPRO у 1994 році.Дві одиниці вимірювання були введені в середині 1990-х, щоб точніше вимірювати кількість людської активності на веб-серверах. Це були перегляди сторінок і відвідування (або сеанси). Перегляд сторінки визначався як запит, зроблений веб-серверу щодо сторінки, на відміну від графічного зображення, тоді як відвідування було визначено як послідовність запитів від унікально ідентифікованого клієнта, термін дії якого закінчився після певної кількості бездіяльності, зазвичай 30 хвилин. .Поява павуків і роботів пошукових систем наприкінці 1990-х років, а також веб-проксі та динамічно призначені IP-адреси для великих компаній і провайдерів, ускладнили визначення унікальних відвідувачів веб-сайту. Аналізатори журналів відповіли, відстежуючи відвідування файлами cookie та ігноруючи запити від відомих павуків.Широке використання веб-кешів також створило проблему для аналізу файлів журналів. Якщо людина повторно відвідує сторінку, другий запит часто витягується з кешу браузера, і тому веб-сервер не отримує запиту. Це означає, що шлях людини через сайт втрачено. Кешування можна подолати, налаштувавши веб-сервер, але це може призвести до погіршення продуктивності відвідувача та збільшення навантаження на сервери.

РЕКОМЕНДОВАНА ЛІТЕРАТУРА[edit]

1. Глоба Л.С. Розробка інформаційних ресурсів та систем Київ, „Політехніка”. — 2013. — 378 с

2. Morville P., Rosenfeld L. Information Architecture for the World Wide Web, 2nd Edition (2002, 496 p.), 3rd edition (2008, 528 p.), 4th edition (2015, 486 p.)— O'Reilly Media Publisher.

Для студентів старших років навчання. Основною метою є ознайомлення студентів з основами проведення наукових досліджень. Огірко І.В.