Вставка данных Google Analytics в S3 или Redshift

Пара обновлений для добавления после работы над этой темой на некоторое время:

  1. все решения с .is (": hover") сломаются на jQuery 1.9.1
  2. Наиболее вероятная причина проверить, находится ли мышь по-прежнему над элементом, заключается в попытке предотвратить срабатывание событий друг над другом. Например, у нас были проблемы с запуском и завершением мыши, прежде чем наше событие mouseenter даже завершилось. Конечно, это было связано с быстрым движением мыши.

Мы использовали hoverIntent https://github.com/briancherne/jquery-hoverIntent , чтобы решить проблему для нас. По сути, это срабатывает, если движение мыши более преднамеренное. (одна вещь, которую следует отметить, это то, что она будет запускаться на обеих мышах, введя элемент и уходя - если вы только хотите использовать один проход конструктора пустую функцию)

0
задан Prajakta Yerpude 27 February 2019 в 17:37
поделиться

1 ответ

Google Analytics имеет API ( Базовый API отчетности ). Это хорошо для получения случайных KPI, но из-за ограничений API не подходит для экспорта большого количества исторических данных.

Для больших дампов данных лучше использовать Ссылку на BigQuery («Ссылка», потому что я хочу избежать слова «интеграция», которое подразумевает более высокий уровень контроля, чем вы на самом деле).

Настроить ссылку на BigQuery довольно просто - вы создаете проект в Google Cloud Console , включаете биллинг (BigQuery предоставляется за отдельную плату, он не входит в контракт GA360), добавляете свою электронную почту обратитесь к владельцу BigQuery в разделе «Администратор IAM & amp;», перейдите в свою учетную запись GA и введите идентификатор проекта BigQuery в разделе «Администратор GA», «Настройки свойств / Связывание продуктов / Все продукты / Ссылка BigQuery». Процесс описан здесь: https://support.google.com/analytics/answer/3416092

Вы можете выбирать между стандартными обновлениями и обновлением потоковой передачи - последнее предоставляется за дополнительную плату. , но дает вам данные в реальном времени. Первый обновляет данные в BigQuery три раза в день каждые восемь часов.

Экспортированные данные не являются необработанными данными, они уже сессионные (т. Е. В то время как вы получите по одной строке на каждое попадание, например, атрибуция трафика для этого попадания будет зависеть от сеанса).

Вы будете платить три разных вида сборов - один за экспорт в BigQuery, один за хранение и один за фактические запросы. Цены указаны здесь: https://cloud.google.com/bigquery/pricing .

Цены зависят от региона, между прочим. Регион, в котором хранятся данные, также может быть важен, когда речь идет о юридических вопросах - например, если вы должны соблюдать GDPR, ваши данные должны храниться в ЕС. Убедитесь, что вы правильно выбрали регион, потому что перемещение данных между регионами громоздко (вам нужно экспортировать таблицы в хранилище Google Cloud и повторно импортировать их в нужный регион) и довольно дорого.

Вы не можете просто удалить данные и выполнить новый экспорт - при первом экспорте BigQuery выполнит обратную засыпку данных за последние 13 месяцев, однако сделает это только один раз для каждого просмотра. Поэтому, если вам нужны исторические данные, лучше поймите это правильно, потому что, если вы удалите данные в BQ, вы не получите их обратно.

Я на самом деле мало что знаю о Redshift, но согласно вашему комментарию вы хотите отобразить данные в Tableau, и Tableau напрямую подключается к BigQuery.

Мы используем пользовательские запросы SQL для передачи данных в Таблицу (данные Google Analytics хранятся в ежедневных таблицах, а пользовательский SQL представляется наиболее простым способом запроса данных по многим таблицам). BigQuery имеет пользовательский кэш, который длится 24 часа, пока запрос не изменяется, поэтому вы не будете платить за запрос каждый раз, когда открывается отчет. Это все еще хорошая идея, чтобы следить за затратами - стоимость основана не на размере результата, а на количестве данных, которые нужно искать, чтобы получить желаемый результат, поэтому, если вы запрашиваете в течение длительного периода времени и, возможно, сделать несколько объединений, один запрос может стоить десятки евро (умножить на количество пользователей, использующих запрос).

0
ответ дан Eike Pierstorff 27 February 2019 в 17:37
поделиться
Другие вопросы по тегам:

Похожие вопросы: