Proces modelowania atrybucji jest nie tylko ważny, ale i trudny, ponieważ wymaga wykorzystania dedykowanych narzędzi i wiedzy analitycznej. Jest to mozolny proces pogłębionych wieloczynnikowych analiz statystycznych oraz analizy ścieżek. Co więcej, nie sposób stworzyć standardowego modelu, który stanowiłby idealny wzorzec dla każdego biznesu. Wszystkie te trudności sprawiają, że modelowanie atrybucji dla niektórych osób stanowi modny i niewiele znaczący slogan i może być lekceważone i traktowane jako „sztuka dla sztuki”. Jak sobie z tym poradzić?
Z tego artykułu dowiesz się:
- czym jest atrybucja,
- jakie pułapki czyhają na analityków,
- co jest wartością modelu,
- jakiego typu modele można zastosować oraz dlaczego tak ważne jest wsparcie technologiczne.
Czym jest atrybucja?
Modelowanie atrybucji to jedno z popularnych wyrażeń, którego często używa się w kontekście optymalizacji inwestycji marketingowych. Jest to zasada, lub zestaw reguł, które umożliwiają zrozumienie jaka kombinacja zdarzeń ma wpływ na wystąpienie pożądanej akcji (np. sprzedaży), określając tym samym wartość danego narzędzia marketingowego na ścieżce konwersji. Celem modelowania jest porównanie różnych kanałów i odkrycie spójnego systemu, który w sprawiedliwy sposób wynagrodzi udział danego źródła w generowaniu sprzedaży. Sprawiedliwy, czyli będący odzwierciedleniem rzeczywistej mocy akwizycyjnej.
Wg badań Econsultancy/Google Analytics 72% użytkowników korzystających z modelowania atrybucji spodziewa się znaleźć metodę lepszej alokacji budżetów marketingowych, i w konsekwencji osiągnąć wzrost ROI. Kolejne wskazywane zalety to lepsze zrozumienie współdziałania kanałów, czy odkrycie modelu zachowania internauty kupującego dany produkt. Analityka atrybucyjna to polityka długofalowa – ma zapewnić jak największą przewidywalność przyszłej sprzedaży w biznesie.
Słuchaj „Marketer+” Podcast
Atrybucję obecnie stosuje się głównie w celu dostrzeżenia wagi poszczególnych narzędzi w kanale online. Nie trzeba być jednak właścicielem e-sklepu żeby była użyteczna, ponieważ modelować można również wypełnienia formularzy leadowych, rejestracyjnych czy długich wniosków – zależnie od tego, co ma wartość dla biznesu.
Coraz bardziej zaawansowane narzędzia monitorujące pozwalają na wyjście poza aktywności digital. Z jednej strony, przy użyciu odpowiedniej technologii i algorytmów, możemy już uwzględniać wpływ kampanii telewizyjnej na konwersje online. Z drugiej – możliwe jest odkrycie roli aktywności marketingowych w generowaniu ruchu na infolinii czy w call center.
Użytkowanie kilku ekranów (TV, desktop, tablet, smartfon) dodatkowo komplikuje rzeczywistość marketerów, którzy chcą się odnaleźć w gąszczu atrybucji. Multiscreening oznacza bowiem dalszą defragmentację środowiska analitycznego, przykładowo: kontakt z reklamą na portalu w wersji mobile jest gubiony w momencie, kiedy użytkownik wraca przed desktop. Marketer zamiast przykładowej ścieżki: e-mailing desktop -> baner mobile -> konwersja widzi tylko ciąg: e-mailing desktop -> konwersja, co daje fałszywy obraz rzeczywistości. Dostrzeżenie tych zależności jest możliwe tylko po obserwacji sytuacji niedostępnej dla większości baz danych – kiedy internauta jest bez przerwy zalogowany w serwisie umożliwiającym połączenie obu ekranów (np. Gmail zbierający historię desktopową i mobile’ową). Jest to więc na razie Święty Graal analityków.
Bohaterowie analityki
Dla uproszczenia wracamy więc do świata on-line. Trend w kierunku modelowania ścieżek konsumenckich sprawił, że zidentyfikowano negatywnego bohatera atrybucji. To wykorzystywana szeroko przez obecnie dostępne narzędzia metoda last click, czyli wynagradzanie za konwersję tylko wydawcy, który jako ostatni doprowadził do wykonania przez internautę akcji. Taki model faworyzuje ruch bezpośredni i retargetowany. A przecież zanim aktywności remarketingowe będą miały szansę zaistnieć, musimy sprowadzić innymi kanałami ruch do serwisu. Metoda last-click jest tak popularna ze względu na wcześniejsze ograniczenia technologiczne – w tej chwili narzędzia dają głębsze możliwości poznania zachowania internautów. Czemu więc z nich nie skorzystać i sprawdzić co rzeczywiście skłania konsumenta do zakupu?
Dla przykładu podamy następującą ścieżkę konsumenta: Klient A dokonał transakcji w e-sklepie. Przeszedł przez kilka narzędzi: link w wyszukiwarce (1.) – e-mailing na portalu horyzontalnym (2.) – display w porównywarce (3.) – wyszukiwarkę (4.) – wpisanie adresu sklepu w pasku przeglądarki (5.). Każde z tym narzędzi ma swoją pozycję (1-5) w całej ścieżce.
Jakie inny modele możemy wykorzystywać?
Obecnie dostępne narzędzia, dzięki informacjom o każdym touchpoincie występującym w procesie zakupowym, dają możliwości wypróbowania nowych modeli:
- first click – czyli odwrócenie modelu last-click; wynagrodzenie tylko za pierwszy kontakt (tutaj: link w wyszukiwarce). Jest to jeszcze słabsza merytorycznie metoda niż last-click. Można powiedzieć, że to trochę tak, jakby uznać, że zajęcia przedszkolne miały istotny wpływ na obecne sukcesy zawodowe.
- atrybucja linearna – podejście „wszystkim po równo”. Jeżeli ścieżka zbudowana jest przez 5 kontaktów (jak w przykładzie) wkład każdej z nich liczony jest na poziomie 20%. Model ten nie nadaje jednak właściwie żadnego znaczenia wykorzystywanym narzędziom.
- model oparty o czas – pierwszy pozytywny bohater. Od niego warto zacząć przygodę z modelowaniem atrybucji. Zasadą jest przyznawanie coraz wyższych wag źródłom w miarę zbliżania się do konwersji.
- model pozycyjny – zakłada posiadanie już pewnej wiedzy o ścieżkach klienta i istotności narzędzi. Analityk nadaje z góry określone wagi konkretnym pozycjom na ścieżce, np. drugiej i ostatniej najwyższe, pozostałym – równe.
- indywidualny – różne wagi dla różnych pozycji.
Dodatkowo, dobrze jeżeli model uwzględnia nie tylko ciągi mediów, które doprowadzają do sprzedaży, ale również te, które nie kończą się transakcją.
Metodologia, selekcja danych i dobór zmiennych
W pierwszej kolejności należy określić zakres czasowy danych, które będą podlegać analizie. Warto odnieść się do sezonowości biznesu, cykliczności i intensywności kampanii oraz specyfiki produktu. Posiłkując się tzw. „surowymi” danymi – np. z Google Analytics należy pamiętać, że maksymalne rekomendowane do analiz okno czasowe to trzy miesiące.
Warto również uporządkować dane np. przez wprowadzenie spójnej technologii i klasyfikacji. Jest to szczególnie przydatne przy intensywnych działaniach reklamowych, którym towarzyszy mnogość touchpointów występujących w ścieżkach zakończonych konwersją.
Spójna technologia monitorująca pozwala uniknąć duplikacji konwersji: sytuacji, w której po tą samą sprzedaż zgłasza się kilku wydawców. Przykładowo: wydawca A i B doprowadzili do sprzedaży o numerze 123. Obaj używają swoich własnych technologii, które danej konwersji nadają ich własne cookie. Obaj więc w swoich systemach zobaczą sprzedaż 123 i uznają że 100% zasług przypada właśnie im. A marketer nie będzie widział jak wygląda podział ról, bo nie posiada jednego, spójnego narzędzia agregującego wszystkie dane.
Warto rozważyć również selekcję danych poprzez usunięcie obserwacji odstających lub tych o niskiej istotności. W dalszej analizie kluczowe są również liczebności i częstości wystąpień danego touchpointa. Bardzo małe (tzw. szum) mogą wskazywać na nieistotność badanej zmiennej, a wyjątkowo duże mogą zaburzać obraz istotności pozostałych zmiennych.
Analiza długości ścieżek i pozycji występowania badanego touchpointa otwiera drzwi do badania zależności, które występują pomiędzy tymi zmiennymi w ścieżce. W efekcie powstaje od kilkunastu do kilkudziesięciu map zależności, na bazie których stworzenie jednorodnego, jednoznacznego i solidnego procentowego modelu wynagradzania za zasługę w konwersji jest niemożliwe.
Bez względu na charakter modelu, tj. liniowy, oparty o czas, indywidualny itp., w rzeczywistych warunkach nie ma możliwości całkowitego wdrożenia wynagradzania w oparciu o procentowe udziały w koszcie pozyskania konwersji. Po drugie, nie istnieją powtarzalne i liniowe scenariusze, dla których można ustalić rzeczone udziały. Nawet bardziej złożone modele typu custom, czyli szyte na miarę biznesu, pozostają wciąż uproszczeniami. De facto, należy wówczas arbitralnie ustalić, która funkcja na ścieżce jest ważniejsza: inicjująca, asystująca czy finalizująca. To z kolei sprawia, że każdy model będzie krzywdzący i niekoniecznie sprawiedliwy dla wszystkich wydawców i partnerów jednocześnie, a przecież uczciwy aspekt wynagrodzenia przyświecał pierwotnym założeniom modelu atrybucji.
Nowe zastosowanie modelu atrybucji
Wnioski końcowe z wyżej wymienionych analiz powinny dostarczyć przede wszystkim wiedzy o istotności współwystępowania touchpointów w tych samych ścieżkach oraz funkcji, jaką te touchpointy w nich pełnią.
Takie podejście otwiera nowe, dużo bardziej precyzyjne zastosowanie modelu atrybucji – pozwala na optymalizację wskaźników mediowych (tj. agresywność działań w danym kanale mediowym, capping, stawki biddowania, duplikacja mediów itp.), zamiast optymalizacji sposobu wynagradzania wydawców zaangażowanych w procesie customer journey.
Modelowanie atrybucji rozumiane w powyższy sposób daje holistyczne spojrzenie na zależności między kanałami i ich funkcje. Wszystkie działania reklamowe w internecie zachowują się jak naczynia połączone. Fakt, że direct lub płatne reklamy brandowe finalizują transakcję jest zasługą długiego ogona afiliacji i działań portalowych, które angażują użytkownika we wcześniejszych etapach. Wyżej wymienione podejście pozwala realizować pierwotny cel modelowania atrybucji, jakim jest rozpoznanie procesu decyzyjnego użytkownika oraz nowy – będący analizą specyfiki prowadzonej kampanii reklamowej. Uwaga skupiona jest na badaniu współzależności, bliższego i dalszego otoczenia touchpointów oraz na obserwowaniu zachowania wykorzystywanych mediów zarówno przed kontaktem z naszym serwisem, jak i po. Szczegółowa analiza pozwala również odpowiedzieć na wiele innych nurtujących pytań, tj. ilu partnerów retargetingowych angażować w kampanii, czy retargeterzy „kanibalizują” się nawzajem, jaki model rozliczeniowy wybrać w działaniach afiliacyjnych, czy zwiększenie inwestycji na zasięgowych portalach przełoży się na wzrost znaczenia brandu w generowaniu konwersji.
Należy pamiętać, że modelowanie atrybucji wymaga indywidualnego spojrzenia na biznes i jego specyfikę. Nie istnieje idealny model ani standard, który można byłoby powielać. O ile wnioski z analiz są niewystarczająco solidne, aby móc budować w ich oparciu modele atrybucji kosztu, o tyle są wystarczająco istotne, aby móc sterować wskaźnikami mediowymi.
Dlatego tak ważna jest umiejętność taktycznego i operacyjnego zastosowania wniosków z modelowania atrybucji w planowaniu działań reklamowych. Nie szukamy kociołka ze złotem na końcu tęczy, ale wartościowych wniosków – nawet pojedynczych – pozwalających optymalizować mix mediów.
[kreska]1. T. Zito, 3 Actions That Enable Cross-Channel Attribution.
2. L. Dietrich, The Hidden Secrets To Improving Attribution Models.