W poprzednim roku do słownika marketera i analityka biznesowego wkroczyło z hukiem nowe pojęcie: „Big Data”. Big Data służą wszystkiemu: od mierzenia zachowań społecznych po modelowanie wyników aktywności Wielkiego Zderzacza Hadronów. Mają ułatwiać dotarcie do właściwego konsumenta z dopasowanym przekazem w dogodnym dla niego czasie – tak aby zrozumienie własnej grupy celowej oparte było o fakty i intencje zakupowe, a nie o predykcje i deklaracje. Czy rzeczywiście mamy więc do czynienia z rewolucją? Co właściwie oznacza termin „Big Data”?
Z tego artykułu dowiesz się:
- jaką tajemnicę kryją Big Data,
- dlaczego dopiero teraz wskazuje się na ich istotność w zarządzaniu biznesem.
Większość definicji przywoływanych w odpowiedzi na to pytanie odwołuje się do wielkości zbioru danych. Ale jak określić moment, kiedy informacje osiągają „duży” wolumen? Mają to być tera-, eksa- czy zettabajty? Punktem odniesienia powinny być takie globalne giganty, jak Amazon lub Facebook, czy raczej lokalne serwisy generujące ogromne zasięgi, jak chociażby Allegro? Bardziej precyzyjnym wytłumaczeniem tego terminu zdaje się być więc odwołanie do procesów biznesowych i technologicznych aspektów radzenia sobie z danymi, czyli że Big Data ma być taką ilością informacji, która nie może zostać przetworzona bez zbudowania nowej technologii, nowych kompetencji i dedykowanej struktury w firmie.
Big Data już w tej chwili generuje nowe miejsca pracy – chociażby popularnych ostatnio „growth hackers” – specjalistów oddelegowanych do tego, by wnioskować na podstawie danych. Ich ilość wzrasta w zastraszającym tempie. Eric Schmidt, prezes wykonawczy Google, powiedział, że: „Od początków cywilizacji do roku 2003 ludzkość wygenerowała 5 eksabajtów danych. Teraz produkujemy 5 eksabajtów co 2 dni… i to tempo stale rośnie”. Niezaprzeczalnie idziemy obecnie w kierunku gromadzenia jak największej wiedzy o aktywnościach, które wykonujemy każdego dnia. Świadomie lub nie, codziennie udostępniamy swoją lokalizację, dzielimy się ulubioną muzyką i tym, co interesującego przeczytaliśmy, pokazujemy, jakie relacje łączą nas z innymi ludźmi, pozwalamy utrwalić nasze emocje i istotne wydarzenia, wygłaszamy opinie i komentujemy bieżącą rzeczywistość. Do tego dochodzi prędkość, z jaką nowe informacje są generowane – codziennie pojawiają się miliardy statusów, postów, „lajków” na Facebooku, ponad 400 milionów wpisów na Twitterze, na YouTube’ie uploadowane są co minutę materiały wideo trwające łącznie aż 72 godziny. Teoretycznie więc, gdyby zebrać w jednym gigantycznym worku wszystkie „ciasteczka”, posegregować je i połączyć – okazałoby się, że możemy powiedzieć o internautach prawie wszystko. Nawet to, jakie mają plany wakacyjne i co ostatnio kupowali.
Słuchaj „Marketer+” Podcast
Fakt, że możemy obcować z taką ilością danych, to tylko jedna dobra wiadomość dla tych analityków i marketerów, którzy do tej pory narzekali na brak zweryfikowanej wiedzy, na podstawie której można by tworzyć rzeczywistą segmentację klientów. Drugą pozytywną zmianą jest dostępność technologii pozwalających analizować wszystkie informacje jednocześnie i łączyć różne formaty danych. Dla przykładu: forum kobiece może zebrać informacje o tym, jakie zabiegi pielęgnacyjne interesują anonimową użytkowniczkę ABC, i przekazać te dane do firmy kosmetycznej, która zaproponuje dedykowane dla niej produkty. Jak to jest możliwe? W tym celu należy poznać kolejne dwa terminy: skrót „RTB” i szeroko rozumiane „Audience Buying”.
RTB (ang. Real Time Bidding) jest przełomem ze względu na automatyzację optymalizacji emisji – to dziejące się w mgnieniu oka miniaukcje o pojedyncze odsłony do konkretnego użytkownika (konkretnego w rozumieniu rozpoznania „ciasteczka”). Unikalne traktowanie każdej powierzchni oznacza, że emisja przestaje być anonimowa, a hurtowy zakup statystycznie uśrednionej „masy” powierzchni przechodzi do historii. RTB więc zamiast stawiać w centrum miejsce emisji, koncentruje się na jednostkach, które są wartościowe z punktu widzenia reklamodawcy (użytkowniczka ABC chciałaby kupić właśnie te kosmetyki). Jeżeli możemy dotrzeć do konsumenta, który w e-sklepie włożył produkt do koszyka, ale z jakiegoś powodu nie dokończył transakcji – przestaje mieć znaczenie, w którym miejscu będziemy komunikować mu powtórnie ofertę tegoż e-sklepu. Najważniejszy jest fakt, że docieramy dokładnie to tego konsumenta, który jest zainteresowany produktem, i możemy go doprowadzić do ukończenia pożądanej akcji na stronie www. Zaletą tej metody jest przede wszystkim optymalizacja kosztów dotarcia do grupy celowej. RTB, dzięki przetwarzaniu danych właśnie, segmentuje użytkowników, określa ich jakość i wartość sprzedażową. Dzięki temu reklamodawca może z góry ustalić cenę, za którą może efektywnie pozyskać kontakt do każdego z nich: wystawia niższą na aukcji za tego internautę, który wykazał przelotne zainteresowanie jego produktem, i wyższą za tego, który już próbował dokonać zakupu. Przy takiej wiedzy o konsumencie możliwe jest automatyczne dostosowanie komunikacji do jego preferencji i wyświetlenie personalizowanego komunikatu na podstawie zachowań. Ale samo RTB nie istniałoby bez wsadu w postaci danych o widowni, która jest dla marketera interesująca. I tu pojawia się Audience Buying.
Na rynkach zagranicznych reklamodawca może wybrać konkretne „ciasteczka” (przedsiębiorca zainteresowany zakupem nowego samochodu marki Audi, mający smartfona od T-Mobile, zainteresowany kredytem gotówkowym etc.) i poszukiwać go w całej sieci za pomocą RTB (a więc w modelu aukcyjnym obniżającym koszty kampanii). W Polsce to podejście jeszcze raczkuje – ale sądząc pod tempie wdrażania nowych rozwiązań, wkrótce pojawią się podmioty, które będą oferować takie usługi na większą skalę.
Big Data stają się więc synonimem wiedzy marketera o konsumentach, symbolem szczegółowej analityki i dbania o efektywność biznesu w dobie kryzysu. Można powiedzieć, że wstyd jest twierdzić, iż w firmie nie funkcjonuje analityka Big Data. Czy słusznie?
Dobrym przykładem jest dzisiejsza sytuacja na rynku bankowym. Banki dysponują ogromną ilością informacji o swoich klientach i, de facto, ich zachowaniach zakupowych (transakcje dokonywane na kontach i z użyciem kart wszelkiego rodzaju, kredyty, środki trzymane na lokatach etc.). Do tego dochodzą nowe możliwości łączenia danych społecznościowych z informacjami finansowymi przechowywanymi na innowacyjnych kontach. Działy analityczne przygotowują się do obróbki tych informacji, a eksperci twierdzą, że nareszcie będzie możliwe właściwe zaadresowanie oferty.
Niedawno spore zainteresowanie wzbudziła historia pewnego klienta, któremu Alior Bank odmówił udzielenia debetu na koncie. Dlaczego? Jak się okazało, nie zapłacił on w terminie mandatu za przekroczenie prędkości, a bank uznał, że człowiek, który ma takie zaległości, nie może być też rzetelnym klientem. Z jednej strony: słusznie, być może bank zaoszczędził sobie kłopotów obsługi zaległości, ale z drugiej strony: niech rzuci kamieniem ten, kto nie spóźnił się kiedyś z zapłatą raty. Czy to oznacza, że nie można nam ufać?
Algorytmy zawsze będą brać pod uwagę ograniczoną liczbę czynników (im bardziej zaawansowany algorytm – tym oczywiście więcej parametrów) i szukać znanych sobie wzorów. Zagrożeniem jest więc, po pierwsze, to, że nie z każdego pakietu danych da się wyciągnąć jednoznaczne wnioski – a modele będą starały się takie trendy pokazywać. Po drugie: modelując intencje żywych ludzi, algorytmy muszą brać pod uwagę zmianę. Wyobraźmy sobie taką sytuację: sklep z odzieżą prawidłowo rozpozna moje zainteresowanie zakupem butów Converse. Reklamodawca emituje do mnie więc stale ofertę tego produktu lub produktów podobnych. Bardzo długo mogę dostawać jedynie takie komunikaty – a to buduje świadomość, że dany sklep ma właściwie jednorodną ofertę. Niezbędne jest więc stałe przetwarzanie danych i uwzględnienie tego, że mogą one zmieniać swój charakter.
[cytat_lewo]Jeżeli zaczynamy przygodę z Big Data, należy przede wszystkim przygotować szczegółowy plan ich wykorzystania. Nie zawsze działa zasada „im więcej, tym lepiej” – zbyt szeroki zakres analizowanych danych może doprowadzić do wyciągania błędnych wniosków i tworzenia nieistotnych ścieżek, jakimi krążą decyzje klienta.
[autor]Marta Suchenek[/autor][/cytat_lewo]Mało popularny jest również fakt, że niewiele podmiotów ma rzeczywiście ogromne zbiory danych, które muszą być przetwarzane przez specjalistyczne technologie. Reklamodawcy wierzą jednak, że toną w informacjach, których wykorzystanie może być kluczowe do poznania biznesu i klientów: odsłonach, kliknięciach, transakcjach, aktywnościach mobilnych, społecznościowych, profilach behawioralnych udostępnianych przez partnerów zewnętrznych. To prawda, ale nie wszystkie informacje są relewantne dla ich działalności. Jeżeli zaczynamy przygodę z Big Data, należy przede wszystkim przygotować szczegółowy plan ich wykorzystania: jakie narzędzie analityczne będzie najefektywniejsze? Które kanały komunikacji z klientem nie zostały zbadane? Nie zawsze działa zasada „im więcej, tym lepiej” – zbyt szeroki zakres analizowanych danych może doprowadzić do wyciągania błędnych wniosków i konstruowania nieistotnych ścieżek, jakimi krążą decyzje klienta. Nie oznacza to jednak, że powinno się koncentrować tylko na danych, do których dostęp jest najłatwiejszy, czyli np. statystyk z przeprowadzonych kampanii. Może się okazać, że dane pozyskane z zewnątrz (chociażby od pośredników, wydawców czy od współpracujących partnerów) – będą miały większą siłę analityczną. Big Data pomagają de facto szerzej spojrzeć na rzeczywistość i poszukać nowych zbiorów wiedzy.
Co zrobić w sytuacji, kiedy nad danymi pracuje sztab analityków i wyciągnięte przez nich wnioski zdają się logiczne? Czy rzeczywiście trzeba pracować na ogromnych zbiorach, żeby móc zasilić biznes o nowe insighty konsumenckie? Często zdarza się bowiem tak, że dodatkowe dane przynoszą jedynie potwierdzenie tego, co firma już o sobie wie. Tom H. C. Anderson w swoim artykule „Forget Big Data, Think Mid Data” radzi biznesowi szczerze spojrzeć na dostępne dane i porzucić marzenia o analityce dużych informacji. Dlaczego? Bo analityka i badania to koszty, na które należy spojrzeć w kontekście ekonomicznej opłacalności. Powinniśmy zajmować się takimi danymi, które są wartościowe w budowaniu nowych procesów zwiększających sprzedaż. Bo problemem jest już nie tylko „media wastage” – nieefektywne wydawanie budżetów reklamowych z powodu braku wiedzy o konsumencie, ale również „analytics wastage” – koszty obsługi danych, które niczemu nie służą. Tak naprawdę wygrają ci, którzy dzięki zatrudnieniu specjalistów i bliskiej z nimi współpracy rozpoznają istotne grupy nawet „małych” zbiorów wiedzy i skupią się na ich jak najlepszym wykorzystaniu.
Z tych rozważań płynie więc jeden główny wniosek, który powinien uspokoić każdego marketera niezaznajomionego jeszcze z problematyką Big Data: nie ma uniwersalnej odpowiedzi na pytanie, z jakich danych powinno się korzystać i jaki zbiór informacji pozwala podejmować właściwe decyzje. Skoro jednak technologie dają możliwość agregowania coraz większej wiedzy o własnym konsumencie, to należy – rozsądnie – brać je pod uwagę przy konstruowaniu biznesplanu i wykorzystywać nawet „średnie” dane do zwiększania konwersji z wykonywanych do tej pory działań. Big Data na pewno będą modelować naszą obecną i przyszłą rzeczywistość, jednak dane i algorytmy nie zastąpią zwykłej intuicji w prowadzeniu biznesu.
[kreska]
Warto doczytać: