Analiza danych: szukajcie, a znajdziecie

O biznesowych pożytkach z "kopania w danych" opowiada Łukasz Kobyliński, Chief Science Officer w Sages, adiunkt w Instytucie Podstaw Informatyki PAN.

Czy analiza danych może posłużyć lepszej identyfikacji potrzeb i preferencji klientów oraz pozwala skutecznie przewidywać ich zachowania?

Tak, oczywiście. O ile w tradycyjnych modelach reklamowych takich jak outdoor jest to nadal dość trudne, to już w reklamie cyfrowej, czyli tzw. digitalu, jest całkiem powszechne. Oczywiście nie jest to zadanie łatwe, ale na podstawie aktywności osób w internecie jesteśmy w stanie przewidzieć ich zainteresowania, a nawet potrzeby. Najprostszym przykładem jest wyszukiwanie; jeżeli klient czegoś szuka, np. w sklepie internetowym, możemy mu zaoferować reklamy produktów z tej kategorii. Z kolei większość banerów na stronach jest zarządzana przez dostawców reklam, np. Google AdWords. Używając ciasteczek (cookies) możemy zaznaczyć taką osobę jako zainteresowaną jakimś konkretnym produktem, np sprzętem AGD. Również sklepy internetowe mają możliwość patrzenia na historie klientów i budowania modeli, np. rekomendacyjnych, które proponują produkty jak najbardziej dopasowane do danej historii lub, w razie braku informacji, średniej popularności produktów.

Jakie są dodatkowe korzyści z takiej analizy?

Zalet jest wiele. Począwszy od optymalizacji kosztów, np. poprzez analizę, jak dane reklamy nam konwertują, czyli jak często dochodzi do sprzedaży (lub innej akcji) po zobaczeniu danej reklamy; ten proces nazywamy atrybucją. Po takiej analizie wyników możemy wybrać i inwestować tylko w kanały, które najlepiej wpływają na zyski dla naszych produktów, bo nie zawsze kanały najpopularniejsze, jak telewizja, są odpowiednie do bardzo wyspecjalizowanych produktów.

Drugą zaletą jest możliwość oferowania reklam i całych kampanii bardziej dopasowanych do gustów naszych klientów. Możemy tu mówić zarówno o formie, jak i treści. Często wykonuje się tzw. A/B testy różnych treści reklamowych i patrzy, która lepiej się przyjmuje. Po takiej analizie mamy wyższą pewność, że nasza kampania będzie mieć pozytywny skutek.

Wreszcie możemy oferować nasze produkty osobom naprawdę zainteresowanym. Coraz częściej ludzie zmęczeni są zalewem reklamy tradycyjnej i oczekują tylko informacji o produktach, które ich interesują. Taka personalizowana dostawa reklam jest praktycznie świętym Graalem rynku reklamowego. Dla osiągnięcia tego efektu staramy się, w sposób anonimowy, zidentyfikować grupy użytkowników, czyli tzw. segmenty, które mają podobne zainteresowania, wiek, cele, nawyki zakupowe itp. Lepsze dopasowanie pozwala lepiej odpowiadać na bieżące problemy i potrzeby ludzi, a co za tym idzie, zwiększyć prawdopodobieństwo osiągnięcia celu przez reklamodawcę.

Jakie są najpopularniejsze metody i typy takiej analizy? Jakie narzędzia się w niej stosuje?

Google dostarcza wiele popularnych platform reklamowych takich jak AdWords czy DoubleClick, a także narzędzia do pracy z nimi. Ponadto integrują się one łatwo z innymi narzędziami dostarczanymi przez Google Cloud, jak np. Google BigQuery, który ułatwia analitykę na dużych danych. Inną znaną platformą jest MediaMath dostarczająca managera kampanii i rozbudowane możliwości analityczne. Podobne rozwiązania udostępnia także AdForm; ich platforma jest rozwijana m.in. w Polsce. W przestrzeni monitorowania sieci społecznościowych, głównie na potrzeby reklamowe, są polskie narzędzia, zresztą jedne z najpopularniejszych na świecie, czyli Brand24 i SentiOne.

Trzeba pamiętać, że wiele zadań związanych z analizą danych i ich wykorzystaniem, najlepiej w sposób zautomatyzowany, wymaga znaczącego wkładu pracy, zwłaszcza technicznej. Większość narzędzi oferuje coraz lepsze wsparcie dla zadań, niemniej, chcąc być w awangardzie innowacji, trzeba rozwiązywać problemy, których jeszcze nikt nie rozwiązał. Bycie kreatywnym często wyklucza gotowe narzędzia.

Do analizy danych i tworzenia modeli najpopularniejsze są stosy związane z językami R i Python, przy czym Python wysuwa się obecnie na prowadzenie, jeżeli pracujemy z masywnymi danymi (big data) oraz głębokimi sieciami neuronowymi (deep learning),gdyż ma najwięcej narzędzi realizujących te zadania. Z kolei w zadaniach bardziej inżynierskich, takich jak praca z danymi strumieniowymi, zwłaszcza w systemach czasu rzeczywistego, jak Real-time Bidding (RTB), czyli licytowanie reklam na bieżąco na stronach dostawców, prym wiodą języki skupione wokół wirtualnej maszyny Javy. Zresztą Java jest obecnie najpopularniejszym językiem programowania wykorzystywanym przez przedsiębiorstwa w Polsce, ale też na świecie, co można śledzić np. używając rankingu TIOBE https://www.tiobe.com/tiobe-index/. Z kolei Python, poza analizą danych, jest coraz chętniej wykorzystywany zarówno w programowaniu webowym, jak i świecie administratorów danych.

Czym jest data mining?

Data mining, czyli po polsku eksploracja danych, to proces odkrywania w danych interesujących informacji, szczególnie takich, które nie były do tej pory znane lub obiektywnie potwierdzone. Kryterium tego, czy informacje są interesujące, zależy od konkretnej osoby, czy organizacji, na rzecz której proces eksploracji jest wykonywany. Na przykład z punktu widzenia firmy interesująca może być segmentacja klientów, a więc ich podział na spójne grupy, charakteryzujące się podobieństwem pewnych cech, np. regularnością zakupów. Jest to bardzo istotne z punktu widzenia m.in. podejmowanych działań marketingowych: inaczej chcielibyśmy się komunikować z naszymi stałymi, regularnymi klientami, a inaczej z tymi, którzy wybierają naszą ofertę od czasu do czasu, biorąc pod uwagę jedynie cenę.

W procesie eksploracji danych możemy uzyskać wiele odpowiedzi na nurtujące przedsiębiorców pytania. Są one często ukryte w historycznych zapisach transakcji, zapytań od klientów, czy też danych opisujących sposób korzystania przez nich ze strony internetowej. W celu wykorzystania tego rodzaju wiedzy kluczowe jest po pierwsze zidentyfikowanie źródeł informacji dostępnych w danej organizacji - zarówno wewnętrznych (które może gromadzić sama organizacja), jak i zewnętrznych (pochodzących od podwykonawców). Po drugie, konieczne jest wdrożenie procesów zapewniających skuteczne gromadzenie danych z tych źródeł. Dopiero wówczas można oczekiwać, że uzyskane w procesie eksploracji informacje stanowić będą realną wartość dla firmy.

Czy są jakieś  przykłady  dużych, skutecznych kampanii marketingowych w których została zastosowana analiza danych?

Obecnie w większości kampanii przeprowadza się w jakimś zakresie analizę danych, więc mógłbym w zasadzie odpowiedzieć: każda kampania w sieci. Metody są informacjami o wadze biznesowej w firmach, nie można więc raczej ich bezpośrednio ujawniać.

Jednym z bardziej medialnych przykładów, choć niekoniecznie pozytywnym z punktu widzenia branży reklamowej, jest Cosabella, która całkowicie zastąpiła swoją agencję rozwiązaniem opartym w pełni o sztuczną inteligencję (http://www.campaignlive.co.uk/article/why-cosabella-replaced-its-agency-ai-will-go-back-humans/1427323) W krótkiej perspektywie czasowej inne firmy nie pójdą zapewne tą samą drogą. Niemniej techniki takie, może nie w pełni zastępujące ludzi, ale mocno ich wspomagające, są coraz częściej wykorzystywane.

Łukasz Kobyliński

Chief Science Officer w Sages oraz adiunkt w Instytucie Podstaw Informatyki PAN, gdzie prowadzi projekty w Zespole Inżynierii Lingwistycznej. Od wielu lat zajmuje się analizą danych i uczeniem maszynowym, początkowo w odniesieniu do obrazów - w roku 2012 obronił doktorat na Politechnice Warszawskiej z tego zakresu - a obecnie w zastosowaniu do przetwarzania języka naturalnego. Posiada duże doświadczenie trenerskie - przeprowadził ponad 1000 godzin szkoleń i warsztatów.

Komentarze

Prosimy o wypowiadanie się w komentarzach w sposób uprzejmy, z poszanowaniem innych uczestników dyskusji i ich odrębnych stanowisk. Komentując akceptujesz regulamin publikowania komentarzy.