Wojny robotów - algorytmy w służbie marek

Nieuczciwe praktyki wśród witryn internetowych nie są nowością, jednak notowana obecnie ich skala jest najwyższa od lat - pisze Marcin Gut, head of Accuen (Grupa OMD).

Do rozwoju tego procederu przyczyniła się głównie niespotykana dotychczas fragmentaryzacja rynku wydawców online oraz nowe metody zakupu oparte na algorytmach eliminujących czynnik ludzki z procesu zlecania i rozliczania kampanii reklamowych.

W połowie września podczas konferencji ATS London przedstawicielka jednej z największych platform do zakupu powierzchni reklamowej w modelu programmatic AppNexus wywołała konsternację. Ogłosiła, że 65 proc. odsłon dostępnych przez ich DSP jest blokowanych, bo generują je boty i inne źródła typu non-human. Niestety, problem wskazany przez Appnexusa dotyczy również polskiego rynku. Dlatego niezmiernie ważne jest doświadczenie i wiedza osób zarządzających budżetami reklamowymi klientów domów mediowych w obszarze programmatic. Dzięki niej jesteśmy w stanie zminimalizować do niemalże zera ryzyko zakupu fikcyjnych odsłon i kliknięć.

Źródła problemu

W przypadku emisji reklam realizowanych za pośrednictwem platform RTB ważną rolę odgrywa kontrola treści, przy których pojawia się reklama. Zwykle w kampaniach programmatic wykorzystuje się kilka tysięcy witryn i monitorowanie ich pod kątem treści jest nie lada wyzwaniem dla plannerów.
Sytuacji nie ułatwia fakt, że przyłączając się do ekosystemu RTB wydawcy sami definiują swoją kategorię tematyczną oraz poziom bezpieczeństwa treści. Niektórzy robią to nierzetelnie lub wręcz nieuczciwie. Na przykład często mamy do czynienia z witrynami, które publikują treści dla dorosłych, ale oznaczają się jako bezpieczne we wszystkich kategoriach wiekowych. Równie często witryny podają swoją kategorię tematyczną niezgodnie z faktyczną zawartością. Najbardziej nieuczciwi wydawcy zaznaczają wszystkie kategorie tematyczne, żeby zarabiać na wszystkich możliwych emisjach kontekstowych. Kiedy trafiają na blacklisty, modyfikują nazwy swoich domen tak, aby wymknąć się mechanizmom blokującym. Podszywają się również pod witryny z wyrobioną renomą, żeby przejąć więcej budżetów reklamowych i zatrzeć swoją negatywną historię.

Metody obrony

Najprostszą metodą wyeliminowania nieuczciwych graczy z kampanii RTB jest ograniczenie emisji tylko do zaufanych witryn. Jest to mechanizm, który zmniejsza potencjalny zasięg emisji oraz usztywnia ceny, ale daje nam pewność, że reklama nie pojawi się w niewłaściwym kontekście na stronach, które nie licują z powagą marki naszego klienta.
Innym zabiegiem jest wykorzystanie systemów bezpieczeństwa, które są zintegrowane z platformami DSP i na bieżąco monitorują zawartość serwisów wykorzystywanych w kampanii. Tego typu algorytmy skanują treść strony, na której ma być wyświetlony baner i blokują jego emisję, jeżeli pod adresem znajduje się niewłaściwy kontent. Wyłapane w ten sposób witryny trafiają na blacklistę, czyli zestawienia adresów url, które nie mają prawa pojawić się w kampaniach danego klienta lub wszystkich reklamodawców obsługiwanych przez trading desk. Tego typu listy składają się z kilkudziesięciu tysięcy witryn i są na bieżąco rozbudowywane.
Blacklisty powstają dzięki codziennej analizie i raportowaniu traderów, którzy monitorują wskaźniki kampanii na poziomie poszczególnych domen. Dlatego ważne jest, aby nie wykorzystywać w kampaniach tzw. blind networks - sieci witryn, które udostępniają swoją powierzchnię, ale nie ujawniają reklamodawcom swoich adresów url.
W przypadku dostawców, którzy ukrywają nazwy swoich serwisów, nie jesteśmy w stanie wyłapać anomalii, które mogą sugerować nieuczciwe praktyki, takich jak wykorzystanie botów generujących fikcyjne odsłony i kliknięcia. W wielu przypadkach tego typu witryny generują nierealistycznie wysoki CTR, niskie viewability, nierealistycznie wysoką częstotliwość kontaktu, dużo odsłon przy niskim zasięgu.
W celu wyeliminowania nieuczciwych dostawców ważne są również analiza i monitoring jakości ruchu generowanego w ramach emisji RTB. Jeżeli ruch przekłada się na krótki czas na stronie, wysoki bounce rate, mało akcji itp., możemy podejrzewać, że ruch jest generowany przez boty lub reklamy są emitowane na warstwie, co powoduje wiele przypadkowych kliknięć.
Dodatkowo możemy zminimalizować ryzyko NHT (Non Human Traffic), wykorzystując dane demograficzne lub behawioralne do targetowania. Zawężając emisję do określonej puli plików cookies, minimalizujemy fraudy, ale ich nie wykluczamy w 100 proc.


Monitoring, monitoring, monitoring…


Walka z nieuczciwymi wydawcami przypomina potyczki Herkulesa z Hydrą. Wymaga nieustannej czujności, bo kreatywność właścicieli stron, którzy balansują na granicy prawa, jest nieograniczona i co chwila stawia przed nami nowe wyzwania. Dlatego niezwykle ważne jest doświadczenie zespołu, który zajmuje się koordynowaniem kampanii RTB. Algorytmy pomagają wyłapać nieuczciwe praktyki, jednak koniec końców to trader podejmuje decyzję, czy coś jest anomalią, czy nie. To człowiek również decyduje o tym, który system bezpieczeństwa gwarantuje największą niezawodność.

Komentarze

Prosimy o wypowiadanie się w komentarzach w sposób uprzejmy, z poszanowaniem innych uczestników dyskusji i ich odrębnych stanowisk. Komentując akceptujesz regulamin publikowania komentarzy.