• KONTAKT@SERWERY.APP
Times Press sp. z o.o.
Piastowska 46/1, 55-220 Jelcz-Laskowice
kontakt@serwery.app
NIP: PL9121875601
Pomoc techniczna
support@serwery.app
Tel: +48 503 504 506
Back

Case study – optymalizacja kampanii w dużym e-commerce

Optymalizacja kampanii marketingowych w dużych organizacjach e-commerce stanowi nie lada wyzwanie zarówno od strony technologicznej, jak i zarządczej. Współczesna infrastruktura IT, rozbudowane systemy backendowe, integracje z API partnerów reklamowych, a także szeroko zakrojone procesy DevOps oraz zarządzania danymi stawiają przed zespołami nie tylko wymagania wydajnościowe, ale przede wszystkim oczekiwania względem automatyzacji, analityki oraz bezpieczeństwa. Przedstawię studium przypadku wdrożenia zaawansowanej optymalizacji kampanii Google Ads w dużym polskim e-commerce, warstwy technologiczne takiego rozwiązania oraz wyzwania i efekty projektu.

Analiza problemu i identyfikacja wąskich gardeł

Duże sklepy internetowe, operujące na setkach tysięcy produktów z dynamicznie zmieniającą się dostępnością oraz cenami, napotykają na szereg specyficznych problemów przy prowadzeniu kampanii Google Ads. Przede wszystkim są to wyzwania związane z integracją danych produktowych w czasie rzeczywistym z systemem reklamowym. Opóźnienia w aktualizacji feedów produktowych mogą prowadzić do promowania wyprzedanych ofert, a rozbieżności cenowe – do generowania dodatkowych kosztów i niezadowolenia klientów. Dodatkowo, wysokie wolumeny danych niosą ze sobą ryzyko utraty czy błędnej interpretacji parametrów skuteczności kampanii, takich jak CTR czy ROAS, co wpływa na decyzje optymalizacyjne.

W przypadku analizowanego e-commerce, wstępna diagnoza wykazała zbyt długi czas propagacji zmian produktowych do feedu, a następnie do systemu Google Merchant Center. Struktura kampanii była nieoptymalna – zduplikowane zestawy, nieefektywne grupowanie produktów oraz zbyt szeroko zdefiniowane grupy odbiorców skutkowały rozproszeniem budżetu oraz niską trafnością reklam. Część problemów identyfikowano także na poziomie serwerów aplikacyjnych, które przetwarzały żądania feedowe i zasilały system reklamowy – przy dużych zasobach nie były one dostatecznie skalowalne oraz nie implementowały nowoczesnych mechanizmów kolejkowania ani cachowania danych.

Wyzwaniem była także późniejsza analiza danych skuteczności kampanii. Rozległa sieć mikroserwisów odpowiadających za poszczególne kategorie artykułów nie miała jednolitego systemu logowania ani centralizacji informacji o konwersjach czy kosztach kliknięć. Brak odpowiedniej integracji z systemami BI utrudniał podejmowanie decyzji w czasie rzeczywistym. Po stronie programistycznej oraz zespołów DevOps pojawił się zatem postulat głębokiej audytoryjnej analizy istniejących integracji oraz stworzenie spójnej strategii usprawniającej cały przepływ danych od backendu po zasilenie BI i optymalizatory kampanii.

Architektura wdrożenia i modernizacja infrastruktury serwerowej

Kluczowym etapem zmian była transformacja architektury backendowej obsługującej feed produktowy oraz integrację z Merchant Center. Dotychczasowe rozwiązanie działało w oparciu o monolityczne, rzadko skalowane środowisko serwerów wirtualnych, co utrudniało dynamiczne dostosowanie zasobów do ruchu i złożoności operacji. Po dogłębnej analizie technicznej zdecydowano się na rozproszenie przetwarzania danych za pośrednictwem konteneryzacji (Kubernetes), co umożliwiło niezależne skalowanie kluczowych komponentów odpowiadających za generowanie oraz aktualizację feedów.

Wprowadzono także zaawansowany system cachowania oparty o Redis, pozwalający na dynamiczne pobieranie tylko zaktualizowanych danych bez konieczności generowania całych feedów od podstaw. Uprościło to proces propagacji zmian o nawet 60%, co przekładało się na lepszą responsywność systemu względem realnych aktualizacji na magazynie i w systemie ERP. Zaimplementowano nowoczesne kolejki komunikatów (Kafka), które pozwalają na natychmiastowe informowanie o zmianie statusu produktu bez oczekiwania na zewnętrzny harmonogram CRON. Takie rozwiązanie nie tylko poprawiło efektywność, ale znacznie zmniejszyło ryzyko utraty spójności danych pomiędzy sklepem a panelem Google Merchant Center.

Modernizacja objęła także warstwę serwerową odpowiadającą za analizę logów i metryk. Centralizowanie logowania w oparciu o ELK stack umożliwiło nie tylko szybkie wykrywanie anomalii na styku z API Google, ale także tworzenie zaawansowanych raportów efektywnościowych dla różnych działów biznesowych bez obciążania aplikacji frontendowej. Warstwa bezpieczeństwa serwerów została wzmocniona poprzez mechanizmy policyjne w obrębie prywatnych sieci VLAN i automatyczną detekcję nietypowych żądań do API, co istotnie ograniczyło ataki DDoS czy ryzyko błędów typu injection na styku integracji z zewnętrznymi dostawcami reklam.

Proces wdrażania nowych rozwiązań wymagał ścisłej współpracy zespołów IT i marketingowych. Wprowadzono cykl sprintów DevOps pozwalających product ownerom i marketerom weryfikować funkcjonalność integracji na środowiskach testowych w trybie continuous deployment. Połączenie nowoczesnej, rozproszonej architektury serwerowej z narzędziami do automatyzacji deploymentu (Ansible, Terraform) znacząco przyspieszyło rozwój oraz uprościło zarządzanie zasobami infrastrukturalnymi.

Automatyzacja kampanii reklamowych i machine learning

Jednym z głównych celów projektu była pełna automatyzacja zarządzania kampaniami Google Ads wykorzystująca najnowsze podejścia z zakresu machine learning. Po stronie aplikacyjnej zaimplementowano dedykowane mikroserwisy, bazujące na Pythonie oraz bibliotekach takich jak scikit-learn oraz Tensorflow, które odpowiadały za budowanie i trenowanie modeli optymalizacyjnych. Modele te wykorzystano do prognozowania rentowności poszczególnych grup produktów, automatycznego dostosowywania stawek CPC do przewidywanego poziomu konwersji oraz dynamicznego pauzowania lub uruchamiania kampanii w zależności od zdefiniowanych KPI.

Dużym wyzwaniem była budowa pipeline’u danych niezbędnych do trenowania algorytmów. Dane pochodziły zarówno z API Google Ads, Merchant Center, jak i lokalnych systemów e-commerce (sprzedaż, obsługa klienta, zwroty oraz dostępność magazynowa). Stworzono rozbudowany proces ETL, który oczyszczał, standaryzował oraz wzbogacał dane o dodatkowe konteksty biznesowe (np. sezonowość, cashbacki, rabaty). Modele ML były trenowane z wykorzystaniem historycznych danych konwersyjnych, a cały ekosystem uruchomiono w środowiskach chmurowych pozwalających na szybkie eksperymentowanie z różnymi architekturami sieci neuronowych.

Ważnym aspektem implementacji było zapewnienie możliwości explainable AI dla zespołu marketingowego. Specjaliści odpowiedzialni za strategię kampanii mieli dostęp do pulpitów menedżerskich, na których prezentowano uproszczone wyniki predykcji oraz analizy przyczyn niskiej lub wysokiej skuteczności poszczególnych reklam. Stworzenie łatwego w interpretacji interfejsu pomiędzy warstwą machine learning a użytkownikiem biznesowym istotnie przyczyniło się do akceptacji rozwiązania i skuteczniejszego wykorzystania predykcji ML w codziennych zadaniach optymalizacyjnych.

Automatyzacja poszła dalej – wdrożono mechanizmy auto healing dla kampanii na bazie wykrywanych nieprawidłowości w konwersjach, a także inteligentne alerty generujące powiadomienia dla dedykowanych administratorów w przypadku wykrycia anomalii w wydatkach lub jakości ruchu. Zintegrowano cały ekosystem z monitoringiem systemów serwerowych, co pozwoliło na koordynowanie prac związanych z utrzymaniem zarówno infrastruktury, jak i samego oprogramowania odpowiadającego za synchronizację kampanii Google Ads.

Monitorowanie skuteczności i ciągłe usprawnianie procesu

Nieodzownym elementem efektywnej optymalizacji kampanii jest rozbudowane monitorowanie wszystkich procesów i zbieranie metryk w czasie rzeczywistym. W dużym e-commerce wdrożono rozproszone systemy obserwowalności (Observability) oparte o Prometheus i Grafanę, które pozwalały na bieżące śledzenie wydajności mikroserwisów, statusów przetwarzania danych feedowych oraz liczby obsłużonych żądań do zewnętrznych API. Monitoring obejmował zarówno warstwę infrastrukturalną (użycie CPU, pamięci, opóźnienia sieciowe), jak i aplikacyjną (czas generowania feedów, liczbę błędów synchronizacji, wskaźniki SLA dla krytycznych usług integracyjnych).

Regularna analiza dashboardów przez zespół IT DevOps oraz specjalistów ds. marketing automation pozwalała z wyprzedzeniem wykrywać potencjalne wąskie gardła wydajnościowe oraz nietrafione strategie biddingowe. Na tej podstawie podejmowano szybkie działania naprawcze w zakresie alokacji zasobów serwerowych (autoskalowanie klastrów Kubernetes), dostosowywania obciążeń między środowiskami testowym a produkcyjnym czy przeprowadzania rolling update’ów serwisów w przypadku wykrytych bugów. Automatyczny monitoring był również spięty z systemami ticketowymi, dzięki czemu zarówno IT, jak i dział marketingu mieli pełny wgląd w postęp rozwiązywania problemów.

Ciągłe usprawnianie procesu optymalizacji kampanii realizowano także poprzez zwinne podejście do refaktoryzacji i testów A/B nowych strategii ML. Wdrożony testowy ekosystem chmurowy pozwalał na klonowanie procesów reklamowych w bezpiecznym środowisku, co umożliwiło szybkie porównywanie wyników różnych algorytmów i szybkie wdrażanie najskuteczniejszych z nich do środowiska produkcyjnego. Kluczowe było także zbieranie regularnego feedbacku od działu marketingu poprzez cykliczne przeglądy sprintów, co przełożyło się na większe zaangażowanie interesariuszy biznesowych i wyższą wartość wdrożonych rozwiązań optymalizacyjnych.

Zaawansowany monitoring oraz ciągłe doskonalenie warstwy DevOps zapewniły stabilność, szybkość reagowania na zmiany biznesowe oraz wysoką transparentność procesu optymalizacji kampanii Google Ads w e-commerce. W rezultacie udało się osiągnąć wzrost rentowności kampanii przy jednoczesnej redukcji kosztów obsługi i mniejszej liczbie błędów w zarządzaniu feedami produktowymi.

Podsumowując, kompleksowa optymalizacja kampanii Google Ads w dużym e-commerce wymaga nie tylko głębokiej wiedzy z zakresu marketingu cyfrowego, ale przede wszystkim zaawansowanego zaplecza technicznego i kompetencji IT w zakresie architektury rozproszonej, machine learning oraz automatyzacji procesów. Integracja wszystkich tych elementów przekłada się na realne efekty biznesowe i przewagę konkurencyjną na dynamicznym rynku e-commerce.

Serwery
Serwery
https://serwery.app