Testy A/B

Z Wikipedii, wolnej encyklopedii
Przejdź do nawigacji Przejdź do wyszukiwania

Testy A/Bmetoda badawcza polegająca na porównaniu dwóch wersji strony internetowej celem wybrania tej wersji, która lepiej spełnia stawiane przed nią zadania. Porównywana może być aktualnie funkcjonująca wersja strony (z reguły „A”) i wersje alternatywnymi („B” – np. poprzednią lub nowszą)[1].

Przedmiot badania[edytuj | edytuj kod]

Za pomocą testów A/B możemy porównywać:

  • strony różniące się wybraną jedną cechą np. różne wersje nagłówków czy kolorystyki,
  • strony różniące się wieloma cechami.

Istotną charakterystyką testów A/B jest to, że w jednym badaniu porównujemy dokładnie jedną zmienną: zmienną tą może być np. wygląd nagłówka, ale również wygląd strony traktowany jako całość.

Test polega na skierowaniu strumienia tego samego odsetka ruchu na każdą z badanych wersji danej strony oraz porównaniu ich współczynników konwersji, czyli procentowej wielkości określającej stosunek użytkowników strony, którzy wykonali pożądaną akcję (np. zakup) do wszystkich użytkowników danej strony. Na tej podstawie można wnioskować o wpływie badanej zmiennej na to, jak strona spełnia postawiony przed nią cel.

Czas trwania testu A/B nie jest określony, jednak ze statystycznego punktu widzenia test powinien być zakończony wtedy, gdy uzyskane różnice współczynników konwersji są istotne statystycznie. Aby upewnić się czy uzyskane wyniki są istotne statystycznie zwykle stosuje się test proporcji.

Historia[edytuj | edytuj kod]

Podobnie jak w większości dziedzin, ustalenie daty pojawienia się nowej metody jest trudne, ze względu na jej ciągłą ewolucję. Znaczącej zmiany dokonano, gdy zamiast wykonywać testy na podstawie informacji z populacji przeprowadzono test na samych próbkach. Pomysł ten wykorzystał w 1908 r. William Sealy Gosset (pseudonim Student) podając funkcję zależną od wyników pomiarów a niezależną od [2].

Inżynierowie Google przeprowadzili swój pierwszy test A/B w 2000 r. próbując ustalić, jaka będzie optymalna liczba wyników do wyświetlenia na stronie wyników wyszukiwania. Pierwszy test nie powiódł się z powodu zbyt wolnego czasu ładowania. Wykorzystywane w późniejszych latach testy A/B były bardziej zaawansowane. Do 2011 r. Google przeprowadził ponad 7000 różnych testów.[3]

Zalety testów A/B[edytuj | edytuj kod]

Testy A/B umożliwiają podejmowanie szybkich decyzji dotyczących elementów architektury informacji strony lub szaty graficznej. Są proste do przeprowadzenia, a ich wyniki są łatwe do interpretacji.

Wady testów A/B[edytuj | edytuj kod]

Największym minusem testów A/B jest brak możliwości testowania w jednym czasie wielu zmiennych, a co za tym idzie brak możliwości zbadania korelacji między zmiennymi, np. za pomocą testu A/B nie wywnioskujemy, jakie jest najlepsze powiązanie typu nagłówka i kolorystyki strony.

Akceptacja[edytuj | edytuj kod]

W obecnie Chaffeya i Patrona, wiele przedsiębiorstw, również małych i średnich, coraz powszechniej wykorzystuje „zaplanowane eksperymenty” do podejmowania decyzji marketingowych. Staje się to coraz łatwiejsze dzięki rozwojowi specjalistycznych narzędzi i wiedzy z tego obszaru[4].

Przypisy[edytuj | edytuj kod]

  1. Ron Kohavi, Roger Longbotham. Online Controlled Experiments and A/B Tests. , 2017-04-17. 
  2. Dixon Eleri, Emily Enos, Scott Brodmerkle: A/B Testing. The Institute of Mathematical Statistics, 1987, s. 45–52.
  3. Jenna Hanington: The ABCs of A/B Testing. 2012-07-12. [dostęp 2019-06-09].
  4. Dave Chaffey, Mark Patron. From web analytics to digital marketing optimization: Increasing the commercial value of digital analytics. . ISSN 1746-0166. 

Bibliografia[edytuj | edytuj kod]

  • Ash T., Landing Page Optimization – The Definitive Guide to Testing and Tuning for Conversions, Wiley Publishing, Inc., 2008