- Audyt UX to ekspercka analiza twojej strony lub sklepu, która pokazuje gdzie tracisz konwersję i dlaczego.
- Najczęściej łączy trzy metody: analizę heurystyczną (opinia ekspertów), testy z użytkownikami (empiryczny dowód) i analizę danych ilościowych (np. z GA4; skala problemu w pieniądzu).
- W dużych sklepach sama poprawa UX checkoutu daje nawet 35% wzrostu konwersji. U mniejszych sklepów efekt zależy od stanu wyjściowego.
- Cena audytu UX w Polsce to typowo ok. 5 000 – 50 000 zł, w zależności od zakresu (widełki obserwowane w polskich cennikach 2024–2025).
- Tani audyt oparty wyłącznie na AI to fałszywy spokój: ChatGPT pokrył tylko 21% problemów wykrytych przez ekspertów.
Co to jest audyt UX?
Audyt UX (czasem zamiennie nazywany analizą UX lub audytem użyteczności) to ocena twojej strony przez specjalistę UX, który patrzy na nią z zewnątrz, świeżym okiem, i mówi ci wprost, co działa, a co nie. Sprawdza, czy realny użytkownik bez problemu wykona to, po co przyszedł, czy odpada gdzieś po drodze. Nie jest to robienie testów A/B ani audyt techniczny SEO.
Międzynarodowy standard ISO 9241-210 definiuje samo doświadczenie użytkownika tak:
„Postrzeganie i reakcje użytkownika, które wynikają z użycia i/lub przewidywanego użycia systemu, produktu lub usługi”
Audyt UX to po prostu zorganizowany sposób ocenienia tych odczuć i reakcji, (najlepiej) zanim faktycznie zaczniesz tracić klientów. Nielsen Norman Group, czyli jedna z najbardziej znanych firm badawczych UX na świecie, ujmuje to tak:
„Audyt ekspercki to metoda oceny designu, w której ekspert UX poddaje system (taki jak strona internetowa, aplikacja lub ich fragment) inspekcji, w celu wykrycia potencjalnych problemów z użytecznością”
Wewnątrz audytu eksperckiego często też pojawia się węższa metoda. Nazywa się analiza heurystyczna i polega na ocenie interfejsu pod kątem zestawu uznanych zasad użyteczności (np. 10 heurystyk Jakoba Nielsena):
„Ocena heurystyczna to metoda identyfikacji problemów związanych z designem w interfejsie użytkownika, w której eksperci oceniają projekt na podstawie zestawu wytycznych (zwanych heurystykami), dzięki którym systemy są łatwe w użyciu”
Czym audyt UX nie jest (vs CRO, vs testy A/B)
Tak to się zazwyczaj rozumie, w skrócie:
- Audyt UX to diagnoza problemów z użytecznością. Ekspert mówi: tu użytkownicy się gubią, tu się męczą, w tej kolejności naprawiaj.
- Audyt CRO to szersza kategoria optymalizacji konwersji. Klasycznie obejmuje audyt UX, ale dorzuca też analitykę behawioralną, mapowanie całego lejka sprzedażowego i pełny plan testów A/B.
- Testy A/B to walidacja konkretnej zmiany. Sprawdza, czy wersja B faktycznie poprawia metryki względem A.
W praktyce te granice są płynne. Nasz audyt UX często zahacza o kompetencje CRO. Jeśli mamy dostęp np. do twoich danych ilościowych z Google Analytics, włączamy analitykę behawioralną do diagnozy. Razem z listą problemów zwykle dostajesz też propozycje konkretnych testów A/B, które warto zrobić w pierwszej kolejności.
Czego nie obejmuje standardowy audyt UX
Audyt UX ≠ audyt dostępności (WCAG). To poniekąd dwie osobne rzeczy, choć mocno na siebie zachodzą. Błędy dostępności często wychodzą „przy okazji” audytu UX i są sygnalizowane w raporcie. Ale pełny, formalny audyt zgodności WCAG to oddzielna usługa.
Jakie korzyści daje audyt UX?
Krótkoterminowo audyt poprawia liczby: konwersję, ukończenie głównych zadań, koszt obsługi klienta. Długoterminowo chroni przed narastającym tzw. długiem UX, który rośnie z czasem i kosztuje coraz więcej w naprawie. To brzmi jak slogan, więc od razu konkrety :)
ROI audytu UX w realnych liczbach
„1 dolar zainwestowany w UX zwraca się 100 razy” to jedna z najpopularniejszych „zombie-statystyk” w branży (w sumie, niewiadomego pochodzenia). Prawdziwe dane są nieco mniej kolorowe:
„Średnio, poprawa UX znacząco spadła od lat 2006–2008: z 247% do 75% (spadek o 69%). Różnica ta jest istotna statystycznie (p = 0,01)” — Nielsen Norman Group
Tłumacząc z UX-owego na polski: redesign (ulepszenia UX) przynoszą dziś znacznie mniejsze efekty niż kiedyś. Dawniej przeprojektowanie interfejsu poprawiało jego kluczowe metryki (np. konwersję, czas wykonania zadania, skuteczność) średnio o 247%, a teraz to już tylko 75%, Brzmi jak zła wiadomość, ale… 75% to wciąż 75%. Spadek wynika z tego, że „nisko wiszące owoce” zostały już zerwane. Strony są dziś dużo lepsze niż 15 lat temu i błędów jest mniej.
Co to znaczy dla ciebie? Że dziś dobre audyty raczej nie podwajają konwersji w jeden weekend. Ale konsekwentne usuwanie problemów UX wciąż daje liczby, których nie zignorujesz w tabeli wyników.
W e-commerce konkretny przykład: Baymard Institute, na podstawie 16 lat badań checkoutu i ponad 41 000 ocen z czołowych sklepów USA i Europy, szacuje, że średni duży sklep może podnieść konwersję nawet o 35%, poprawiając wyłącznie sam proces realizacji zamówienia (koszyk, wybór dostawy, płatność):
„Przeciętny duży serwis e-commerce może odnotować wzrost współczynnika konwersji nawet o 35% dzięki zmianom projektowym wprowadzonym w samym procesie realizacji zamówienia” — Baymard Institute
Ważne zastrzeżenie: to „duże sklepy”. Jeśli prowadzisz sklep średniej wielkości, twój efekt może być wyższy (jeżeli bazowo UX jest słabszy) albo niższy (jeżeli checkout już masz w miarę OK).
Dług UX w praktyce
Dług UX (UX debt) działa jak dług techniczny. Naprawiasz coś na szybko, „na chwilę”, a potem ta chwila trwa pięć lat ;)
„Dług UX może narastać w każdym projekcie – niezależnie od stosowanej metodyki tworzenia oprogramowania – a jego nadmiar doprowadzi do utraty zaufania, ruchu w serwisie oraz przychodów.” — Nielsen Norman Group
W praktyce widać to np. tak:
- Filtr na kategorii produktu nie działa od pół roku, ale „jakoś sobie dają radę”.
- Komunikat o błędzie w formularzu jest niejasny, więc support obsługuje 30 zgłoszeń tygodniowo z tym jednym pytaniem.
- Mobilna wersja koszyka działa „OK”, ale 40% klientów porzuca koszyk na pierwszym kroku checkoutu.
Każda taka rzecz z osobna jest do zniesienia, ale razem składają się na powolny wyciek pieniędzy.
Konwersja to nie wszystko
Klasyczna formuła pokazuje, że biznes online to odwiedzający × konwersja × lojalność. Zwiększanie liczby odwiedzających kosztuje (kampanie reklamowe), poprawa konwersji jest tańsza, a lojalność wraca w postaci powtarzalnych zakupów i niższego kosztu pozyskania klienta.
Audyt UX adresuje głównie środkowy człon (konwersja), ale dobrze przeprowadzony pokazuje też miejsca, w których psujesz lojalność. Zła obsługa wsparcia, niejasna komunikacja po sprzedaży, problemy z reklamacjami, obietnica złamana w momencie dostawy. To wychodzi nie z heurystyk, ale z analizy np. rozmów z użytkownikami.
Jak przeprowadzić audyt UX krok po kroku?
Pełny audyt UX to pięć kroków: cel i baseline, analiza danych, analiza heurystyczna, testy z użytkownikami, raport z priorytetami. Lżejsze wersje pomijają niektóre etapy, ale w każdym sensownym audycie powinny być co najmniej dwie metody. Opinia eksperta i dowód, który da się policzyć.
Krok 1: cele i baseline
- Co tak naprawdę powinien robić użytkownik na tej stronie?
- Jakie są obecne metryki sukcesu (konwersja, czas wykonania zadania, koszt obsługi)?
- Czy są dane mówiące, że coś się popsuło ostatnio (np. spadek konwersji po aktualizacji)?
„Skup się na tym, co naprawdę istotne (zadania kluczowe) i odpuść to, co ma mniejsze znaczenie (zadania poboczne)” — Gerry McGovern
W praktyce dla sklepu top tasks to zwykle: znaleźć produkt, dowiedzieć się o cenie i wysyłce, kupić, sprawdzić status zamówienia. Wszystko inne jest dodatkiem. Audyt powinien skupić uwagę właśnie na tych zadaniach.
Krok 2: analiza danych ilościowych
Tu audytor zagląda w twoje dane, m.in:
- Ścieżki konwersji: gdzie użytkownicy wypadają z lejka.
- Mobile vs desktop: gdzie konwersja kuleje na konkretnym urządzeniu.
- Raporty z wyszukiwarki wewnętrznej: czego ludzie szukają i nie znajdują.
- Wyniki ankiet i badań klientów (jeśli wcześniej były robione): bezpośredni feedback od ludzi, którzy z twoją stroną już mieli kontakt.
To etap, w którym opinia eksperta spotyka się z twoimi liczbami.
Krok 3: analiza heurystyczna
Najczęściej spotykana metoda eksperckiego audytu UX. Polega na ocenie interfejsu pod kątem zestawu uznanych zasad, zwykle 10 heurystyk Jakoba Nielsena.
Dwie ważne rzeczy o tych heurystykach:
Pierwsza: pochodzą z 1994 roku i są oparte na analizie 249 problemów użyteczności. Mimo wieku NN/g utrzymuje, że pozostają aktualne i niezmienione:
„Samo 10 heurystyk pozostało aktualnych i niezmienionych od 1994 roku.” — Nielsen Norman Group
Druga: NN/g rekomenduje, żeby analizę robiło kilku niezależnych ewaluatorów:
„Ewaluacje heurystyczne działają najlepiej, gdy przeprowadza je grupa osób, a nie tylko jeden oceniający. Dzieje się tak dlatego, że każda osoba (niezależnie od doświadczenia czy wiedzy eksperckiej) może przeoczyć niektóre z potencjalnych problemów z użytecznością.” — Nielsen Norman Group
Każdy ekspert znajduje inne problemy. Pojedynczy ewaluator przeoczy istotną część. Jeśli ktoś ci sprzedaje „ekspercki audyt UX” zrobiony przez jedną osobę, to „wiedz, że coś się dzieje”.
Krok 4: testy z użytkownikami
Heurystyki mówią ci, co eksperci uważają za potencjalny problem, na podstawie swojej wiedzy i doświadczenia. Testy z użytkownikami mówią ci, gdzie i dlaczego ludzie naprawdę się gubią.
3 czy 5 osób wydaje się śmiesznie mało. Ale to są badania jakościowe. Odpowiadają na pytanie dlaczego, a nie ile. Większa liczba uczestników ma sens dopiero wtedy, gdy największe problemy już znalazłeś i polujesz na te rzadziej występujące.
Klasyczna reguła Jakoba Nielsena mówi, że do testów jakościowych wystarczy 5 użytkowników. Jeśli wcześniej nie robiłeś żadnych testów użyteczności, to 5 osób na start w zupełności jest OK. Przy takiej liczbie masz 85% szans na wychwycenie problemów, które dotykają przynajmniej 30% użytkowników. Czyli właśnie tych największych, które najbardziej bolą w konwersji.
Steve Krug, autor „Nie każ mi myśleć”, idzie z tym jeszcze dalej:
„Fakt jest taki, że po przebadaniu trzech użytkowników zaczniesz odnotowywać malejące korzyści, w zasadzie powyżej tej liczby będziesz napotykać te same problemy raz za razem.” — Steve Krug, wywiad dla Boagworld
Krug otwarcie przyznaje, że 3 osoby nie są statystycznie istotne. Ale wystarczają, żeby wyłapać największe problemy. Jego model to „jeden poranek w miesiącu”, czyli szybko, tanio, regularnie.
Krok 5: raport
To pisemny dokument z trzema rzeczami: lista problemów, priorytety, rekomendacje.
Trzy filary audytu UX (porównanie metod)
Audyt UX to nie jedna metoda. To kombinacja kilku, w sumie tworzących pełną analizę UX. Każda z nich odpowiada na inne pytanie. Najczęściej łączy się trzy:
| Metoda | Na jakie pytanie odpowiada | Mocne strony | Słabe strony |
|---|---|---|---|
| Analiza heurystyczna | Co jest źle z perspektywy zasad UX | Szybsza, wykrywa typowe błędy bez angażowania użytkowników | To opinia ekspertów, nie empiryczny dowód. Może przegapić problemy specyficzne dla twojej grupy użytkowników |
| Testy użyteczności | Gdzie i dlaczego rzeczywiście użytkownicy się gubią | Empiryczny dowód, pokazuje rzeczywiste zachowanie | Pokazuje tylko to, co wprost przetestujesz; trzeba zaprojektować scenariusze i zrekrutować ludzi |
| Audyt z analizą danych | Ile i gdzie tracicie konwersji/pieniędzy | Data-driven, pozwala kalkulować ROI, pokazuje skalę problemu w pieniądzu | Mówi co się dzieje (gdzie ucieka ruch), ale nie dlaczego. Do tego nadal potrzebne testy z ludźmi |
Każda z tych metod osobno ma poważne luki. Razem dają obraz, w którym opinia spotyka się z dowodem, a dowód dostaje kontekst.
Ekspercki audyt UX vs audyt oparty na AI
Coraz więcej narzędzi obiecuje „audyt UX zrobiony przez AI w 5 minut za 200 zł”. Brzmi atrakcyjnie. W praktyce wygląda to jednak mniej kolorowo: badanie z 2025 roku porównało ChatGPT z ekspertami w analizie heurystycznej. Autorzy piszą wprost, że GPT wygenerował liczne fałszywe alarmy (false positives) przez halucynacje i próby przewidywania nieistniejących problemów.
LLM ChatGPT pokrył tylko 21,2% problemów wykrytych przez ekspertów-ludzi. Innymi słowy: AI nie wykrywa nawet 80% problemów, które znajduje ekspert. I zgłasza do tego sporo „problemów”, które w rzeczywistości nimi wcale nie są.
To nie znaczy, że AI w UX jest bezużyteczne – sprawdza się jako wsparcie eksperta. Szybsze przeszukiwanie, sortowanie problemów, wstępna kategoryzacja. Ale jako pełny zamiennik audytu eksperckiego nie zadziała.
Ekspercki audyt UX kosztuje więcej i trwa dłużej. Ale jeśli celem jest realna lista priorytetów do wdrożenia, a nie sam fakt posiadania raportu w segregatorze, to AI-audyt po prostu nie wystarczy.
Jak wygląda raport z audytu UX?
Raport z audytu UX to zwykle dokument na 50–150 stron. Trzy rzeczy, których nie powinno w nim zabraknąć: zrzut ekranu z opisanym problemem, rekomendacja konkretnej zmiany i jasne oznaczenie, skąd pochodzi diagnoza (z heurystyki, danych z GA4, testów z użytkownikami?). Niżej rozkładam typowy audyt UX przykład pełnej struktury takiego raportu.
Od razu istotna uwaga: nie ma jednego, otwartego „rynkowego standardu” formatu raportu z audytu UX. Każda agencja i każdy ekspert prowadzący analizę UX ma własny szablon. To, co opiszę poniżej, to generyczny szkielet, który widzisz w większości profesjonalnych raportów.
Co powinien zawierać dobry raport z audytu UX
Standardowo w środku znajdziesz:
- 1–2 strony streszczenia. Co znalazłem, gdzie są największe straty, ile można odzyskać.
- Jakie metody zastosowano (heurystyki, testy, analiza danych itp.), jakie były ograniczenia.
- Lista problemów: główna treść. Każdy issue to zrzut ekranu, opis problemu, rekomendacja, priorytet i uzasadnienie.
Hipoteza eksperta vs diagnoza poparta danymi
„Skąd ten ekspert wie, że to jest problem?”. Dobry raport odpowiada na to wprost przy każdym issue:
- Hipoteza eksperta: pochodzi z heurystyki lub doświadczenia. Np. „komunikat o błędzie jest niejasny, narusza heurystykę #X Nielsena.” To prawdopodobnie problem, ale nie wiemy na pewno, dopóki ktoś nie przetestuje.
- Diagnoza poparta danymi: pochodzi z GA4, testów z użytkownikami lub innych źródeł. „73% użytkowników mobile nie kończy formularza (GA4, ostatnie 30 dni). Widać, że klikają w pole X i…” – tego typu dowody.
Oba mają wartość. Heurystyka jest tańsza i szybsza. Dane są pewniejsze, ale wymagają większego zaangażowania. Dobry audyt łączy jedno z drugim i mówi ci, na które rekomendacje stawiać pieniądze w pierwszej kolejności (te poparte danymi), a które najpierw zwalidować testem A/B (te będące hipotezą eksperta).
Od rekomendacji do ticketu
Częsty zarzut wobec audytów ze strony zespołów developerskich jest taki, że „rekomendacje są zbyt ogólne na ticket”. Każda rekomendacja powinna mieć krótki tytuł, lokalizację (URL + sekcja), opis problemu ze zrzutem, konkretną zmianę, uzasadnienie, kryterium akceptacji jako mierzalną metrykę i orientacyjny effort. Wtedy ticket może iść wprost do backlogu.
Ile kosztuje audyt UX?
Cena audytu UX w Polsce to typowo widełki 5 000 – 50 000 zł, zależnie od zakresu. Im prostszy zakres (sama analiza heurystyczna małej strony), tym taniej. Im więcej metod w zakresie (heurystyka + analiza danych + testy z użytkownikami), tym wyżej w widełkach.
Te kwoty opieram na publicznych cennikach polskich agencji UX w latach 2024–2025. Konkretna cena zawsze zależy od kilku rzeczy, które rozbijam niżej.
Od czego zależy cena audytu UX
- Zakres metodologiczny: sama analiza heurystyczna jest najtańsza. Dorzucenie analizy danych np. z Google Analytics podnosi cenę o jakieś 30–50%. Dodanie testów z użytkownikami (5 osób) podnosi ją o kolejne 30–100%, zależnie od rekrutacji.
- Wielkość serwisu, liczba unikalnych szablonów stron: mała strona usługowa jest tańsza od sklepu z wieloma produktami i typami stron.
- Branża i specyfika: B2B z długim cyklem zakupowym wymaga więcej uwagi niż B2C z impulsywnym zakupem. Produkty regulowane (medyczne, finansowe, prawne) wymagają znajomości specyfiki branży.
- Integracje i warianty produktów: liczba metod płatności, dostawców, kuponów, wariantów rozmiaru lub koloru. To wszystko punkty, w których użytkownik może utknąć.
- Wiele języków: jeden sklep w 3 językach to faktycznie 3 sklepy do audytu.
Jak często wykonywać audyt UX?
Oficjalnej rekomendacji typu „audyt co 2 lata” nie ma. To, co opisuję, to konsensus praktyków. W praktyce rynkowej pełny audyt UX robi się co 2–5 lat, zależnie od skali zmian w produkcie i konkurencji. Pomiędzy wchodzą mniejsze przeglądy i regularne testy z użytkownikami. Tańsze i częstsze.
Im dłużej nic nie robisz, tym dłuższa lista problemów do nadrobienia (wspomniany już wcześniej dług UX), gdy wreszcie wrócisz do tematu. A im więcej problemów na liście, tym trudniej wybrać priorytety i tym łatwiej „odłożyć to na później” jeszcze raz.
Testy z użytkownikami w trybie ciągłym
Obok audytów warto trzymać niski próg dostępu do użytkowników. Steve Krug forsuje model „jeden poranek w miesiącu”:
„Sugerowana przeze mnie »porcja« to trzy testy w jeden poranek, a potem omówienie wyników przy lunchu. W ten sposób [minimalizujesz] nakład pracy zespołu w testy użyteczności; i robisz to raz w miesiącu.” — Steve Krug, wywiad dla Boagworld
Trzy osoby, raz w miesiącu, debrief przy lunchu, ticket w Jirze do końca dnia. Jakob Nielsen z NN/g podchodzi do tego nieco inaczej i argumentuje za rozkładaniem badań na mniejsze, iteracyjne rundy zamiast jednego dużego testu na końcu.
Trzy iteracje po 5 osób (zamiast jednego dużego badania na 15) wykrywają więcej problemów. Rozłożenie testów na mniejsze, częste sesje sprawdza się lepiej niż jedno duże badanie raz na pół roku.
Wybór zależy od skali twojego produktu i tego, czy masz w firmie kogoś, kto może to konsekwentnie pociągnąć. Najgorsza opcja to żadna z powyższych: żadnych badań, żadnych audytów, żadnego mierzenia.
Na koniec
Dobry audyt UX to metodyczna praca: postawienie celu, zebranie danych, ocena ekspercka, weryfikacja z użytkownikami, raport z priorytetami. Możesz mieć konkretną listę pracy do wykonania na najbliższe 6–12 miesięcy. Reszta to kwestia doboru zakresu pod twój budżet i twoje pytania.
Jeśli chcesz porozmawiać o audycie UX dla swojego produktu, jesteśmy do dyspozycji przez formularz kontaktowy.
FAQ – Często zadawane pytania
Czym różni się audyt UX od testów A/B i od audytu CRO?
Audyt UX to diagnoza, testy A/B to walidacja, CRO obejmuje oba podejścia. Audyt znajduje hipotezy o tym, gdzie użytkownicy się gubią. Testy A/B sprawdzają, czy konkretne rozwiązanie naprawia problem. CRO (Conversion Rate Optimization) to szersza kategoria, łącząca audyt UX, analitykę behawioralną i plan testów A/B w jeden ciągły proces optymalizacji konwersji.
Czy audyt UX przeprowadzony przez AI jest wiarygodny?
Jako pełny zamiennik eksperta nie zadziała. Jako jego wsparcie owszem. W badaniu z 2025 roku ChatGPT pokrył tylko 21,2% problemów wykrytych przez ekspertów-ludzi i wygenerował znaczącą liczbę halucynacji (false positives). AI sprawdzi się np. do szybszego przeszukiwania, czy wstępnej kategoryzacji.
Czy audyt UX obejmuje dostępność (WCAG)?
Standardowy audyt UX nie obejmuje pełnego audytu WCAG, ale wskazuje główne błędy dostępności. UX i dostępność się zazębiają, więc część problemów dostępności wychodzi „przy okazji” audytu UX i jest sygnalizowana w raporcie. Pełny, formalny audyt zgodności WCAG (np. pod kątem European Accessibility Act) to oddzielna usługa.
Co dokładnie dostaję w raporcie z audytu UX i jak są ustalane priorytety?
Dostajesz dokument z listą problemów, każdy z priorytetem, uzasadnieniem i rekomendacją. Standardowy raport zawiera podsumowanie, metodologię, listę problemów. Priorytety ustala się scoringiem ICE lub RICE, czasem macierzą impact-vs-effort. Każda rekomendacja ma jasno oznaczone źródło: heurystyka, dane z GA4, czy konkretna sesja testowa.
Jak mierzyć ROI audytu UX po wdrożeniu rekomendacji?
Najprościej: porównujesz konwersję przed i po wdrożeniu konkretnej rekomendacji (np. w Google Analytics). Dla większej pewności robisz test A/B: wersja stara vs nowa. ROI to różnica w przychodach minus koszt audytu i wdrożenia.