Screaming Frog SEO Spider — co to jest i jak zrobić audyt SEO strony krok po kroku

Screaming Frog SEO Spider — co to jest i jak zrobić audyt SEO strony krok po kroku
Screaming Frog to najpopularniejsze narzędzie do audytu technicznego SEO. Pokazuję jak je pobrać, uruchomić pierwszy crawl i znaleźć najważniejsze problemy: błędy 404, duplikaty, brakujące meta tagi, wolne strony.

Screaming Frog SEO Spider to desktopowa aplikacja, która crawluje Twoją stronę jak Googlebot — odwiedza każdą podstronę, zbiera dane techniczne i prezentuje je w przystępnej tabeli. Dzięki niej w kilka minut znajdziesz: błędy 404, brakujące meta opisy, duplikaty tytułów, przekierowania łańcuchowe, strony bez nagłówka H1, obrazki bez alt-ów, wolne podstrony i dziesiątki innych problemów technicznych SEO.

To narzędzie numer jeden w arsenale każdego specjalisty SEO — i w wersji darmowej (do 500 URL-i) jest wystarczające dla większości małych i średnich stron. W tym poradniku pokazuję jak pobrać Screaming Frog, uruchomić pierwszy crawl i zinterpretować najważniejsze dane.

Co to jest Screaming Frog i jak działa?

Screaming Frog to crawler — program, który symuluje zachowanie bota wyszukiwarki. Podajesz mu URL strony (np. https://twojadomena.pl), a on:

  1. Pobiera stronę główną.
  2. Znajduje wszystkie linki na tej stronie.
  3. Odwiedza każdy link i zbiera dane: status HTTP, title, meta description, H1, canonical, hreflang, rozmiar pliku, czas ładowania, linki wychodzące, obrazki, itp.
  4. Powtarza proces dla każdej znalezionej podstrony — aż odwiedzi całą witrynę (lub osiągnie limit 500 URL-i w wersji darmowej).

Efekt: tabela ze wszystkimi podstronami Twojej witryny i kompletnym zestawem danych technicznych dla każdej. Jak Excel, w którym każdy wiersz to podstrona, a kolumny to metryki SEO.

Jak pobrać i zainstalować

  1. Wejdź na screamingfrog.co.uk/seo-spider.
  2. Kliknij „Download” — dostępne wersje: Windows, macOS, Linux (Ubuntu).
  3. Zainstaluj jak każdą aplikację (next-next-finish). Na macOS: przeciągnij do Applications.
  4. Uruchom. Nie musisz się rejestrować — wersja darmowa działa od razu (limit: 500 URL-i).

Darmowa vs płatna (£199/rok)

Funkcja Darmowa Płatna
Limit URL-i 500 Bez limitu
Crawl Tak Tak
Integracja z GA/GSC Nie Tak
JavaScript rendering Nie Tak
Custom extraction Nie Tak
Zaplanowane crawle Nie Tak
Eksport pełnych danych Ograniczony Pełny (CSV, Excel)

Dla stron do 500 podstron — darmowa wersja wystarczy w 100%. Dla większych stron i agencji SEO — £199/rok (jednorazowo na rok, bez subskrypcji miesięcznej).

Jak uruchomić pierwszy crawl

  1. Otwórz Screaming Frog.
  2. W polu „Enter URL to spider” na górze wpisz adres strony: https://twojadomena.pl.
  3. Kliknij „Start”.
  4. Czekaj — crawl małej strony (100 podstron) trwa 30–60 sekund. Duży sklep (10 000+) — kilka minut.
  5. Po zakończeniu zobaczysz tabelę z wszystkimi URL-ami.

Co sprawdzić w pierwszej kolejności — 10 najważniejszych raportów

1. Błędy HTTP (4xx, 5xx)

Zakładka „Response Codes” → filtr „Client Error (4xx)”.

Zobaczysz wszystkie podstrony zwracające błąd 404, 403, 410 itp. Każdy 404 to stracona szansa na SEO — Google nie indeksuje stron z błędami, a linki prowadzące do 404 marnują autorytet. Napraw: ustaw przekierowania 301 na właściwe strony lub napraw linki wewnętrzne.

2. Brakujące lub zduplikowane title

Zakładka „Page Titles” → filtry: „Missing”, „Duplicate”, „Over X Characters”, „Below X Characters”.

  • Missing — strony bez tytułu. Google wygeneruje swój (zwykle słaby).
  • Duplicate — dwie lub więcej stron z identycznym tytułem. Google nie wie, którą pokazać = kanibalizacja.
  • Too long (>60 znaków) — tytuł zostanie obcięty w SERP.
  • Too short (<30 znaków) — nie wykorzystujesz potencjału tytułu.

3. Brakujące lub zduplikowane meta description

Zakładka „Meta Description” → te same filtry co title.

Meta description nie wpływa bezpośrednio na ranking, ale wpływa na CTR (Click-Through Rate) — dobry opis zachęca do kliknięcia. Brakujące = Google sam wygeneruje snippet (nie zawsze trafny). Zduplikowane = zmarnowana szansa na unikalne CTA per strona.

4. Brakujące H1

Zakładka „H1″ → filtr „Missing”.

Każda strona powinna mieć dokładnie jeden H1. Brak H1 = Google nie wie, o czym jest strona. Więcej niż jeden H1 = mniej czytelna hierarchia (choć Google oficjalnie mówi, że sobie radzi z wieloma H1 — jeden jest lepszą praktyką).

5. Obrazki bez atrybutu alt

Zakładka „Images” → filtr „Missing Alt Text”.

Alt text to tekst opisujący obrazek — ważny dla SEO (Google Images) i dostępności (czytniki ekranu). Każdy obrazek powinien mieć opisowy alt. Więcej o optymalizacji obrazków.

6. Przekierowania (301, 302)

Zakładka „Response Codes” → filtr „Redirection (3xx)”.

Same przekierowania 301 nie są problemem — ale szukaj:

  • Łańcuchów przekierowań (redirect chains): A → B → C → D. Każdy hop dodaje opóźnienie. Napraw: A → D bezpośrednio.
  • Pętli przekierowań (redirect loops): A → B → A. Strona się nie załaduje.
  • 302 zamiast 301: 302 = tymczasowe, 301 = trwałe. Jeżeli przekierowanie jest na stałe, użyj 301 (przekazuje autorytet).

7. Canonical tags

Zakładka „Canonicals” → filtr „Missing” i „Non-Indexable Canonical”.

Canonical mówi Google: „to jest wersja kanoniczna tej strony, indeksuj TĘ, nie duplikat”. Brakujące canonical na stronach z parametrami URL (filtry w sklepie, paginacja) = ryzyko duplikatów w indeksie.

8. Czas ładowania

Zakładka „Response Codes” → kolumna „Response Time”. Sortuj malejąco.

Strony ładujące się powyżej 1 sekundy (na poziomie serwera, nie frontend) wymagają uwagi. Sprawdź, czy to problem z bazą, ciężkimi wtyczkami, albo brakiem cache.

9. Linki wewnętrzne — orphan pages

Po crawlu: Reports → Crawl Tree Graph (płatna wersja) lub sprawdź kolumnę „Inlinks” — strony z 0 inlinks to orphan pages (osierocone). Nikt do nich nie linkuje wewnętrznie = Google ich nie znajdzie (chyba że są w sitemap).

10. Strony zablokowane w robots.txt

Zakładka „Response Codes” → filtr „Blocked by Robots.txt”.

Sprawdź, czy przypadkiem nie blokujesz ważnych stron. Częsty błąd: Disallow: /wp-admin/ blokuje też /wp-admin/admin-ajax.php, co psuje AJAX na frontendzie (niektóre wtyczki).

Jak eksportować dane

Po crawlu: File → Export → wybierz format (CSV lub Excel). Eksportujesz całą tabelę — możesz ją potem filtrować, sortować i analizować w arkuszu kalkulacyjnym. W darmowej wersji eksport jest ograniczony — ale wystarczający do basic audytu.

Screaming Frog + Google Search Console — integracja

W wersji płatnej możesz połączyć Screaming Frog z Google Search Console i Google Analytics: Configuration → API Access → Google Search Console. Po połączeniu: przy każdym URL-u widzisz dane z GSC (kliknięcia, wyświetlenia, średnia pozycja, CTR) i z GA (sesje, bounce rate, konwersje). Pozwala to priorytetyzować naprawy: najpierw naprawiasz błędy na stronach z największym ruchem.

Alternatywy dla Screaming Frog

  • Sitebulb (płatny, ~£120/rok) — piękniejsze raporty wizualne, łatwiejszy interfejs. Dobry dla osób, które nie lubią surowych tabel Screaming Frog.
  • Ahrefs Site Audit (w ramach subskrypcji Ahrefs) — chmurowy crawler, nie wymaga instalacji. Mniej kontroli niż desktop, ale wygodniejszy.
  • Semrush Site Audit — j.w., w ramach Semrush.
  • Google Search Console — darmowe, pokazuje błędy indeksacji, ale nie crawluje aktywnie — tylko raportuje to, co Googlebot zobaczył.

Screaming Frog jest standardem branżowym — używa go większość agencji SEO i niezależnych specjalistów. Jeśli uczysz się SEO technicznego, zacznij od niego.

Najczęściej zadawane pytania

Czy Screaming Frog jest darmowy?

Tak — wersja darmowa crawluje do 500 URL-i bez ograniczeń czasowych i bez rejestracji. Płatna licencja (£199/rok) znosi limit URL-i i dodaje integracje z GA/GSC, rendering JS, zaplanowane crawle i custom extraction.

Czy crawl Screaming Frog obciąża mój serwer?

Tak — Screaming Frog wysyła żądania HTTP do Twojego serwera. Domyślnie: 5 żądań na sekundę. Dla małych hostingów to może być za dużo — zmniejsz w Configuration → Speed → Max Threads (np. 1–2). Dla dedykowanych serwerów: 5 threadów to nic.

Jak często robić audyt?

Raz na miesiąc dla aktywnych stron (dodajesz treści, zmieniasz strukturę). Raz na kwartał dla statycznych stron firmowych. Po każdej dużej zmianie (migracja, redesign, nowa wtyczka) — natychmiast.

Czy mogę crawlować cudzą stronę?

Technicznie tak — Screaming Frog crawluje dowolny publiczny URL. Prawnie: crawlowanie publicznie dostępnych stron jest legalne (to samo robi Googlebot). Ale szanuj robots.txt i nie crawluj agresywnie (obciążenie serwera).

Podsumowanie

Screaming Frog to najlepsze narzędzie do audytu technicznego SEO — darmowa wersja (500 URL-i) wystarczy dla większości stron. Pobierz, wpisz URL, kliknij Start i sprawdź: błędy 404, brakujące title/meta/H1, duplikaty, przekierowania łańcuchowe, obrazki bez alt, wolne strony. Każdy z tych problemów to stracony potencjał SEO — a Screaming Frog pokazuje je w jednej tabeli, zamiast zmuszać Cię do ręcznego sprawdzania każdej podstrony.

Picture of Tomasz Zieliński
Tomasz Zieliński

Tomasz zajmuje się tematyką SEO, sztucznej inteligencji i automatyzacji pracy w marketingu internetowym. W swoich artykułach analizuje zmiany w algorytmach wyszukiwarek, rozwój narzędzi AI oraz nowe sposoby tworzenia i optymalizacji treści. Interesuje go przede wszystkim to, jak technologia wpływa na codzienną pracę specjalistów SEO, marketerów i twórców internetowych.

Facebook
Twitter
LinkedIn
Pinterest

Najnowsze Wpisy

Śledź nas