Chciałbym Waszą uwagę zwrócić na narzędzie, które (obok Seoptimer.com) pomaga mi w analizie serwisów internetowych – jest to Screaming Frog. Jest ot narzędzie desktopowe dostępne dla platform: Windows, Mac oraz Ubuntu. Pozwala mi ocenić duży serwis pod kątem jego budowy i różnych czynników takich jak:
- błędy ? jakie nagłówki zwacają poszczególne strony/podstrony serwisu (brak odpowiedzi, 4XX, 5XX)
- przekierowania? (3XX, stałe lub tymczasowe)
- liczba linków wychodzących ? wszystkie linki wychodzące wraz z odpowiedzią od nich
- błędy z adresami URL
- łatwo wychwycić zduplikowane treści w obrębie witryny ? wystarczy porównać Hash value / MD5checksums
- tytuły stron / podstron ? pokazuje ich brak, duplikację, jaką mają długoś, jak często są powielone, czy są w H1, i tak dalej
- Opisy Meta Description ? czy są, jak są długie, czy są powielone
- Meta Keywords
- H1 ? czy jest, jak długie
- H2 ? czy jest, jak długie
- Meta Robots ? Index, noindex, follow, nofollow, noarchive, nosnippet, noodp, noydir etc
- Meta Refresh ? chociaż już rzadko używane ale zdarza się
- Elelementy typu Canonical
- X-Robots-Tag
- rozmiary plików dla poszczególnych podstron
- Anchor Text czyli słowa kluczowe ? zbiera nawet ALTy z obrazków 🙂
- Follow & Nofollow
- Images – obrazki bada pod różnym kątem
- User-Agent Switcher ? zbiera dane jako Googlebot, Bingbot, lub Yahoo! Slurp
- XML Sitemap Generator ? You can create a basic XML sitemap using the SEO spider.
I wiele innych. Wersja darmowa pozwala wykonać analizę dla 500 podstron – dla sporej liczby serwisów jest to wielkość wystarczająca. Wersja płatna (99 funciaków) nie ma żadnych ograniczeń. Liczba opcji i możliwości analizy podstron jest ogromna, że nie sposób opisać tego narzędzia. Polecam ściągnąć wersję demo i sprawdzić jak to działa 🙂
Prezentuje się programik nieźle. Będę musiał przetestować 🙂
I liked.
To narzędzie jest niesamowite 🙂 Prostota działania i ogarnianie ogromu danych jest nieocenione, cały czas mi chodzi po głowie, żeby to w końcu kupić…
Ten programik jest … super nie słyszałem o nim nigdy.
Teraz audyt seo będzie jeszcze szybszy;)
Dla mnie rewelacja, przyda się na pewno 🙂
Dzięki!
Programik rewelacja napewno sie przyda.
Niestety wersja pod Ubuntu nie działa, problemy z javą.
Zbrodnia, że tak mało narzędzi pod Linuxa
Niestety programik pokazuje wszystko OK a ban i tak na seokatalog jest.
Tool przyjemny. Bardzo przejrzyste raporty no i bez problemu działa pod Debianem, choć instalka jest dedykowana dla Ubuntu >;-].
Ciekawy program, pozwalający na bardzo szybką analizę.
Narzędzie jest faktycznie przyjemne, ale jest kilka ale:
a) wersja darmowa i jej ograniczenie do 500 URLi sprawia, że narzędzie jest mało użyteczne przy praktycznie wszystkich projektach ecommercowych – strony sklepów mają niemal zawsze dużo więcej podstron. Częściowym rozwiązaniem jest fakt, że jeśli zaimportujemy listę URLi do analizy, to wtedy nie ma ograniczenia do 500. Czyli można zrobić crawl innym narzędziem, np. Xenu Link Sleuth, a potem zaimportować wynik do Froga.
b) wersja darmowa nie pozwala konfigurować różnych filtrow, więc tool jedzie po wszystkim, nawet jeśli coś jest zupełnym śmietnikiem (różne linki od sortowania itd.)
c) Cena 99 funtów to jest opłata za rok. Za rok – kolejne 99 funtów.
Generalnie, ze względu na cenę, polecam kilka innych rozwiązań. Absolutną rewelacją jest mało znane w Polsce narzędzie Microsoftu – Search Engine Optimization Toolkit – za darmo, bardzo szybkie i dużo większe możliwości niż Frog.
Dobre mi się też sprawdza A1 Website Analyzer 3 – bardzo przyjemne narzędzie o bogatych możliwościach
tego: ( zduplikowane treści w obrębie witryny ? wystarczy porównać Hash value / MD5checksums) szukałem od jakiegoś czasu i wreszcie to narzedzie mi to dało – dzięki za link
Czy za pomocą tego programu można przefiltrować sobie listę z nieaktywnych adresów?
Jak odwiedza każdą podstronę to zwracany jest kod HTTP. Jak podstrony nie działają to przefiltrujesz sobie po kodzie odpowiedzi czy to 4xx czy 5xx.
Dzięki bardzo 🙂 teraz już mam czego szukałem 🙂 Sprawdza się nawet przy dość dużych listach.
Jak ominąć 403 Forbidden przy crawlowaniu strony? Mam sklep na shopperze i chce przeskanować żabą i nie idzie.
Uoprawnienia sprawdź do folderów – widocznie nei wszystko jest osiągalne dla SF. Zobacz co powoduje błąd 403 w logach.