Po szkoleniu nasunęła mi się taka refleksja, że chyba nikt, ale to nikt nie lubi dokonywać optymalizacji serwisu. Powiedzmy sobie szczerze, iż jest to najbardziej nudnawa rzecz pod słońcem. A jednak optymalizacja, która może być uznana „grą wstępną” (a zgodnie z powiedzeniem im dłuższa gra wstępna tym wilgotniejsze futerko), jest tak naprawdę fundamentalną i podstawową rzeczą jaka winna być wykonana przed cały SEO-procesem.
Co tak naprawdę wykonuję przy procesie optymalizacji:
1. Dokonuję analizy podstawowych parametrów związanych z widocznością serwisu w sieci – to wykonuje (nawet bezwiednie) każdy z Nas tylko nazwać tego nie potrafi 😉
2. Przeglądam serwis w zakresie najważniejszych elementów, które mogą wpłynąć na czynniki zwiększające jego widoczność w sieci. Tutaj można też się pokusić o podanie właścicielowi serwisu wskazówek, związanych z „usability” badanego serwisu.
3. Analiza konkurencji wykonana na wielu różnych płaszczyznach. Można do tego podejść od strony strategiczno-ekonomicznej (analiza PEST, 5 sił Portera, wykonanie SWOT/TOWS) oraz od strony „budowniczego” strony – czyli wskazać obszary wymagające naprawy na serwisie. Poprawki mogą być potrzebne w zakresie:
– doboru właściwych słów kluczowych na stronie głównej i podstronach
– sprawdzenie regionalizacji
– sprawdzenie reklam Google Adwords konkurencji
– analiza plików robots.txt, sitemap
– analiza zachowań dla błędów 40x oraz przekierowań 30x
– analiza URLi, altów, tagów, title’sów i innych znaczników poprawiających indeksację
– optymalizacja treści pod katem SEO
– blokowanie treści nieporządanych do indeksacji
– blokowanie wyników wyszukania
i wiele innych czynników, które akurat dla danego serwisu mogą wypłynąć. Istotą całej optymalizacji jest to, że dobrze wykonana na pewno pomoże uzyskać lepszy wynik w rankingu Google niż to był odo tej pory.
Dlatego audyt/optymalizacja serwisu jest istotna – i nie wolno jej pomijać.
Właśnie, czy zawsze warto blokować treści wyniki wyszukania ?
Odnośnie szkolenia i blokowania niektórych linków w javascript …. w przypadku sklepu internetowego linki typu więcej itp na pewno warto blokować … a co z innymi linkami np. regulamin, kontakt, dostawa, promocje itd …? Czy tutaj najlepszym rozwiązaniem byłoby przesunięcie ich jak najniżej w kodzie ?
Wyniki wyszukania – ich indeksowanie jest neizgodne z wytycznymi Wujaszka G więc nie tyle czy tylko że musisz 🙂
osobiście regulamin blokuję w robots.txt, kontakt nie, promocje nie, dostawa – daje index, nofollow,
Ważne przy sklepach aby blokowac indeksowanie KOSZa – po cholercie komukolwiek zawartosc koszyka ?
Obniżanie takich rzeczyw kodzie i tak nic nie da bo indeksacja nastąpi wcześniej czy później jako że sporo osób czyta regulaminy więc będzie oto strona często odwiedzana i G ją potraktuje jako ważną.
Ja akurat przy optymalizacji mogę siedzieć godzinami 😉 Ale zdarzało się, że musiałam spędzać przy niej całe miesiące (np. ręczne metowanie 1,5 tysiąca podstron) i wszystkiego się wtedy odechciewało.
Co do indeksowania wyników wyszukiwania to osobiście zawsze je blokuję, ale czasami warto wyodrębnić sobie ważniejsze frazy i je indeksować.
Wiesz Lexy – zdałem sobie ostatnio sprawę, że też to lubię 🙂 Może dlatego, że wiele rzeczy trzeba nadal ręcznie odnaleźć, podać na tacy i zarządzić żeby wprowadzili poprawki… A wielu osobom się nie chce 😉
Dzięki za odp
Sam audyt i optymalizacja jest (może być) całkiem ciekawa. Niestety w 80% nawet nie ma co optymalizować, a jedyną treścią na stronie głównej jest notka prawna – to są wyzwania na poziomie uświadamiania klienta:)
Może mógłby podać ktoś jakiś fajny „kodzik” javascript, którym blokujecie linki przed google 🙂 ?
@Marek: bo na stronach ero z reguły jest notka prawna hehehe
@Paweł: nie podam bo nie znam 😛
Zastanawiałem się ostatnio nad indeksacją wyników wyszukiwania – elektroda ma z tego fajny ruch i już od lat jest tolerowana przez Googla. No ale to już ryzyko.
zgred a moglbys wyjasnic o co chodzi w tych punktach bo nie rozumiem
– sprawdzenie regionalizacji
– analiza zachowań dla błędów 40x oraz przekierowań 30x
Ja tam lubię optymalizację, szczególnie jeżeli strona leży w tym zakresie odłogiem jakiś czas a jest linkowa i po takiej optymalizacji widać wyraźny efekt na wykresie odwiedzin to ogarnia mnie błogie uczucie zadowolenia, że udało się coś więcej wycisnąć.
@roman33:
regionalizacja – sprawdzenie z jakich krajów przychodzą linki, jesli witryna była pozycjonowana – istotne jesli jakas inna firma seo bądź właściciel korzystał z SWLi, blastów etc…
analiza stron 40x i 30x – analizujesz jak się zachowuje strona przy błędach error 403 i error 404 jak równiez czy sa puste strony (niepotrzebne) i robisz z nich przekeirowanie 301 na główną.
Optymalizacja nie jest taka zła 😉 Warto tutaj też dodać, że przy większych serwisach to wcale nie jest jednorazowe działanie, tylko ciągły proces.
Dokładnie – do jednego serwisu podchodze juz 3ci raz 🙂 za każdym razem znajduje się i testuje coś nowego 🙂
Jak to mówią – co dwie optymalizacje to nie jedna 😉
@zgred
regionalizacja ? sprawdzenie z jakich krajów przychodzą linki
a na podstawie czego analizujesz linki, bo wedlug mnie na analize w yahoo to szkoda czasu, korzystasz z jakichs platnych raportow jak majestic czy cos innego
Proszę bardzo jak ładnie indeksują się na wysokich pozycjach wyniki wyszukiwania w niektórych serwisach : http://www.google.pl/search?q=prognozy+st%C3%B3p&ie=utf-8&oe=utf-8&aq=t&client=firefox-a&rlz=1R1GZAZ_pl___PL425
I co Ty na to ?
Dostałem od kolegi prośbę, abym wszedł w goolge, wpisał „kutas” a następnie kliknął Szczęśliwy traf. Aż mnie dziwi, że kancelaria prezydenta wyrobiła sobie tak wysoką pozycję w wynikach wyszukiwania. Google, jak podaje na swojej stronie, nie ingeruje w wyniki wyszukiwania, więc problem się najszybciej nie rozwiąże, zwłaszcza, że analizując kod źrf3dłowy srony, nie widać, aby była pozycjonowana pod te chasło. Czyżby powodem była duża liczba linkf3w z takim tekstem prowadzących do prezydenta?
Czy wykorzystujecie jakieś programy ułatwiające analizę SEO?
@Albert: nie wykorzystuję (Ja) żadnego programu – robię wszystko ręcznie analizując serwis krok po kroku – optymalizacji nie da się zrobić automatycznie. Można ewentualnie posiłkować się jakimiś wyliczeniami generowanymi przez np WebCeo ale to i tak nie zdaje egzaminu. każda strona jest inna.