Taaakkk… To zapewne jest drażliwy temat ale zapewne ulubiony dla niektórych z „loży szyderców”, którym niestraszne są linki i biali rycerze. Poniżej przedstawiam kilka powiadomień i wskazań, jakie daje Google powiadamiając o nienaturalnym linkowaniu. Google uznało, że takie techniki stosowane w pozycjonowaniu nie są mile widziane. Wskazane odnośniki pokazują jak nie robić. I tutaj od razu moje „3 grosze” – problemem nie jest witryna (choć można mówić o kiepskiej jakości ale to pojęcie względne) lecz problem leży w sposobie linkowania „do ofiary”.
Stopki na forach
Tutaj Google jednoznacznie wskazuje, że odnośniki z anchorem typu exact match są złe:
- I tak zacznijmy od czegoś mocnego … na początek forum SEO (forum.optymalizacja.com):
.optymalizacja.com/topic/ 110083-problem-z-jquery-oraz-php/
Obecnie anchor skasowany – wystarczyło powiadomić właściciela stopki 🙂
- Kolejny przykład ze stopki – jakieś dziwne forum:
- Tutaj tez jest jakieś dziwne forum:
http://www.forumfryzjerskie.pl/phpBB3/viewtopic.php?p=6721%3Ca%20href=
Link z anchorem był – ale już go nie ma.
Zastosowane rozwiązanie: fizyczne usunięcie, bardzo rzadko forum trafia do disavow
Katalogi i precle
Jak zawsze na cenzurowanym – te dwa „twory” od zawsze solą w oku dla Google są. Więc przyjrzyjmy się:
Czemu Google nie lubi tych linków ?:
- za anchory
- za linki w treści na EMA (exact match anchor)
- ogólnie za sztuczną manipulację i przepływ PageRanku 😉
Zastosowane rozwiązania:
- Usunięcie linków w treści
- Wstawienie NOFOLLOW do anchorów jeśli jest to możliwe
- Jeśli brak kontaktu z właścicielem katalogu/precla – całość ląduje do Disavow Tool.
Wstawianie serwisów, szczególnie katalogów, do DT jest dla Mnie ostatecznością ale udaje się wypracować „kompromis” z właścicielami.
Systemy Wymiany Linków
Mamy dwa modele linków (te popularne): statyczny i dynamiczny. Każdy z nich ma swoje plusy i minusy. Nie będę podawał przykładów bo musiałbym załączyć plik i modelowo pokazać co i dlaczego zrobiłem.
Rozwiązań jest kilka:
- dla modelu SWL statycznego – kasujemy wszystkie odnośniki, czekamy około tygodnia (ponieważ odnośniki nie znikną od razu) i piszemy RR – jeśli tylko ten typ SWLa był stososwany w 90% przypadków pierwsza odpowiedź z Google była pozytywna.
- dla modelu SWL rotacyjnego – odpinamy serwis, czekamy 3-4 dni (chociaż Xann twierdzi, że może czasem warto dłużej i jestem skłonny na podstawie dwóch ostatnich zleceń mu przyznać rację) i też piszemy RR (reconsideration request) – powinna wrócić pozytywna odpowiedź.
- dla modelu mieszanego – no tutaj niestety za pierwszym podejściem z reguły nie ma pozytywnej odpowiedzi zza firewall’a. Trzeba pomęczyć się 2-3 krotnie.
Automaty typu XR/SB i inne
Tutaj nie jest ani łatwo ani przyjemnie. Skoro „z Nami” nikt się nie pieścił to czemu pieścić się z linkami ? Wszystko wrzucać do pliku Disavow. Jesli nie starcza miejsca dla linków niestety trzeba wrzucać całe domeny poleceniem domain:domena.pl – inaczej po prostu się nie da.
Ja używam do tego celu ScrapeBoxa – importuję plik, przycinam wszystko do domen „root” i sprawdzam czy jest coś wartościowego czy nie.
Przenoszenie baz danych
Przed tym nie ma możliwości się obronić dlatego tak mocno naciskam właścicieli katalogów o usunięcie odnośnika do danej witryny. Jeśli baza zacznie być powielana w dużej liczbie mamy niekontrolowany przyrost linków. I znowu trzeba oczyszczać profil. Pewnym światełkiem w tunelu jest fakt, że powielone są również inne cechy charakterystyczne dla przenoszonej bazy i witryny stąd też Google od razu może „odciąć moc” takich odnośników lub całkowicie wyeliminować tak postawiony spamik.
Na koniec:
- warto za każdym razem zbierać wszelkie raporty związany z link building’iem
- należy przeglądać chociaż raz w miesiącu profil linków w panelu GWT
- w przypadku uzyskania maksymalnej próbki linków w panelu GWT (100 tys) wskazuje to na używany SWL rotacyjny (najczęściej), tylko raz zdarzyło mi się, że było to linkme.
- jeżeli pozycjonowanie jest tanie to znaczy, że nic dobrego z tego nie wyniknie
- na chwilę obecną jeżeli czas na osiągnięcie pozycji jest mierzony w tygodniach lub mniejszy niż 4-5 miesięcy – to też źle wróży
- jednym z elementów obronnych przy odfiltrowaniu jest skierowanie linków przychodzących na nieistniejącą stronę (wskazać stronę z błędem 404)
Nie ma jednej, jednoznacznej metody na odfiltrowanie serwisu. Odfiltrowania proste trwają ok 1 miesiąca, skomplikowane kilka miesięcy.
Zainteresował Cię ten temat ? Podyskutuj w komentarza – zapraszam 🙂
„problemem nie jest witryna lecz problem leży w sposobie linkowania ?do ofiary? – NIC DODAĆ, NIC UJĄĆ.
„na chwilę obecną jeżeli czas na osiągnięcie pozycji jest mierzony w tygodniach lub mniejszy niż 4-5 miesięcy ? to też źle wróży” – Ostatnio już się obawiałem, że tylko ja tak sądzę.
Z kolei czego się obawiam, a co pewnie wkrótce stanie się koniecznością to… wspomniane, musowe badanie (zapobiegawczo) profilu linków. Niby robiło się to zawsze, ale aktualnie sumienniej i skrupulatniej.
Kilka fajnych porad dzięki.
Ostatnio ze zgłoszeniami jest spory problem czekam już kilka dobrych tygodniu i na razie zero odzewu.
Tak czekam mniej więcej od 10 listopada… potwierdzam, że jest „jakiś” problem z RR-kami.
„jednym z elementów obronnych przy odfiltrowaniu jest skierowanie linków przychodzących na nieistniejącą stronę (wskazać stronę z błędem 404)” – tak o ile nie jest to strona główna, tylko podstrona. Na index jest chyba tylko usunięcie lub disavow, bo 5 stroną które czyściłem dodałem w statlinku rel=”nofollow”: 2 przeszły, 3 nie.
„Jesli nie starcza miejsca dla linków niestety trzeba wrzucać całe domeny”
W ogóle to jest jakieś ograniczenie w rozmiarze (liczbie zgłoszonych linków) pliku disavow?
Jest – 2 mega pliczek na ile pamiętam.
Za jakie zatem nie nakłada kary – to byłby post wart milionów 🙂
Ale to wiadomo – twórzyć wartościowy content do którego użytkownicy będa sami linkowali 😛
Jak dla mnie na razie brak sygnałów, że „Disavow tool” działa jak należy, co powoduje, że samo narzędzie jest mało wiarygodne by tracić czas na monitorowanie sytuacji z linkami i zgłaszanie „niepożądanych”.
Może kiedyś będzie warto z niego korzystać np. jak Google to dopracuje i przestaną przychodzić takie kwiatki jak przykłady nienaturalnych linków, które wcześniej już były zgłoszone do disavow tool…
I takie rzeczy zgłaszamy jako bug 🙂
Niby oczywiste to o czym piszesz, ale i tak fajnie się czyta 🙂 A może jakiś artykulik o wychodzeniu z filtra algorytmicznego po updacie z początku października? 😉
Z filtra algorytmicznego nawet przed październikiem było ciężko wyjść ponieważ trzeba zdiagnozować czego ten filtr dotyczy. Ale pomysł na arta dobry – zastanowię się i może zrobię resume z tego co jest na forum Google.
Może właśnie artykulik o tym jak zdiagnozować czego dotyczy filtr algorytmiczny 🙂 np. czy jeśli zdjęliśmy wszystkie linki z dopasowanym anchor textem (nie zdobywając nowych linków) i strona nadal kręci się w okolicach top200 to znaczy, że filtr jest za coś innego?:)
Linki z anchorem w stopce są złe – ale wszyscy je naturalnie stosujemy… także nie ma co generalizować. Po prostu nie można przesadzać 🙂
Fajny artykuł i trafne wnioski dotyczące obecnego pozycjonowania. Narzędzie disavow wymaga jeszcze dopracowania, bo też przy pisaniu RR dostawałem w przykładzie linki naturalne, umieszczone przez internautów a nie seo-speców.
Linki z anchorami niby są złe – ale nadal można osiągać topy linkując 100% jeden anchor i to w kilka dni 🙂 Wiem że do czasu, ale przez ten czas można zarabiać $….
Brakuje info o martwych SWL-ach np. seo.net.pl 😀
Słuszna koncepcja – ale tu nie ma kontaktu i leci do DT 🙂
a moze po prostu przestać w sposób sztuczny linkować i zacząć kampanię reklamową opartą na zdrowych zasadach marketingowych ? te wszystkie sztuczki , o których piszecie działają na kilka m-cy potem znowu kolejne czary. Po prostu wujek Gugl nie chce żeby w pierwszej 10 wyników były marne i cienkie strony z towarami, czy usługami wątpliwej jakości, a były rzeczy wartościowe dla użytkownika…ile to już stron obejrzałem, które nie maja żadnej wartości za to mają „pozycjonerów”….
Dzięki za artykuł
Prosze – ale adres URL usunąłem bo uznałem to za spam 😉
Czyli link do produktu gdzie w sklepie są przyjazne linki to też jest EMA?
Jeśli tak to jak inaczej wykorzystać stopki dofollow z for??
NIe – linkowanie wewnętrzne jest bezpieczne jeśli jest poprawnie i zgodnie z wytycznymi wykonane. Jeśli natomiast specjalnie ukłądasz zdanie aby wyszło EMA no to polecisz za tak zwaną jakościówkę
Nie wiem czy się dobrze zrozumieliśmy 🙁
Chodzi mi o sytuację gdy w stopce na forum mam wstawiony link do produktu w formie:
http://www.sklep.kom/nazwa-kategorii/nazwa-produktu/
to czy taki link będzie uważany za poprawny czy negatywny??
Jeśli negatywny to jak inaczej wykorzystać stopki w postach na forum?
Ja bym stopek na forach do linkowania produktów nie obstawiał 🙂
No właśnie tak czuję, tylko idąc dalej tą myślą to produkty nie, anchory nie.
Jedyne co przychodzi do głowy to główna strona tudzież główna zaplecza.
Albo muszę się jeszcze dużo nauczyć ;]
jest wiele innych sensowniejszych miejsc niż tylko stopki 🙂
A to na pewno, tylko mam kilka for gdzie jest trochę postów i nie chcąc puścić tego w zapomnienie szukam sposobu na wykorzystanie.