Do napisania tego artykułu pchnął mnie inny opublikowany na SprawnymMarketingu wpis o tym, jak Google rozpoznaje linki spamerskie. Nie chcę tutaj rozwodzić się nad wszystkimi koncepcjami tam przedstawionymi ale bardziej podzielić się swoimi spostrzeżeniami:
1. Udziały linków własnych vs ogólnodostępne
Nalezy rozstrzygnąć kwestię co to znaczy „link własny” – bardzo dobrym odniesieniem jest w tym momencie to co napisano na Sprawnym ejdnakże dochodzi do tego na przykład możliwość zaznaczania na wordpressach znacznika rel=”me” – czyli wskazania wyszukiwarce, iż dany link jest moim własnym:
Na powyższym rysunku, będąc zalogowanym widzę, że udostępniam link wychodzący ze swojego bloga do danej witryny.
Tutaj jednakże dochodzimy do kwestii, której starają się trzymac wszyscy pozycjonerzy: odseparowanie stron, zaplecze na różnych IP, rózne DNSy, różne inne wszystkie możliwe rzeczy, które moga negatywnie wpłynąć na SEO po wychwyceniu całości zaplecza danej osoby. Więc wtedy wszystkie własne strony staja się ogólnodostępne. Czy to oznacza, że jak do sprzedanego linku zastosuje rel=”me” to nie będzie to link sprzedany (wymiana linków niewskazana w Google) tylko własny ?
2. Masa własna linków
Tutaj powiem ,że przetestowałem zakupienie kilku linków na witrynach o dużym SITE. Zakładam, że link z witryny ma wtedy bardzo dużą mase własną… Jesli tak to potwierdzam, że takie linki … nie poprawiły mi pozycji strony pozycjonowanej.
3. Sieci linków, szerokości poziomów sieci – czyli linkowanie piramidalne
W odniesieniu do tego rozdziału nalezy wspomnieć o poprzednich moich dwóch artykułach:
https://www.zgred.pl/blog/sposob-linkowania-wykorzystaniem-subdomen-case-study
https://www.zgred.pl/blog/sposob-linkowania-dla-100-domen-case-study
Analizując powyższe w zderzeniu z artykułem na Sprawnym wynika, że całość MUSI być jeszcze podlinkowana na drugim poziomie tzn każdy węzeł przedstawiony w dwóch w/w artykułach powinien zostac podlinkowany – co w zasadzie chyba kazdy z pozycjonerów stosuje (a przynajmniej powinien stosować dla rozmycia spamu). Dobrym przykładem „piramidy mocy” był robiony przeze mnie test – co prawda na stronach anglojęzycznych ale witryna do dziś dnia trzyma się w top5 na fraze bankową.
4. Zmiana anchorów w czasie procesu SEO
Tutaj nikogo nie trzeba przekonywać, ze zmiana anchorów w trakcie pozycjonowania a zwłaszcza nagła zmiana tematyki bardzo negatywnie odbija się na rezultatach witryny. Więc dlaczego tylu z Nas przechwytuje domeny i wykorzystuje je do budowania zaplecza ? No i te zaplecza częstokroć mają się całkiem nieźle jeśli się o nie zadba. Przyczyn pewnie jest kilka m.in. bo trustrank nie spada tak szybko jakby Google chciało, bo pomiedzy zmianą atrybutów SEO (tematyka, anchory, przeznaczenie) a posadowieniem nowej treści mija wystarczająco dużo czasu aby Google uznało serwis/witrynę za zupełnie nową i pomimo przywóceia do indeksu oraz przeliczenia stare linki dają to coś co utrzymuje nowy serwis „przy życiu”.
5. Limit przyrostu linków
Wielokrotnie poruszany temat przez katalogujących, czy tez młodych pozycjonerów wchodzących w świat SEO. Oczywiscie jasnym jest, że przyłożenie pierdyliardów linków negatywnie wpłynie na pozycjonowana witrynę ale … no właśnie jest dużo ALE (które było omawiane na tym blogu w wielu już tematach) na przykład: liczy się wiek domeny/serwisu, jej historia – to przede wszystkim to, ze domena jest świeża/młoda powoduje, ze do takowej nie linkujemy „za szybko”. Do domen przechwyconych, starych serwisów – można częstokroć linkowac dużymi ilościami (wykorzystując różne narzedzia) i nic się nie stanie.
Małe podsumowanie:
Powyższe dywagacje to tylko wycinek całości … Jednakże wszystkie razem sa zawssze (niemalże bezwiednie) stosowane przy pozycjonowaniu. Tak więc jeśli dobrze to rozegrać (a graczy w SEo ejst abrdzo wielu) to nadal SPAM będzie rozpychał się w Top10 😛
Dobrze napisane. Dzisiaj spamem może być wartościowy serwis :>
popieram, bardzo dobrze napisane, tylko te literówki …. 🙁
Bardzo dobry artykul Zgred. Cos ostatnio częściej zaczales pisać 🙂
Bardzo interesujący artykuł. Zawsze jest coś interesującego do przeczytania na tym blogu 😉
Świetny tekst. Przeczytałem artykuł na sprawnym marketingu, ale brakowało mi w nim głębszej analizy tematu.
A ja nie kumam
Co to jest link spamerski?
Co złego jest w linkach własnych? Jeśli pochodzą z dobrych stron, to co z tego że google rozpoznaje że to linki własne?
Jestem raczej amatorem seo wiec wybaczcie te pytania 🙂
Trafiłem na tego posta ze sprawnego marketingu i powiem Ci że pokusiłeś się o obszerniejszą analizę tego co napisali. Na SM oczywiście jest przedruj z seomoz – to właśnie tam czytałem o spamerskich linkach najwcześniej.
Tu wg mnie odbębniłeś arta po łebkach, ale nie wszyscy muszą się ze mną zgadzać 😉
@tornar: oczywiscie – każdy art ma dawać do myślenia przecież nie wyłożę wszystkiego co wiem 😉
No i nikt nie wie co to ten link spamerski?
Taki, który G uznaje za spam 😉
Wg rysunków, które starałem się zrozumieć, za link spamerski może być uznany każdy link z witryny, która nie jest dodatkowo podlinkowana… Trąci to troszkę dowcipem bo przy takim podejściu praktycznie każda witryna dająca link powinna być podlinkowana. Chyba, że stosujemy zasadę, iż pierwszy poziom piramidy, który nie jest podlinkowany stanowi potencjalną grupę spamerską…
Niezwykle ciekawie podszedłeś do tematu linków własnych i atrybutu REL ME. Osobiście uważam, że Google to tak zapętliło – że bez względu czy link uznany za kupny (za pieniądzę) czy kupiony (wspólnym interesem – czyli jeden i ten sam właściciel to poleca co jego) – Google traktuje te linki z mniejszym przyłożeniem.
Do niektórych technik odniosłem się też u siebie we wpisie. 🙂
pozdrawiam
Nie wiem czy zgredek tu jeszcze zajrzy 🙂 ale piszę 🙂 czyli katalogowanie nowo powstałej strony powiedzmy 100 linkami to nie najlepszy pomysł?można dostać filtr? i drugie pytanie czy jak mamy nową domenę i robimy article marketing na rozszerzenia i teraz katalogujemy stronę główną na rozszerzenia to to możemy dostać filtr-zakładając że domena jest nowa ?? jak radzisz po jakim czasie domena zaczyna być ciut starsza??i co ile wrzucać art i je katalogować tak powiedzmy 15 katalogów?
100 wpisów – zanim G to zaindeksuje miną „wieki” więc można dziennie tyle dodawać.
Z góry przepraszam za odkopanie tematu ale kiedy przeczytałem tą odpowiedz to urodziło mi się takie pytanie – jeśli używamy indexera do linków to te 100 linków o których mówił Mały będzie za indeksowane „tu i teraz” (o ile program pokaże 100% za indeksowania) czy i tak dopiero za jakiś czas? Dzięki za odpowiedz.
wazne kiedy zobaczy i zaindeksuje je Google. Ale jeśli je złapie od razu to będziesz miał „tu i teraz”.
Fajnie że tu zajrzałeś 🙂 No właśnie chyba nie bardzo bo tak jak ci na maila wysłałem wpadlem w filtr/sandbox. Wszystkie katalog są nade mną a ja dla frazy kluczowej na 27 stronie. To mało optymalizowana fraza więc na pewno nie pracownik google. A jak google bot się skapnął ??
To kto odpala pierwszy usługę depozycjonowania? Musze tez Michałowi napisać żeby zdjął wzajemne linkowanie tych swoich dziesiątek serwisów bo mu o2 poleci w serpach 😛
Lepszy materiał niż na S Marketingu.
Ja kataloguje swoje blogi ile wlezie i tak linki się zaindeksują po czasie. Może się mylę ale jak narazie się sprawdza.
Depozycjonowanie działa, tylko trzeba robić to z wyczuciem… przetestowane z top1-top2 w ciagu 10 dni na poza 100 🙂
Wiem, że działa – działa też spamowanie blogów anchorami zamiast brandem jako depozycjonowanie 😛
Zainteresowała mnie kilka Twoich postów bo zaczęłam pisać blog i chcę go trochę podciągnąć. Głównie, interesuje mnie ustawienie wtyczki SEO Yoast, i nawet próbowałam krok po kroku z Twoim przewodnikiem. Niestety nadal jest to dla mnie za trudne. Brakuje mi np wyjaśnienia czy akurat na moim blogu konieczne jest indeksowanie tagów – nie wiem co to daje i do jakich użytkowników jest kierowane. Przykładów jest oczywiście więcej. Czy zastanawiałeś się nad napisaniem takiego przewodnika „wołami” dla kompletnych laików… ? nie chce pisać, że dla kobiet, ale może to byłoby to czego szukam… Pozdrawiam Magda
Jest wiele poradników dotyczących wtyczki Yoast – wystarczy poszukać „konfiguracja wtyczki yoast” – jest kilka różnie napisanych 🙂
Indeksowanie tagów poprawia skutecznośc na długim ogonie 🙂