SeoPilot: Czy po głośnych aktualizacjach Google zmieniło się podejście do pozycjonowania?
Jakub Makaruk: Podejście samych pozycjonerów - nie aż tak bardzo. My zdajemy sobie sprawę z tego, że Google może zrobić wszystko ze stroną internetową – vide jeden z ostatnich przypadków opisanych przez SEL (Search Engine Land). Strona została ukarana całościowym filtrem za jeden artykuł z linkami wychodzącymi, który notabene został opublikowany ponad rok temu. A co do klientów, to dla nich nie ma znaczenia co Google faktycznie robi, oni chcą wyników. Poza tym klienci już nie bazują wyłącznie na pozycjonowaniu.
SP: Na co dziś kładzie się największy nacisk pozycjonując strony www?
J.M.: Obecnie przywiązujemy większą, niż wcześniej uwagę do odpowiedniej optymalizacji serwisu, wartościowych dla internauty treści, oraz pozyskiwania linków, które nie tylko mają za zadanie przekazywać moc, ale także bezpośrednio skierować potencjalnego klienta na pozycjonowaną stronę. Jeżeli chodzi o linki, to całościowy profil linkowania jest ważny i powinien wyglądać „naturalnie” - cokolwiek to znaczy.
SP: SEO się zmienia. Jakie są prognozy dla pozycjonowania na najbliższy czas? Dalej rozwijanie rekomendacji i sieci społecznościowych, czy branża przewiduje, że usługa może pójść jeszcze w inną stronę?
J.M.: Myślę, że w niedalekiej przyszłości SEO w czystej postaci przestanie być priorytetem wszystkich działań na rzecz kompleksowej obsługi z zakresu internetowego inbound marketingu. Przecież celem jest pozyskanie klienta dla firmy, i w finale nie ma znaczenia, czy on przyjdzie z wyszukiwarki czy z fanpage, lub z jakiegoś forum.
SP. W jaki sposób użytkownicy mogą pozyskiwać wartościowe linki do swoich serwisów?
J.M.: Tak naprawdę pozyskać wartościowego linka jest coraz trudniej i to nie ze względu na brak dobrych miejsc. Ale patrząc na ostatnie posunięcia Google każdy link może być uznany za zły. Dobrymi miejscami na pozyskanie wartościowych linków są serwisy społecznościowe i portale z prawdziwymi, „żywymi” użytkownikami zainteresowanymi daną tematyką.
SP: Content marketing i SEO coraz mocniej się przenikają. Jak ważna jest dziś dobra treść? Czy może ważniejsze jest, gdzie dana treść się pojawi?
J.M.: Dokładnie tak się dzieje i już nie mówi się o setkach tysięcy pozyskanych linków, a jedynie o kilku, które faktycznie pozycjonują i dają ruch. Treść się liczy coraz bardziej z prostej przyczyny - coraz więcej produkuje się serwisów satelickich czy zapleczowych nie tylko dla robotów, ale dla internautów. Z założenia takie strony mają nie tylko przekazywać moc, ale także generować bezpośredni ruch stronie docelowej dzięki interesującym czytelników informacjom. Jakość tworzonych materiałów ma podobnie duże znaczenie jak miejsce publikacji.
Nawet najlepsza treść opublikowana na śmieciowym preclu nie przyniesie ruchu dla strony. A artykuł poprawny, ale nie oszałamiający na poczytnym serwisie może ściągnąć klientów. Więc ważne jest jedno i drugie. Szkoda dobrej jakościowo treści marnować na precle.
SP: Jak początkujący pozycjoner odróżni dobry serwis od zapleczowego?
J.M.: Pierwszym „sygnałem”, że serwis jest zapleczowy może być nazwa domeny, jeśli wygląda na wygenerowaną komputerowo i zupełnie nie pasuje do tematyki serwisu. Warto zwrócić uwagę na treści zawarte w serwisie, jeśli przeciętny internauta ma problemy z ich przeczytaniem – są niegramatyczne, a wręcz bełkotliwe i na dodatek wszystkie podobnej długości, to najprawdopodobniej jest to strona zapleczowa. Należy także zwrócić uwagę na linki wychodzące, jeżeli jest ich dużo i w dodatku z „money keywords”, to mamy do czynienia ze 100% zapleczem. Fora internetowe, które mają dużo bezsensownych postów z linkami i to w różnych językach nie są dobrym miejscem na pozyskanie wartościowego linka.
SP: Za co najczęściej strony dostają filtr w wyszukiwarce?
J.M.: Jeśli chodzi o Google, to filtr można dostać za samo posiadanie strony www . Ręczne filtry nałożone przez Google na strony internetowe dotyczą najczęściej linków przychodzących, a w ostatnim czasie także linków wychodzących.
Filtry algorytmiczne, czyli tak naprawdę takie, które działają automatycznie i nie mają przekazu PR-owego zwykle są nakładane za profil linków, czyli za małe zróżnicowanie nie tylko fraz, ale także typów linków.
Ogólnie Google nie radzi sobie z linkami i dlatego się ich czepia :)
SP: Jak tego uniknąć?
J.M.: Tak naprawdę to się nie da w 100% tego uniknąć. Google ma tak dużą swobodę w rozdawaniu filtrów i banów, że można dostać za przysłowiową „niewinność” czyli posiadanie strony internetowej. Należy dbać o profil linków, tak żeby się nie wyróżniał za bardzo do konkurencji i wyglądał naturalnie.
SP: Jak wyciągnąć stronę z filtra?
J.M.: Wszystko zależy od tego, za co filtr został nałożony. Ręcznie działania oraz filtry algorytmiczne były podejmowane główne ze względu na linki przychodzące. W tym wypadku badanie profilu linków jest bardzo istotne – mamy rodzimej produkcji narzędzia ułatwiające prace jak sitecondition czy seoodkurzacz.
Filtr algorytmiczny jest nakładany przeważnie za mało zróżnicowane frazy i rodzaje linków, dość łatwo z niego wyjść pozyskując nowe linki, a przez to zwiększają ich różnorodność. Warto też pozbyć się linków ze słabych, śmieciowych stron, szczególnie takich, które linkują na ważne dla nas frazy.
A co do działań ręcznych, to jeżeli są one nakładane za linki wychodzące, to trzeba je usunąć i poprosić o ponowne rozpatrzenie, a jeśli za linki przychodzące grzecznie usuwać linki jakie podają w przykładach i próbować czy przejdzie. Osobiście jestem przeciwny stosowania Disavol Tool, ale czasami trzeba go użyć aby RR był skuteczny.
|