Dzisiaj
Wcale nie jest zgodne z polityką Google, by strony o małej wartości merytorycznej znajdowały się wysoko w wynikach wyszukiwania. Wraz ze wzrostem mocy obliczeniowej można rozwijać systemy sztucznej inteligencji, które przeciwdziałają takiemu sztucznemu, z punktu widzenia wyszukiwarki podnoszenia ich pozycji w rankingu. Po pierwsze coraz lepiej można ocenić treść kontekstową konkretnej strony i to w wielu językach. Po drugie łatwiej śledzić i dużo głębiej skąd odnośniki na daną stronę przychodzą. Oczywiście firmy, które oferują usługi pozycjonowania stron, starają się przeciwdziałać „nowinkom” Google. Wiele z nich budowało przez długi czas pozycję własnych stron, które wykorzystywały następnie jako bazę do pozycjonowania portali klientów. Dziś czują, że ten zgromadzony „majątek” zaczyna tracić na wartości. Stąd wysyp „atrakcyjnych” ofert masowego umieszczania odnośników do stron. Korzystając z nich można dziś sobie bardziej zaszkodzić niż pomóc. System Google coraz lepiej rozpoznaje strony generowane automatycznie i w taki sposób wypełniane treścią, często tylko pozyskaną z innych miejsc. Coraz niżej są dziś przez Google pozycjonowane strony takie jak agregatory stron tematycznych. Głośnym echem odbiło się w branży, usuniecie z pierwszych miejsc w wynikach wyszukiwania takich serwisów jak porównywarki cen na przykład Ceneo i jej podobnych. Oczywiście można zawsze wrócić, ale jeśli zapłaci się za reklamę w Google 🙂Jaka będzie najbliższa przyszłość pozycjonowania?Sukces wyszukiwarki zależy od dostosowania jej do oczekiwań internautów. Jak wynika z badań, około 40 proc. zapytań stanowią te dotyczące ostatnich wydarzeń. Chodzi tu o dni, godziny i minuty. W praktyce jest to dla nas informacja, że system musi promować strony, na których coś się stale dzieje. Promowane są strony o unikalnej treści i związane z danym tematem. Jeśli podstrony serwisu nie
mają wiele z sobą wspólnego, to też mogą być podejrzane jako strony sztucznie przygotowane. Zachowanie standardowych informacji i zakładek takich jak na stronie firmowej, czyli na przykład: kontakt, jak na znaleźć, itp. mogą podnosić wiarygodność. Wiele stron służących do pozycjonowania ma standardowe rozmiary umieszczanych tekstów i liczby linków wewnątrz nich. Są one niechlujnie sformatowane, zawierają oczywiste błędy językowe i brak w nich elementów dodatkowych takich jak ilustracje czy filmy wideo. Zaczyna się liczyć nie tylko z jakich adresów IP wchodzą na daną stronę użytkownicy, ale czas, jaki na niej spędzają i gdzie przechodzą dalej. Dość łatwo odróżnić, czy stronę odwiedza automat, czy zainteresowany treścią człowiek. Łatwo też rozpoznać powtarzające się schematy linkowania tzw. SWL. Ostatnie filtry zastosowane przez Google (algorytm Pingwin) wskazują, że stosowane przy pozycjonowaniu linki site-wide, czyli przenoszące pomiędzy podstronami serwisu (zapewne, gdy są bardzo często używane) mogą szkodzić. Potwierdza tę obserwację wiele osób zajmujących się pozycjonowaniem. Na dziś niektórzy radzą zachowanie rozsądku w masowym dokładaniu linków do strony w krótkim czasie z serwisów o podejrzanej jakości. Wygląda na to, że również nadmiar reklam na stronie może, budzić podejrzenia w stosunku do jej wartości merytorycznej, tym bardziej, gdy są mało powiązane lub sprzeczne z tematyką. Dlatego też coraz bardziej znaczące dla pozycji strony w wyszukiwarce jest jej promowanie i odwiedziny z serwisów społecznościowych, czy takich jak YouTube lub ze zdjęciami na przykład Flickr.
Na dziś i jutro przyszłość pozycjonowania widzę w serwisach tematycznych o rzetelnej zawartości merytorycznej i często aktualizowanych.
Dopiero takie powiązane ze stronami klientów, też o odpowiednim poziomie oraz zindywidualizowanych pod względem treści i wyglądu pozwoli na skuteczne ich pozycjonowanie w dłuższym czasie. Eliminacja „śmieci” w Internecie będzie musiała prędzej czy później dojść do skutku. Dziś jesteśmy w okresie przejściowym i pewnie przez jakiś czas da się funkcjonować w starym stylu, osiągając chwilowe sukcesy i porażki. To o czym piszę to nie żadne nowe pomysły, tylko dziś technologia pozwala na coraz więcej przy analizie treści i ruchu w Internecie i to już za rozsądne pieniądze. Google tylko z tego korzysta.
Po ostatnich zmianach w systemie pozycjonowania stron można zauważyć, że Google nie „lubi” stron, które z założenia są konkurencyjne dla firmy. Chodzi tu o wszelkie serwisy informacyjne i tematyczne gromadzące odnośniki do firm związanych z daną dziedziną. Nie dziwi to, że firma chce monopolizować swoje wyniki wyszukiwania i nie zamierza promować konkurencji. Chcącym dziś wypromować w Google pozycję strony zwrócę tylko uwagę, że ostatnio Google zmniejszyło liczbę zindeksowanych stron, na przykład Panoramy Firm z 40 mln do ok 14 mln i jak to można sprawdzić wartość ta spada okresowo nawet do poziomu 600 tys. Jaki z tego wypływa wniosek na dziś? Wydaję się, patrząc na wartość zwrotu z inwestycji (ROI), że nie warto obecnie kupować miejsca i reklamować firmy w książkach i na portalu PF. Taka sama kwota zainwestowana bezpośrednio w reklamę Adwords przyniesie dużo więcej korzyści.
Jak można odpowiedzieć na tego rodzaju zmiany i tendencje? Myślę, że nie należy starać się dopasować do Google, ale do klientów odwiedzających naszą stronę. Jeśli dla nich będzie ciekawa, to też będzie atrakcyjna dla wyszukiwarki Google. Warto reklamować się na innych stronach, ale wybierając te, których zawartość merytoryczna pasuje tematycznie do naszej działalności. Można, a nawet „należy” reklamować się przez w AdWords przeznaczając na to nawet niewielkie kwoty (oficjalnie nie ma to wpływu na wyszukiwanie, to z jak wynika z wielu obserwacji, tak wcale nie jest). Największy niewykorzystany jeszcze reklamowo potencjał tkwi w serwisach społecznościowych i serwisach z filmami, bo jak pokazuje wiele badań, to właśnie w nich coraz częściej poszukuje się różnych fraz. Choć dziś Google rządzi w wyszukiwarkach, to widzieliśmy już upadki równie „wielkich” firm działających w Internecie
.