Nowe Google – kto powinien się bać? - Pozycjonowanie lokalne biznesów

Nowe Google – kto powinien się bać?

Posted by
Problemem firm działających w Internecie jest brak możliwości planowania działań na podstawie zgromadzonego doświadczenia własnego i przez inne podobne firmy. Wszyscy szukają recepty na sukces. Widać też, jak szybko od sukcesu można przejść w Internetowy niebyt lub co najwyżej wegetację. Z wielu podobnych pomysłów dzisiaj podziwiamy sukces, jaki odniosła wyszukiwarka Google, innym już tak się nie udało.
Oczywiście Google jest firmą komercyjną, która zarabia na popularności wyszukiwarki i równocześnie stara się dywersyfikować udostępnianie usługi. Dla każdej firmy działającej na rynku najważniejszy jest klient. W przypadku wyszukiwarki Google podstawą sukcesu jest użytkownik, internauta, bo tylko dzięki niemu można zaoferować inne płatne usługi klientom. Nie jest w zamierzeniu firmy promowanie „za darmo” konkurencyjnych biznesów. Użytkownicy wyszukiwarki nie są do niej w żaden sposób przywiązani. Jest to tylko narzędzie, które łatwo zmienić na inne, jeśli okazałoby się ono bardziej użyteczne do wyszukiwania wartościowych treści w Internecie. Spełnienie tego oczekiwania to być lub nie być dla Google. Ponieważ podobnych treści i stron jest w sieci bardzo dużo, to liczy się prezentacja rezultatów wyszukiwania, czyli kolejność stron na liście wynikowej. Jest ona ustalana dzięki algorytmowi PageRank firmy Google. To oficjalna wersja a wyniki dla każdej strony są podawane Google. Jednak już w 2007 roku w środowisku osób pozycjonujących strony, zaczęto wątpić czy jest to rzeczywisty wyznacznik wartości strony dla wyszukiwarki. Jak się okazuje wysoka ocena PageRank, wcale nie gwarantuje wysokich pozycji w wynikach wyszukiwania. Strony z niższymi wartościami były w wynikach umieszczane wyżej. Stąd przyjęto, że prawdziwym wyznacznikiem wartości strony jest indeks TrustRang opracowany przez Google i Yahoo który ma wspomagać w odróżnieniu stron wartościowych od spamu. Na pewno duże znaczenie ma w nim, poza takimi czynnikami jak dla PageRank, to jak długo istnieje już dana strona w Internecie, ile wartościowych linków prowadzi do strony. Taka strona z wysokim TrustRank’iem to np.: www.dmoz.org ale żeby dodać stronę do tego bezpłatnego katalogu, trzeba naprawdę mieć dużo pieniędzy …
To właśnie dobry algorytm był i jest podstawą sukcesu firmy. Ogólnie mówiąc, dotychczas oceniał on strony według popularności, jaką miały w Internecie, a podstawą była ocena słów kluczowych, jakie znajdowały się na stronie i liczby prowadzących do nich linków z zewnętrznych serwisów. Dążąc do poprawienia skuteczności, a to podstawa funkcjonowania wyszukiwarki algorytm ten jest stale doskonalony. Firmy pozycjonujące strony, starają się tak dopasować działania, żeby strony ich klientów dobrze wpisywały się w algorytm. Ogólnie strona, do której było wiele przekierowań z wielu różnych stron (również z wysoko notowanych) umieszczonych na różnych serwerach, była wysoko notowana. Nie bez przyczyny używam tu czasu przeszłego.

Dzisiaj

Fotolia 41254777 XSWcale nie jest zgodne z polityką Google, by strony o małej wartości merytorycznej znajdowały się wysoko w wynikach wyszukiwania. Wraz ze wzrostem mocy obliczeniowej można rozwijać systemy sztucznej inteligencji, które przeciwdziałają takiemu sztucznemu, z punktu widzenia wyszukiwarki podnoszenia ich pozycji w rankingu. Po pierwsze coraz lepiej można ocenić treść kontekstową konkretnej strony i to w wielu językach. Po drugie łatwiej śledzić i dużo głębiej skąd odnośniki na daną stronę przychodzą. Oczywiście firmy, które oferują usługi pozycjonowania stron, starają się przeciwdziałać „nowinkom” Google. Wiele z nich budowało przez długi czas pozycję własnych stron, które wykorzystywały następnie jako bazę do pozycjonowania portali klientów. Dziś czują, że ten zgromadzony „majątek” zaczyna tracić na wartości. Stąd wysyp „atrakcyjnych” ofert masowego umieszczania odnośników do stron. Korzystając z nich można dziś sobie bardziej zaszkodzić niż pomóc. System Google coraz lepiej rozpoznaje strony generowane automatycznie i w taki sposób wypełniane treścią, często tylko pozyskaną z innych miejsc. Coraz niżej są dziś przez Google pozycjonowane strony takie jak agregatory stron tematycznych. Głośnym echem odbiło się w branży, usuniecie z pierwszych miejsc w wynikach wyszukiwania takich serwisów jak porównywarki cen na przykład Ceneo i jej podobnych. Oczywiście można zawsze wrócić, ale jeśli zapłaci się za reklamę w Google 🙂Jaka będzie najbliższa przyszłość pozycjonowania?Fotolia 39309649 XSSukces wyszukiwarki zależy od dostosowania jej do oczekiwań internautów. Jak wynika z badań, około 40 proc. zapytań stanowią te dotyczące ostatnich wydarzeń. Chodzi tu o dni, godziny i minuty. W praktyce jest to dla nas informacja, że system musi promować strony, na których coś się stale dzieje. Promowane są strony o unikalnej treści i związane z danym tematem. Jeśli podstrony serwisu nie

mają wiele z sobą wspólnego, to też mogą być podejrzane jako strony sztucznie przygotowane. Zachowanie standardowych informacji i zakładek takich jak na stronie firmowej, czyli na przykład: kontakt, jak na znaleźć, itp. mogą podnosić wiarygodność. Wiele stron służących do pozycjonowania ma standardowe rozmiary umieszczanych tekstów i liczby linków wewnątrz nich. Są one niechlujnie sformatowane, zawierają oczywiste błędy językowe i brak w nich elementów dodatkowych takich jak ilustracje czy filmy wideo. Zaczyna się liczyć nie tylko z jakich adresów IP wchodzą na daną stronę użytkownicy, ale czas, jaki na niej spędzają i gdzie przechodzą dalej. Dość łatwo odróżnić, czy stronę odwiedza automat, czy zainteresowany treścią człowiek. Łatwo też rozpoznać powtarzające się schematy linkowania tzw. SWL. Ostatnie filtry zastosowane przez Google (algorytm Pingwin) wskazują, że stosowane przy pozycjonowaniu linki site-wide, czyli przenoszące pomiędzy podstronami serwisu (zapewne, gdy są bardzo często używane) mogą szkodzić. Potwierdza tę obserwację wiele osób zajmujących się pozycjonowaniem. Na dziś niektórzy radzą zachowanie rozsądku w masowym dokładaniu linków do strony w krótkim czasie z serwisów o podejrzanej jakości. Wygląda na to, że również nadmiar reklam na stronie może, budzić podejrzenia w stosunku do jej wartości merytorycznej, tym bardziej, gdy są mało powiązane lub sprzeczne z tematyką. Dlatego też coraz bardziej znaczące dla pozycji strony w wyszukiwarce jest jej promowanie i odwiedziny z serwisów społecznościowych, czy takich jak YouTube lub ze zdjęciami na przykład Flickr.
Na dziś i jutro przyszłość pozycjonowania widzę w serwisach tematycznych o rzetelnej zawartości merytorycznej i często aktualizowanych.
 Dopiero takie powiązane ze stronami klientów, też o odpowiednim poziomie oraz zindywidualizowanych pod względem treści i wyglądu pozwoli na skuteczne ich pozycjonowanie w dłuższym czasie. Eliminacja „śmieci” w Internecie będzie musiała prędzej czy później dojść do skutku. Dziś jesteśmy w okresie przejściowym i pewnie przez jakiś czas da się funkcjonować w starym stylu, osiągając chwilowe sukcesy i porażki. To o czym piszę to nie żadne nowe pomysły, tylko dziś technologia pozwala na coraz więcej przy analizie treści i ruchu w Internecie i to już za rozsądne pieniądze. Google tylko z tego korzysta.Fotolia 33182343 XS

Po ostatnich zmianach w systemie pozycjonowania stron można zauważyć, że Google nie „lubi” stron, które z założenia są konkurencyjne dla firmy. Chodzi tu o wszelkie serwisy informacyjne i tematyczne gromadzące odnośniki do firm związanych z daną dziedziną. Nie dziwi to, że firma chce monopolizować swoje wyniki wyszukiwania i nie zamierza promować konkurencji. Chcącym dziś wypromować w Google pozycję strony zwrócę tylko uwagę, że ostatnio Google zmniejszyło liczbę zindeksowanych stron, na przykład Panoramy Firm z 40 mln do ok 14 mln i jak to można sprawdzić wartość ta spada okresowo nawet do poziomu 600 tys. Jaki z tego wypływa wniosek na dziś? Wydaję się, patrząc na wartość zwrotu z inwestycji (ROI), że nie warto obecnie kupować miejsca i reklamować firmy w książkach i na portalu PF. Taka sama kwota zainwestowana bezpośrednio w reklamę Adwords przyniesie dużo więcej korzyści.

Jak można odpowiedzieć na tego rodzaju zmiany i tendencje? Myślę, że nie należy starać się dopasować do Google, ale do klientów odwiedzających naszą stronę. Jeśli dla nich będzie ciekawa, to też będzie atrakcyjna dla wyszukiwarki Google. Warto reklamować się na innych stronach, ale wybierając te, których zawartość merytoryczna pasuje tematycznie do naszej działalności. Można, a nawet „należy” reklamować się przez w AdWords przeznaczając na to nawet niewielkie kwoty (oficjalnie nie ma to wpływu na wyszukiwanie, to z jak wynika z wielu obserwacji, tak wcale nie jest). Największy niewykorzystany jeszcze reklamowo potencjał tkwi w serwisach społecznościowych i serwisach z filmami, bo jak pokazuje wiele badań, to właśnie w nich coraz częściej poszukuje się różnych fraz. Choć dziś Google rządzi w wyszukiwarkach, to widzieliśmy już upadki równie „wielkich” firm działających w Internecie
.

Nie dodano jeszcze komentarza.

Dodaj komentarz

You must be logged in aby dodać komentarz.