Google znowu dokonało zmian w swoim algorytmie. Niczym Łowca Androidów ma na celu wyłapywanie i usuwanie nieludzkich tworów. Mówiąc mniej w stylu science-fiction, Google chcąc zapobiec spamerskiemu pozycjonowaniu stron -ma teraz skuteczniej rozpoznawać teksty generowane przez specjalne programy od tekstów „prawdziwych” stworzonych przez człowieka. W internecie już zawrzało. Zajmujący się nieuczciwym pozycjonowaniem „specjaliści” będą teraz mieli znacznie więcej roboty. Mnie ta zmiana raczej cieszy. Dlaczego? Cieszy mnie, że dzięki temu wzrośnie wartość tekstów napisanych uczciwie. Uważam, że wypozycjonowanie strony jest trwalsze i lepsze jeżeli jest oparte na dobrym merytorycznym przygotowaniu, na zawarciu na stronie dużej ilości ciekawych i przydatnych informacji. Witryny wypełnione dobrze napisanymi artykułami budzi większe zaufanie. Czy oznacza to początek końca firm zajmujących się pozycjonowaniem i podnoszeniem popularności stron? NIE!! Nowe algorytmy uderzają przede wszystkim w strony korzystające z SWL, przeładowane słowami kluczowymi, czy też za „bardzo zoptymalizowane”. Tworzenie, a właściwie kopiowanie i generowanie linków i tekstów – to będzie zakazane. Na znaczeniu zyskują teraz „białe” metody. Uczciwe opisywanie stron, uzupełnianie ich o przydatne informacje, pisanie artykułów, branie udziału w dyskusjach, tworzenie fanopage’ów na fejsbuku… Ludzka promocja górą! Śmierć maszynom! 🙂
Cytat z oficjalnej strony: Official Google Webmaster Central Blog
„The change will go live for all languages at the same time. For context, the initial Panda change affected about 12% of queries to a significant degree; this algorithm affects about 3.1% of queries in English to a degree that a regular user might notice. The change affects roughly 3% of queries in languages such as German, Chinese, and Arabic, but the impact is higher in more heavily-spammed languages. For example, 5% of Polish queries change to a degree that a regular user might notice.”