Postawa biznesu Google nie zmieniła się od początku funkcjonowania firmy – sprawnie wyszukać (Googlebot), uporządkować (PageRank) i wyświetlić w przeglądarce poszukiwane przez użytkowników treści. Na sukces wyszukiwania składa się wiele elementów. Zapewne bardzo ważne są wykorzystywane do porządkowania zawartości Internetu algorytmy, ale też możliwości wykorzystywanych do tego celu zasobów IT. Nawet taki potentat jak Google musi liczyć się z konkurencją, która chętnie ogłosiłaby, że radzi sobie z wyszukiwaniem lepiej. W tle jak zawsze są pieniądze, te, które się zarabia i te, które trzeba wydać, by się rozwijać, zachować pozycję i jeszcze więcej zarabiać. Google udaje się to bardzo dobrze. Duże pieniądze i nowe technologie pozwalają na coraz głębszą analizę danych. Ten proces musi i będzie przyspieszał.
Google Caffeine i Freshness
Dla zajmujących się pozycjonowaniem stron sporym wstrząsem było ogłoszenie w sierpniu 2009 roku nowej architektury wyszukiwania, o nazwie kodowej Google Caffeine. Chodziło o to, by wyszukiwarka działała szybciej i lepiej radziła sobie z często aktualizowanymi informacjami z usług takich jak Facebook i Twitter. W dziedzinach, w których treści się szybko dezaktualizują pozycja strony musi to uwzględniać w większym stopniu. Miały to zapewnić Google Caffeine i Google Freshness spowodowały, że pozycje stron w wynikach podlegają częstym zmianom nawet w ciągu jednego dnia, a przecież to był podstawowy wyznacznik efektywności pozycjonera z punktu widzenia klienta. W minionym roku po prowadzeniu zmian w algorytmie o nazwie „Penguin” wypadły nagle z wyników wyszukiwania takie witryny jak Banku Millennium czy operatora Play. Było to spowodowane zaliczeniem ich do witryn wprowadzających w błąd co do oferowanych treści w stosunku do nazwy domeny. To oczywiste błędy i potknięcia zastosowanego algorytmu w warunkach polskich. Jest to jednak sygnał, że zdecydowanie podejmuje się próby eliminowania portali i stron o niskiej jakości oraz wprowadzających w błąd. To kwestia też czasu i doskonalenia filtrów.Geotargetowanie
Postęp technologiczny pozwolił na wprowadzenie odniesienia wyników wyszukiwania do konkretnej lokalizacji użytkownika. W 2010 roku Google rozpoczęło prezentowanie w wyniku wyszukiwania niektórych fraz lokalnych np. „fryzjer warszawa” itp. map z zaznaczonymi firmami, usługodawcami. Obecnie również zaczęto stosować to wyróżnienie w stosunku do fraz ogólnych takich jak np. „fryzjer” czy „meble”. Wyszukiwarka wyświetla położenie użytkownika według danych uzyskanych z jego numeru IP, po jakim się łączy do sieci. Położenie, lokalizację można samemu zmienić. Takie pozycjonowanie lokalne – geotargetowanie – wyników to zupełnie nowe wyzwanie dla SEO. Dla małych lokalnych firm to okazja by pojawiać się w pierwszej dziesiątce wyników nawet przy najtrudniejszych frazach. Zapewne będzie się zwiększać dokładność, z jaką wyszukiwarka określa położenie firmy i użytkownika. Pozycjonowanie na frazy typu „fryzjer warszawa”. Trudno też ustalić rzeczywistą pozycję strony klienta, bo będzie zależała od umiejscowienia użytkownika przeglądarki. Myślę, że w obecnej formie pozycjonowanie lokalne jest tylko etapem. Słabości to fakt, że nie każdy, kto szuka danej frazy, jest zainteresowany wynikami lokalnymi, ale np. szukający niektórych usług zupełnie nie są zainteresowani wynikami spoza najbliższego otoczenia. Czeka nas etap dopracowywania algorytmów. Pojawienie się w wynikach na dobrym miejscu z dowolnej lokalizacji w Polsce wymaga osiągnięcia bardzo wysokiej pozycji. Kłopotliwe mogą być też obecnie rozliczenia typu „opłaty za efekt”, chyba że ograniczone do wyszukiwania lokalnego np. dla danego miasta.
Na zakończenie chciałbym zwrócić uwagę i zainteresować właścicieli firm chcących w Internecie reklamować swoje usługi, możliwościami jakie daje umiejętne wykorzystanie serwisów społecznościowych takich jak Twitter i Facebook oraz YouTube.