Od początku funkcjonowania Intenetu i stron WWW linki były podstawowym elementem nowego sposobu budowania i prezentowania treści. Do interesujących treści dużo odnośników z innych stron – wniosek dla Google ta strona jest wartościowa i powinna być wysoko w wynikach wyszukiwania. Dla SEO dużo odnośników z własnej bazy do stron klientów. W odpowiedzi Google wprowadza coraz to „lepsze” algorytmy próbujące oceniać rzeczywistą popularność, czyli wartość strony. W efekcie na strony zakładane są masowo filtry co „dramatycznie” przekłada się na statystyki strony. Potrafią spaść z kilkuset do poziomu kilkunastu wejść dziennie. Oczywiście, jeśli uderza to w osoby niestosujące w pozycjonowaniu żadnych zasad (zalecanych przez Google), to jest to ich ryzyko, ale jak to czasem bywa łatwo przy okazji „wylać dziecko z kąpielą”.
Google rozsyła od czasu do czasu wiadomości do wybranych stron internetowych, informując właścicieli o nienaturalnych linkach prowadzących do ich witryn. Problemem, z którego firma zresztą zdaje sobie sprawę, jest możliwość, że do strony odsyłają linki umieszczone na zaspamowanych witrynach. Jak poleca Google, jeśli strona spełnia zalecenia Google dla webmasterów, to należy zgłosić ją do ponownego rozpatrzenia. Gdy wprowadzono poprawki na stronie, trzeba poinformować, co zostało zrobione. Jeśli interwencja w stosunku do strony została podjęta „ręcznie” powinno nastąpić zdjęcie filtra. W przypadku spadku pozycji strony może to być spowodowane zmianami w algorytmie. Wtedy na zadane pytanie można otrzymać odpowiedź z Google, że nie podjęto działań w stosunku do strony.
Google od dawna podkreśla, że jest przeciwna handlowaniu linkami z wyjątkiem, gdy linki nie przekazują PR (dodany atrybut nofollow). Na forach związanych z SEO wiele osób zwraca uwagę, że na przykład linki z SWL’i są często umieszczane w stopkach stron i zupełnie nie mają nic wspólnego z tematyką samej strony (inna sprawa, czy istnieje coś takiego jak tematyczność strony??) i nie muszą być kupione jak to zazwyczaj sugeruje Google.
Na chwilę obecną radzi się po pierwsze dbać o jakość zaplecza pozycjonerskiego oraz zmienić sposób linkowania. Wiele osób zajmujących się pozycjonowaniem uważa, że do osiągnięcia TOP10 potrzeba było co najmniej 30-70% linków typu „Match Anchor” (linki wewnętrzne) a po updacie algorytmu „Pingwin” ma to być już tylko maksymalnie 10%. To oczywiście domysły i spekulacje. Niewątpliwie będzie coraz bardziej liczyła jakość merytoryczna zaplecza i jego zgodność z tematyką pozycjonowanych serwisów.
W wielu komentarzach w sieci zaleca się, by nie reagować nadmiernie na zmiany pozycji stron w wyszukiwarce. Może to być sygnałem dla Google, że dana strona jest sztucznie pozycjonowana. To również pomoc dla Google w doskonaleniu i dalszym modyfikowaniu algorytmu. W opisie patentowym algorytmu Google, podaje się, że firma może wprowadzać zaskakujące spamerów zmiany w rankingu strony po to, by utrudnić rozpoznanie wpływu wprowadzanych na stronie zmian na jej przyszły poziom w rankingu. Również zastosowane metody mogą poprzez obserwowanie reakcji spamerów pozwalać na identyfikację dokumentów, które są aktywnie zmieniane. To ma również pomagać w identyfikacji spamerów (czytaj ich zaplecza).
Google 5 stycznia 2010 zgłosiło w amerykańskim urzędzie patentowym patent opisujący zasady rankingu dokumentów tekstowych. Opisane w nim procedury mają eliminować takie praktyki „spamerskie” jak:
upychanie słów kluczowych,
niewidoczny tekst,
bardzo drobny tekst,
przekierowanie stron,
spamowanie znaczników META słowami kluczowymi „META TAG Stuffing”
manipulacje linkami.