Pozycjonowanie z innego punktu widzenia

elgooG

Kończą się czasy, w których 'byle dzieciak z spamiarką qlWeb'ów' mógł konkurować w wyszukiwarkach z dobrze przygotowanymi serwisami. Google powoli wprowadza zmiany - wyniki wyszukiwań mają prezentować tylko wartościowe strony z punktu widzenia użytkownika, nie webmastera. Zmiany te wywołały burzę wśród osób pozycjonujących swoje strony starymi i sprawdzonymi metodami.
... metodami, które 'nagle' okazały się nieskuteczne.To dopiero początek zmian jakie szykuje najpopularniejsza wyszukiwarka.

Ale o co chodzi?
Aby wypozycjonować stronę na określone słowa kluczowe, wystarczyło (oprócz optymalizacji strony) zdobywać linki zawierające odpowiednie słowa kluczowe. Linki mogły znajdować się w niezwiązanych tematycznie katalogach, blogach, top listach i innych rodzajach stron. Liczyła się tylko ilość i PageRank linków.
Teraz Google oficjalnie powiedziało "Koniec":

[...] Google dąży do zlikwidowania wpływu masowej wymiany linków tematycznie rozbieżnych oraz linków zakupionych. Odnosi się to również do zautomatyzowanych systemów wymiany linków.
(via 'Official Google Webmaster Central Blog')

Dopisz do listy technik zakazanych: "Wymiana linków i katalogowanie"

[...] Tego typu linki nie stanowią żadnej wartości informacyjnej dla osób odwiedzających i są postrzegane jako nieetyczna metoda SEO, podobnie jak ukryty tekst.
(via 'Official Google Webmaster Central Blog')

Link za link - strona o związana z budownictwem linkuje do Twojej strony o ...

'Wymiana linków nietematyczna' - to zjawisko obecnie naturalne. Możesz powiedzieć: "przecież każdy może się wymienić linkiem, Google mi tego zabronić nie może" - tak, będziesz mieć rację. Możesz się wymienić linkiem, Google Ci tego nie zabroni - Google po prostu Twój link zignoruje, przecież może to zrobić.

- Czy ukrywałbyś tekst na swojej stronie za pomocą CSS'a, JS, gdyby wyszukiwarki nie istniały?
- Czy wymieniałbyś się linkami z stronami nietematycznymi, dodawał swoją stronę do katalogów, gdyby wyszukiwarki nie istniały?

Znajdź podobieństwo w tych dwóch pytaniach? Ukryty tekst nie ma żadnego znaczenia dla odwiedzających Twoją stronę, jednak ma znaczenie dla Twojej strony w indeksie Google. Tak samo nie ma żadnego znaczenia kilka(set) linków rozproszonych w Internecie, które generują skrajnie niską ilość odwiedzin zabłąkanych botów. Jednak zdobywasz te 'nic nie warte' linki, mając nadzieję na oszukanie algorytmów wyszukiwarek.

Taki gigant jak Google nie może sobie pozwolić na to, aby wynikami wyszukiwań mógł sterować każdy webmaster poprzez spamowanie Internetu. Google chce pokazywać użytkownikom tylko te strony, które będą stanowiły dla nich argument przemawiający za tym, że Google jest wyszukiwarką która potrafi dostarczyć tylko istotne informacje.

Wymiana linków jest już nieskuteczna?
Webmasterzy wymieniając się linkami najczęściej umieszczają je w dolej części witryny, która nie stanowi dla odwiedzających szczególnej wartości. Google potrafi już rozpoznać takie 'sztuczki' webmasterów i linki ignoruje (nie wiadomo jeszcze w jakim stopniu). Oczywiście miejsce na stronie w którym znajdują się opisywane linki nie ma znaczenia.
W praktyce oznacza to, że niezliczona ilość osób pozycjonujących swoje strony liczy na takie same efekty wymiany linków, jakie można było uzyskać dawniej.

Należy pamiętać, że nasze algorytmy rozróżniają linki naturalne od nienaturalnych. Linki naturalne do Twojej witryny powstają w sieci, gdy inne witryny uznają treść Twojej witryny za przydatną dla ich użytkowników. Linki nienaturalne są umieszczane w witrynach po to, by Twoja witryna wydała się popularniejsza wyszukiwarkom.
[...]
Tylko naturalne linki są przydatne do celów indeksowania i wyznaczania rankingu witryn.
(via 'Centrum pomocy dla webmasterów')

Zmiany są wprowadzane stopniowo.
Zmiany już potrafimy sami zauważyć, niektóre rodzaje linków straciły już swoją wartość i przyczyniły się do spadku wybranych witryn w wynikach wyszukiwań Google. W Internecie w społecznościach pozycjonerów trwa dyskusja nad skutkami spadku wartości katalogów. Mało osób zauważyło, że linki 'w stopkach' (z wymiany linków) również stają się coraz mniej istotne przy ustalaniu wartości naszej witryny przez Google. Wszystkie zmiany są wprowadzane stopniowo, linki z katalogów straciły część swojej wartości już w tamtym roku (!).

Znaki od Google.
Wpisując w pole wyszukiwań Google:

link:www.strona.pl

otrzymamy listę linków prowadzących do naszej strony. Webmasterzy odrzucili ten sposób sprawdzania, uznając go za bezwartościowy, ze względu na brak możliwości wylistowania wszystkich dostępnych linków prowadzących do danej witryny.

Obserwując (kilka miesięcy temu) zmiany wyników otrzymywanych poprzez użycie 'link:adres', zauważyłem ciekawą rzecz: nagle z wynikach przestały sie pojawiać linki do katalogów stron. Później zauważyłem spadek wejść na moje strony poprzez Google z użyciem pozycjonowanych fraz jako zapytań. Naturalnie powiązałem ze sobą oba te zdarzenia.

Sprawę opisałem na jednym z forów, w temacie związanym z Google - podsumowano mnie tak: "Gadasz głupoty". Sprawa ucichła i o niej zapomniałem. Teraz o moich 'głupotach' napisano na oficjalnym blogu Google. Inną ciekawą rzeczą z związaną z 'link:adres', jest zniknięcie adresów stron, na których był umieszczony link do danej witryny razem z innymi linkami pozycjonującymi (z wymiany linków).
Oczywiście stosując 'link:adres' często możemy natrafić na adresy katalogów - świadczy to o tym, że algorytmy Google nie są jeszcze należycie dopracowane.

Czy Google walczy z Webmasterami?
Ograniczenia Google mają na celu wyrównanie szans dla każdego webmastera - 'zrób dobrą stronę to Cię wynagrodzimy'. Firmy prześcigają się w pozycjonowaniu swoich stron pod konkretne frazy, poświęcają na to naprawdę dużą ilość pieniędzy i wkładu czasu. Nikt nie dostrzega jednak możliwości istnienia firmy docenianej (linkowanej) przez Internautów. Będzie ona zdobywała tylko naturalne linki, jednak firma ta zostanie 'zagłuszona' przez inne firmy, które nie zdobyły uznania Internatów, lecz swoją pozycję wywalczyły jedynie zdobywaniem linków nienaturalnych (zakupionych).

Można powiedzieć, że każdy ma prawo się reklamować się jak tylko chce, takie są prawa marketingu. Czy jednak wyszukiwarka Google ma stać się 'komercyjną listą stron posiadających najbogatszych właścicieli'? Na razie tego problemu nie zauważamy. Nie zdajemy sobie sprawy z tego, że korzystając z Google nieświadomie klikamy na 'linki sponsorowane', sprytnie wplecione między inne linki przez pozycjonerów.

Wyobraźmy sobie taką sytuację:
Google wprowadza nową usługę o nazwie 'SMS Rank' - za pomocą SMS'a za jedyne 10zł + Vat możemy podnieść swoją stronę w wynikach wyszukiwania o jedną pozycję na dane słowo kluczowe. Ludzie zaczynają wysyłać SMS'y, strony bogatszych właścicieli bez trudu zdobywają pierwsze miejsca w wynikach. Strony osób mniej zamożnych, tworzących swoje strony z czystej pasji, mających ciekawe hobby, lub chcących po prostu podzielić się swoją wiedzą, znajdują się na odległych pozycjach mimo uznania przez społeczeństwo Internautów.

Przykład jest trochę dziwny, jednak oddaje obecną sytuację próby skomercjalizowania wyników wyszukiwania Google przez pewną część webmasterów.Czy korzystałbyś z Google, gdybyś wiedział, że każdą pozycję w Google można kupić? Obecnie jest to możliwe - Google chce to zmienić, ale Ty się na to nie godzisz ...

Komentarze 52:

  • » Geocontext: 15.04.2007 o 23:38

    "Czy ukrywałbyś tekst na swojej stronie za pomocą CSS'a, JS, gdyby wyszukiwarki nie istniały?" - Tak, urywanie jest wskazane przy budowaniu nowoczesnych stron pod różne przeglądarki (nie wyszukiwarki). Oczywiście ukrywanie tekstu dla wypozycjonowania w wyszukiwarkach uważam za nieetyczne.

  • » Mendax: 16.04.2007 o 00:55

    Bez obrazy, ale pierdoly, Kolego, piszesz!
    wszystkie te wpisy na blogach Webmaster Central, czy Cuttsa to proba przestraszenia wlasnie takich pseudo-pozycjonero (pokemonow), poslugujacych sie qlweb-adderami. pokazania, ze hoho-wielki googiel jest WIELKI i bedzie wam mowil jak sie macie zachowywac. najpierw zaczal ustalanie rankingu na podstawie linkow, a teraz sie z tego wycofuje.
    zreszta, sa metody, zeby nawet przy pomocy tylko qlwebow wybic sie dosc wysoko w SERP-ach
    ale coz... w gruncie rzeczy nawet dobrze: pokemony sie przestrasza -> mniejsza konkurencja -> wyzsze ceny wezma profesjonalni spame... pozycjonerzy:)

    a to ze zdobywaniem "linkow naturalnych" to jest smieszne! w jaki niby sposob mialby zdobywac je np. producent srub? ile jest na przyklad blogow(na ktorych googiel radzi zdobywac "naturalne linki") poswieconych roznym rodzajom srubek?

  • » Look: 16.04.2007 o 09:43

    Jeżeli powstanie taki algorytm to i tak będzie masa błędów w działaniu. Faktem jest natomiast, że coś pewnie się zmieni - tylko że pojawią się także nowe techniki pozycjonowania. Przecież mechanizm backlinków, page rank pojawił się też właśnie po to, żeby docenić ważne, linkowane strony.

  • » Sf: 16.04.2007 o 13:35

    Jak najbardziej google powinno trochę zamieszać i ukrócić katalogi :P

  • » Adriano: 16.04.2007 o 13:37

    Geocontext, głównie chodziło mi o ukrywaniu tekstu (z słowami kluczowymi) specjalnie dla wyszukiwarek.

    Mendax, może pisze, jak to określiłeś 'pierdoły' ;) Ale wytłumacz mi w takim razie co jest przyczyną zmianw Google, zauważonych już przez dużą ilość osób które również o tych 'pierdołach' zaczęły pisać?

    Cytat: "a to ze zdobywaniem "linkow naturalnych" to jest smieszne! w jaki niby sposob mialby zdobywac je np. producent srub?"
    Czy producent śrub musi mieć PR=5 i 2tys backlink'ów, aby konkurować z innymi firmami w Google pod określone frazy?
    Mendax, właśnie w ten przypadek (z producentami śrub) jest doskonałym przykładem na to, że Google musi wprowadzać zmiany w algorytmach - jeden z producentów wyda 10tys zł na pozycjonowanie i będzie miał 'gdzieś' pozostałych? Komercjalizacja Google ...

    Cytat: "najpierw zaczal ustalanie rankingu na podstawie linkow, a teraz sie z tego wycofuje. "
    Nie wycofuje, tylko modyfikuje rozwiązanie które do 'epoki masowego pozycjonowania' stanowiły podstawę do wyznaczenia rzeczywistej wartości strony. Rozwiązania te doskonale się sprawdzały. Teraz każdy może sztucznie zawyżać wartość stron - Google chce temu przeciwdziałać poprzez filtrację linków.

  • » Bartecki: 16.04.2007 o 14:33

    Fajnie wygląda odwrócone logo Google, powinni tak na stronie głównej zrobić :)
    Ogólnie ciekawy wpis

  • » Bullseye: 16.04.2007 o 14:45

    Klaszczę rękami i nogami, teraz wreszcie będzie można walczyć wartościową treścią, ale czy na pewno? czy nie wydaje się Wam, że nadal będą funkcjonować zaplecza (nie oparte na popularnych skryptach typu qlweb, czy wordpress), które będą wykorzystywane do "pozorowania" naturalnych linków?

    Myślę, że teraz po prostu gra będzie nieco bardziej pracochłonna, ale i o większą stawkę... wg mnie nie da się stworzyć idealnego algorytmu, który w sposób automatyczny mógłby wycinać wszelkie "nieetyczne" czy inaczej, jakiekolwiek metody. Jeśli wyszukiwarka działa w jakiś sposób, należy jedynie poznać w jaki. I po sprawie. QLWEBY wycięte? no i co, pewnie powstaną kolejne "wersje" z tego co widzę już powstają... Takie, których google nie rozpozna...

    Ja bym wolał, aby jedynie treść była brana pod uwagę. Ale o zgrozo, co nas czeka, jeśli wszystkie czołowe pozycje w google przejmie onet, wp, interia i gazeta.pl ... :

  • » Vj_: 16.04.2007 o 15:07

    Tego typu tematyke staram się śledzić już jakiś czas z większym lub mniejszym zaangażowaniem, z racji braku czasu. Artykuł zawiera sporo prawdy (np. z tymi tekstami ukrytymi), ale też sporo niedomówień, nie można tak jednoznacznie powiedzieć: qlWeb jest ble, linki na dole 'nie działają' i tak dalej. Google to morze możliwości, zależy jak kto umie pływać i jaką falę złapie, tak też i mu się udaje mu żaglować. Jak dla mnie są dobre i złe metody korzystania z takich 'dobrodziejstw' jak katalogi, ale suma sumarum wiele z nich to zwykłe śmietniki, niedopracowane, niepoindeksowane i praktycznie nieużyteczne z SEO punktu widzenia.

  • » Igos: 16.04.2007 o 16:09

    Hmm.. podsumowując: głupota. Przykro mi to stwierdzić, ale mieszanina alterglobalizmu z pacyfistami i inną zarazą nie pasuje do koncepcji internetu przyszłości.
    Oczywiście, że niektórzy naginają regulaminy i spamują wyszukiwarki linkami.
    Jednak z drugiej strony, jeśli ktoś wydaje pieniądze i czas na wypozycjonowanie jakiejś strony, to znaczy, że nie porzuci jej od tak, tylko będzie o nią dbać i usprawniać.
    Jeśli to tylko mechanizm googla miał oceniać strony, to kiepsko by było.
    Internet przestał by się rozwijać tak dynamicznie. Przeprowadziłem pewien eksperyment: dwie strony o podobnej domenie z identyczną zawartością. (moje wypracowania z 6 lat nauki gimnazjum i liceum [czyli fullof textu]), jak się domyślacie jedna była pozycjonowana, a druga nie. Po 4 miesiącach sprawdziłem wyniki, okazało się, że strona nie pozycjonowana była całkowicie zignorowana przez googla.
    Co z tego wynika?
    Jeśli nie można pozycjonować przez katalogi i wymianę linków, to znajdzie się jakiś inny sposób.

  • » M00: 16.04.2007 o 17:05

    "Sprawę opisałem na jednym z for" - na jednym z forów, a nie for.

  • » Diwi: 16.04.2007 o 17:08

    Oj uwierz mi wiele z tych głupot wypisywanych przez Google jest skierowana do pozycjonerów, aby ich po prostu przestraszyć.

    QlWeby wcale nie straciły mocy tylko trzeba umieć wykorzystać ich potencjał, i nie pytaj mnie jak bo sposób jest bardzo prosty, myśl myśl myśl.

    A jeśli chodzi o rozpoznawanie czy link jest naturalny, czy z wymiany, czy ze sprzedaży to największa głupota jaką możnabyło napisać, żaden algorytm nigdy nie będzie potrafił wykryć rodzaju linku.

  • » Adriano: 16.04.2007 o 17:28

    M00, dzięki - poprawione

    Diwi, co do rozpoznawania linków naturalnych: żaden algorytm?

    Bardzo prosty przykład:
    - strona A linkuje do B
    - strona B linkuje do A
    - strony A i B nie są powiązane tematycznie
    = rezultat: linki pojawiły się, aby wypozycjonować obie strony.

    Trochę trudniejszy przykład:
    - strona A linkuje do stron B, C, D, E
    - strona A ma PR=2
    - strony B, C, D, E mają PR=2, lub PR>2
    - wszystkie strony nie są powiązane tematycznie
    = rezultat: linki pojawiły się na stronie A, aby pozycjonować strony B, C, D, E.

    Czy stworzenie algorytmu który będzie potrafił rozpoznawać takie i podobne przypadki jest rzeczą niemożliwą?

  • » Uzytkownik: 16.04.2007 o 19:24

    @Adriano:
    Heurystyka albo rozuminie języka naturalnego?

  • » Łukasz: 16.04.2007 o 19:25

    Znając życie pozycjonerzy i tak znajdą kolejne metody wypromowania swoich stron w serp-ach.

  • » Adriano: 16.04.2007 o 19:28

    Dla koderów z Google stworzenie takiego algorytmu nie jest problemem (już istnieje).

  • » Mendax: 16.04.2007 o 21:53

    Adriano,
    "może pisze, jak to określiłeś 'pierdoły' ;) Ale wytłumacz mi w takim razie co jest przyczyną zmianw Google, zauważonych już przez dużą ilość osób które również o tych 'pierdołach' zaczęły pisać?"
    nie wiem, co jest przyczyna, nie mam pojecia, co chce przez to osiagnac googiel; byc moze wyeliminowanie/przestraszenie drobnicy pozycjonerskiej. z mojego punktu widzenia to tylko bicie piany - maja rzekomo eliminowac qlweby i linki w stopkach, ale jakos jeszcze im sie to nie udalo. zreszta, znajda sie inne metody. a jesli chca, zeby denuncjowac strony zawierajace platne linki, to przepraszam, ale wlasnie powinienem zglosic jako spam sama strone google.com (posiadaja system adwords, nieprawdaz?)


    "Czy producent śrub musi mieć PR=5 i 2tys backlink'ów, aby konkurować z innymi firmami w Google pod określone frazy?"
    skoro za glowny czynnik wartosciujacy strony w googielu przyjeto ilosc BL-i, to tak! algorytm ten poczatkowo przeciez byl odzwierciedleniem pisania prac w srodowiskach naukowych. oczywiste jest, ze np. prace z zakresu archeologii moga zawierac odnosniki do prac powiedzmy z matematyki. a przekladajac to na strony internetowe: prowadze strone o motorach, i przy tworzeniu korzystalem z ubuntu, jesli teraz zamieszcze link do strony ubuntu, to wg googiela to jest SPAM! takie jest teraz stanowisko googiela, co mnie wydaje sie conajmniej smieszne...


    "Google musi wprowadzać zmiany w algorytmach - jeden z producentów wyda 10tys zł na pozycjonowanie i będzie miał 'gdzieś' pozostałych?"
    hehe, teraz bedzie musial wydac 20k zl lub skorzystac z AdWords. nie sadzisz chyba, Kolego, ze pozycjonowanie linkami zniknie i bedzie sie liczyc tresc?

    zrozum Kolego, ze googiel jest tak dobra w tej chwili wyszukiwarka (albo inaczej: nie ma w tej chwili lepszej), dzieki pozycjonerom. walczac o pozycje staramy sie tworzyc jak najlepsze strony, ktore zainteresuja uzyszkodnikow. przy okazji, owszem, powstaje czesto sporo spamu, ale ogolny bilans jest dodatni.

    w kwesti przykladow linkowania, ktore Kolega podal: a) nie linkuje sie wzajemnie, NIGDY, b) zaplecza SA "powiazane tematyczne"...

    i jeszcze jedno: zdefiniuj, prosze dokladnie co to znaczy "powiazane tematycznie strony". tylko nie korzystaj z formulek w rodzaju "strony o takim samym temacie".

  • » Adriano: 16.04.2007 o 22:53

    > "skoro za glowny czynnik wartosciujacy strony w googielu przyjeto ilosc BL-i, to tak!"
    > Przyjęto aby określić rzeczywistą wartość strony, webmasterzy to wykorzystali w niewłaściwym celu.

    > "prowadze strone o motorach, i przy tworzeniu korzystalem z ubuntu, jesli teraz zamieszcze link do strony ubuntu, to wg googiela to jest SPAM! takie jest teraz stanowisko googiela, co mnie wydaje sie conajmniej smieszne... "
    > Ja nazwał bym to 'nadinterpretacją' - słowo pisane można odebrać na różne sposoby. W tekście w którym określenie 'spam' padło w odniesieniu do linków nietematycznych, chodziło wyłącznie o przypadek linkowania tylko dla wyszukiwarek, w celu podniesienia pozycji w SERP'ach (interpretacja na podstawie całości omawianego artykułu).

    Gdy umieścisz link do Ubuntu, Google nie ukaże strony Ubuntu.com, ani Twojej strony za link 'nietematyczny' - Google uzna ten link jako 'nie określający wartości docelowej strony'. Czy taki link będzie cokolwiek warty? Algorytmy Google nie są otwarte dla webmasterów - wnioski można wyciągnąć tylko na podstawie obserwacji ...

    > "hehe, teraz bedzie musial wydac 20k zl lub skorzystac z AdWords."
    > Tak. Jeżeli Google pozbawi webmastera możliwości skorzystania z usług pozycjonerskich (chociaż częściowo), to pozostanie mu tylko AdWords.
    Mamy do czynienia z dwoma celami Google:
    - oczyszczenie wyników wyszukiwania z stron które nie powinny się znaleźć na niektórych pozycjach
    - zwiększenie wpływów z reklamy AdWords (bo jakoś do Internatów trzeba dotrzeć)

    > "zrozum Kolego, ze googiel jest tak dobra w tej chwili wyszukiwarka (albo inaczej: nie ma w tej chwili lepszej), dzieki pozycjonerom. walczac o pozycje staramy sie tworzyc jak najlepsze strony, ktore zainteresuja uzyszkodnikow."
    > Załóżmy, że nagle wszyscy przestają pozycjonować swoje strony poprzez katalogowanie, wymianę linków itp - w Sieci pojawiają się tylko linki naturalne, związane z codzienną egzystencją Internautów (linkuje, bo chce coś komuś pokazać).
    Ludzie zaczynają się wówczas skupiać nad swoimi stronami, nad tworzeniem wartościowej zawartości. Wyniki w Google się stabilizują, pierwsze wyniki na dane słowa kluczowe wskazują na strony które zostały przez Internautów najbardziej docenione.
    W takiej sytuacji osoby tworzące 'marne' strony nie miałyby szans, na przebicie się na pierwsze pozycje w SERP'ach. Osoby korzystające z Google otrzymywałyby tylko najwartościowsze strony.

    Oczywiście taka wyidealizowana rzeczywistość nie będzie miała miejsca, bo liczy się pieniądz zdobyty jakimikolwiek metodami.

    Mamy do czynienia z konfliktem interesów:
    Webmasterzy <-> Google

    Google chce przynajmniej częściowo ograniczyć ten niekontrolowany 'wyścig szczurów'.

    > "nie sadzisz chyba, Kolego, ze pozycjonowanie linkami zniknie i bedzie sie liczyc tresc? "
    > Pozycjonowanie linkami nie zniknie, gdyby tak się stało ludzie zaczęliby zdobywać 'treść' nie wiadomo jakimi metodami (to spowodowałoby jeszcze większe zachwianie w SERP'ach).

    > "zdefiniuj, prosze dokladnie co to znaczy "powiazane tematycznie strony". tylko nie korzystaj z formulek w rodzaju "strony o takim samym temacie"."
    > Najprościej można powiedzieć 'strony o takiej samej tematyce' ;) Oczywiście wiąże sie to z występowaniem na danych stronach określonych słów, oraz słów powiązanych z nimi związkami znaczeniowymi.

  • » Winhelp: 04.05.2007 o 12:18

    To dobra wiadomość dla webmasterów którzy starają się o dobrą treść na swoich witrynach, teraz nie muszą bawić się w katalogi :)

  • » Procek: 24.05.2007 o 17:37

    Kto na tym traci? Małe serwisy... np. mój :/ Już się pozbyłem linków i oglądalności... Ach te google :(

  • » Albi: 29.07.2007 o 22:32

    Dobre podsumowanie całego SEO :D

  • » Joseph: 29.07.2007 o 22:58

    Ten artykuł to zwykła (używając nowoczesnego języka) ściema
    Google zawsze opierało się , opiera się i będzie się opierać o linki. QlWeby szlag trafił - prawda , ale nie ma sie czemu dziwić - z momentem udostępnienia dodawarek katalogi zostały zaspamowane viagrami i innymi śmieciami - i tylko to jest powodem upadku QLwebów .

    Poza tym na dzień dzisiejszy nie istnieją narzędzia (algorytmy) pozwalające określić wartość merytoryczną contentu strony . Nie da się automatycznie stwierdzić (tylko na bazie txt) ze ta strona to śmietnik a tamta nie .
    Jeśli google chce coś takiego zrobić to będzie musiało zatrudnić parę hektarów chińczyków (teoria paragraf 31 )

    Jedyne co panowie z google mogą spłodzić to algorytm sprawdzający kto do naszej strony linkuje , i obniżać wartość strony ( to sie zwie TrustRank) jeśli linkują do nas strony z np. viagrą w treści (obecnie większość katalogów qlweb)

    Następna sprawa - systemy wymiany linków - od strony generowanego kodu HTML też nie da się stwierdzić czy dany link jest z systemu wymiany czy tez nie .

    No i jak to ktoś wspomniał już pozycjonowanie to nic innego jak wyścig zbrojeń :)
    przykładem mogą być precle - pomysł na nie pojawił się już dużo wcześniej przed tym niż padły qlweby , a z preclami google tak łatwo sbie już nie poradzi ...

  • » Htsz: 16.08.2007 o 01:57

    Hmm... strony linkujące do google nie są powiązane z nią tematycznie, czy w takim razie nie będą brane pod uwagę, page rank google spadnie i jego pozycja na jego własną frazę także :> ? phyhyhy wesoło ;) ja się nie boję, przez 3 lata nie używałem katalogów i systemów i udało mi siębyć w top 3 google oraz osiągnąć pr5 ;)

  • » Róża: 27.09.2007 o 11:07

    Artykuł bardzo ciekawy ma Pan rację większość stron jest pozycjonowana nieetycznie, a właściciele płacą grube pieniądze aby ich strona była pierwsza w wynikach wyszukiwania.
    Pozycjonowanie to trudna sprawa ale się opłaca jeśli wkładamy w to dużo pracy.

  • » jakubj1975: 25.01.2008 o 17:38

    Trochę dziwne i wygląda jakby G miało się za ostatniego sprawiedliwego i jedynie słusznego. Ja prowadzę własną stronę na której oferuję własne usługiz zakresu sprzątania - niby kto doda do takiej strony "linki naturalne", kółko gospodyń wiejskich??
    A jednak sporo osób szuka takich informacji w sieci. To jak mam do nich dotrzeć. Wygląda że G robi wszystko żeby utrudnić darmową reklamę za pomocą wyszukiwarki. Jak chcesz mieć wejścia na swoją stronę to zapłać:za adwords, albo w jakimś portalu, ale nie darmowym, może pf a MY wieeelkie G jakoś sobie z nich ściągniemy to co przecierz nam się należy. Eeeh.

  • » Nobleman: 15.02.2008 o 14:43

    No dobra a są jednak cały czas firmy, które pozycjonuja serwisy bez ingerencji w kod strony na dane słowo lub fraze i obiecuja ze nie zostaniemy zbanowani. Wiec jakos sie jednak da i w dodatku "bezpiecznie" podobno.

  • » Prez: 25.06.2008 o 22:19

    Zgadzam się z przedmówcami.
    Moim zdaniem to trochę panoszenie się monopolisty, że G narzuca do kogo powinno się dawać linki i jakie, a do kogo nie.

  • » Mati: 05.07.2008 o 23:08

    Google wyjątkowo chce uprzykrzyć życiee..

  • » Pozycjonowanie: 08.12.2008 o 16:02

    Myślę że internet się już tak zaśmiecił że google będzie dawać bany częściej, ja dostałem chyba bana (bo to chyba ban) jak byłem zindeksowany a teraz już nie ma mnie w indeksie dla strony [spam], na stronie nic złego nie zrobiłem jedynie za co mogłem dostać bana tak się mi wydaje to umieszczenie kopi Wikipedii w katalogu na tej domenie. Ale czy za to google już daje bany dla całej domeny a nie tylko dla tego katalogu ?? Jak tak to lepiej opierać swoje wynalazki na sub domenach bo sub domena zbanowana to zawsze tylko sub domena a nie cała strona

  • » procek: 09.06.2009 o 22:25

    Dobra treść zawsze się przebije - nie google to wykop.pl - czytelnicy się zawsze znajdą... Ale jeśli chodzi o rynek usług to nie ma tu szans na czystą grę - firm sprzątających w Polsce jest pewnie ok 500 - jak można się przebić treścią, skoro na każdej jest to samo: "sprzątamy biura, obiekty zielone"; "używamy ekologicznych detergentów" itd. Treści mało, strona jednak potrzebna. I co z tym można zrobić wg czystej gry?

  • » Bloger: 08.11.2010 o 20:52

    Zgodnie z polityką Google, legalna jest jedynie optymalizacja strony, czyli dostosowanie tytułu, linkowanie wewnętrzne no i przede wszystkim treść. Prawda jest jednak taka, że działa to wyłącznie przy bardzo łatwych frazach, a w wypadku tych trudniejszych i tak wszystko rozbija się o linki.

  • » Karolina: 29.11.2011 o 11:35

    Google idzie do przodu a pozycjoner szuka nowych rozwiązań. Tak było i tak będzie. Jeśli poważnie podchodzi się do tematu pozycjonowania, to nie wchodzi w grę opieranie go jedynie na starych, oklepanych metodach, ale należy je systematycznie rozwijać, dostosowywać je do wymagań wyszukiwarki i przeć do przodu. Już wiele razy straszono w sieci pozycjonerów tym, że ich praca straci racje bytu a jakoś nadal się utrzymują i mają co robić...

Dodaj komentarz:

Dostępne tagi: [link]http://adres-www[/link] [quote]cytat[/quote] [code]kod[/code] [pre]tekst preformowany[/pre] [b]bold[/b]