Optymalizacja dla wyszukiwarek internetowych

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj

Optymalizacja dla wyszukiwarek internetowych (ang. Search engine optimization – SEO; zwana także pozycjonowaniem) – procesy zmierzające do osiągnięcia przez dany serwis internetowy jak najwyższej pozycji w wynikach organicznych wyszukiwarek internetowych dla wybranych słów i fraz kluczowych. Proces pozycjonowania jest elementem szeroko pojętego marketingu internetowego. Pozycjonowanie opiera się na ciągłym poznawaniu mechanizmów rządzących wyszukiwarkami i dostosowywaniu kodów serwisów internetowych do aktualnych algorytmów wyszukiwarek w celu poprawienia pozycji danego serwisu na liście wynikowej.

W polskiej nomenklaturze branżowej dominuje rozróżnienie między pozycjonowaniem (ang. off-page) a optymalizacją stron (ang. on-page), choć często wyrażenia te mogą być używane zamiennie. Pierwszy z terminów odnosi się do działań prowadzonych poza docelową witryną (np. Link building), zaś optymalizacja w takim kontekście oznacza działania prowadzone bezpośrednio na stronie internetowej (wpływające na jej budowę, treść i strukturę).

Szczególną rolę w procesie pozycjonowania stron odgrywają media społecznościowe takie jak Google+, Facebook, Twitter, które są zintegrowane zazwyczaj z daną stroną internetową.

Optymalizacja[edytuj | edytuj kod]

Optymalizację strony podzielić można na działania związane z modyfikacją treści na witrynie (pod kątem fraz, na które zamierza się prowadzić kampanię) oraz zmianami w kodzie strony, niemającymi bezpośredniego wpływu na wygląd serwisu.

Treść[edytuj | edytuj kod]

W skład optymalizacji treści wchodzi m.in.:

  1. dopasowanie treści w tagu tytułowym,
  2. umieszczenie lub rozmieszczenie słów kluczowych w istniejących tekstach lub tworzenie nowych (SEO copywriting),
  3. dobór adekwatnych nagłówków,
  4. odpowiednie zaaranżowanie treści menu i innych elementów, wchodzących w skład linkowania wewnętrznego serwisu,
  5. ustawienie tekstu alternatywnego dla elementów graficznych oraz innych obiektów (np. Flash).

Dawniej działania te ograniczały się do zmiany treści tagów meta Keywords i Description, których obecność na stronie dla większości współczesnych wyszukiwarek ma znaczenie marginalne.

Kod i struktura[edytuj | edytuj kod]

Działania w dużej mierze niewidoczne dla przeciętnego użytkownika strony, mające jednak wpływ na jej indeksowanie i klasyfikacje w wyszukiwarkach to np.:

  1. dostosowanie strony do standardów W3C,
  2. oddzielenia warstwy logicznej struktury dokumentu od warstwy jego prezentacji (np. poprzez zastosowanie CSS),
  3. poprawa czasu ładowania strony,
  4. rozwiązanie problemu powielonej treści, np. poprzez wskazanie wersji preferowanej za pomocą konwertowania kanonicznego z poziomu kodu HTML lub nagłówku HTTP dokumentu[1]; w przypadku zawartości błędnie powielonej wykonując przekierowanie 301, czyli przekierowanie na stałe pod inny URL[2],
  5. zastosowanie przyjaznych adresów, np. przy użyciu mod_rewrite,
  6. umożliwienie głębokiego linkowania w przypadku animacji Flash oraz zapewnienie alternatywnej wersji dla przeglądarek bez wsparcia dla wspomnianej technologii (w tym robotów wyszukiwarek internetowych),

Pozycjonowanie[edytuj | edytuj kod]

Pozycjonowanie jest prowadzonym często równocześnie z optymalizacją strony procesem pozyskiwania odnośników z serwisów zewnętrznych, które są jednym z czynników wpływających na pozycje w wynikach wyszukiwania

Terminologia[edytuj | edytuj kod]

  • SERP – (ang. Search engine results page) – wyniki wyszukiwania w wyszukiwarce
  • PR – PageRank – matematyczny algorytm stworzony przez Google, na podstawie którego obliczana jest ważność znalezionych stron dla każdego zapytania, a także liczbowy efekt działania tego algorytmu.
    • TPR – (ang. Toolbar PageRank) – PageRank wyświetlany w postaci zielonego paska na pasku narzędziowym zainstalowanym w przeglądarce stron WWW tzw. Google Toolbar
    • GDPR – (ang. Google Directory PageRank) – PageRank publicznie dostępny w katalogu Google
    • RPR – (ang. Real PageRank)
  • AT – Anchor Text – tekst/wyrażenie zawarte w <a href="http://example.com/">treść odsyłacza</a>
  • Content – Zawartość stron/witryn: tekst, obrazki. Kiedyś obowiązywała zasada „Content is King” – czyli najważniejsza dla pozycjonowania na stronie jest jej zawartość/treść – content
  • Duplicate Content Penalties – Tworzenie kilku kopii jednego dokumentu lub strony, w przypadku kopii strony mówi się o mirrors strony
  • IBL – Inbound Links – Liczba linków wskazujących na dany adres pliku/strony www, najlepiej z odpowiednim anchor textem
  • Index/indeks stron – Zbiór stron dostępnych w danej wyszukiwarce – stron zindeksowanych przez robota wyszukiwarki
  • Link exchange – Wymiana linków jest stosowana do podniesienia IBL pomiędzy stronami o wysokim PR
  • Link popularity – Wartość otrzymana dla zapytania (link:adres strony)
  • Naturalne linkowanie – Polega na rozpowszechnianiu w sieci linków do strony bez budowania specjalnych do tego celu stworzonych stron
  • OBL – Outbound Links – Liczba linków wskazujących na zewnętrzne adresy plików/stron www
  • Pozycjoner – użytkowa nazwa funkcji jaką pełni specjalista/konsultant ds. pozycjonowania stron www/seo
  • TBPR Update – Toolbar PageRank Update – inaczej update PageRank
  • Update PageRank – Zmiana wartości publicznie dostępnej PR wskazywanej przez Toolbar Google
  • TB Program Update – Zmiana w oprogramowaniu odpowiadającym za sposób obliczania PR
  • GDPR Update – Google Directory Update – Zmiana wartości PR publicznie dostępnej w katalogu Google PR
  • Update IBL – Zmiana wartości dla zapytania (link:adres strony)
  • BL Update – Backlink Update – Zmiana wartości dla zapytania (link:adres strony)
  • Algo Update – Algorithm Update – Zmiana algorytmu odpowiadającego za rezultaty SERP
  • Site – Liczba zaindeksowanych przez wyszukiwarkę podstron witryny

Historia[edytuj | edytuj kod]

Pozycjonowanie stron rozpoczęło się wraz z rozwojem pierwszych wyszukiwarek internetowych. Webmasterzy dążyli do tego, aby ich strona pojawiła się jako pierwsza w wynikach wyszukiwania dla danego zapytania. Początkowo nie było to trudne, gdyż wyniki w wyszukiwarkach opierały się na analizie słów kluczowych podanych przez autora w nagłówku strony. Później jednak, między innymi ze względu na łatwą manipulację słowami kluczowymi, wyszukiwarki zaczęły je ignorować, odwołując się bezpośrednio do treści strony.

Ewolucja wyszukiwarek wywołała ewolucję pozycjonowania przechodzącego przez wszelkie algorytmy binarne i wektorową analizę treści strony. Dopiero wyszukiwarki oparte na analizie topologii sieci, zliczające linki (takie jak Google), podniosły poziom trudności pozycjonowania stron. Zaawansowane algorytmy analizy topologii sieci wielu osobom wydawały się odporne na wszelkiego rodzaju próby manipulacji/modyfikacji SERP, jednak zjawisko Google bomb, polegające na masowym dodawaniu na stronach linku ze wskazanym przez pomysłodawcę anchor tekstem, pokazało drogę do łatwego modyfikowania indeksu.

Termin „pozycjonowanie” pojawił się ok. 2002 r, wcześniej funkcjonował anglojęzyczny „web positioning”. Pierwsze powszechnie znane „polskie” Google bomb pojawiło się na przełomie 2003 i 2004 roku i polegało na linkowaniu ze słowem kluczowym kretyn adresu do sejmowej strony internetowej polskiego posła Andrzeja Leppera>, co w efekcie dało pojawianie się wspomnianej strony na czołowych miejscach w wynikach wyszukiwania w Google dla hasła „kretyn” (zwykle jako pierwszy wynik). Akcja ta zyskała wielu naśladowców i podobne zjawiska można było zaobserwować dla innych słów i wyrażeń.

Pod koniec 2009 roku Google wprowadziło wyszukiwanie w czasie rzeczywistym (Real Time Search), polegające na przedstawianiu najaktualniejszych wyników z serwisów społecznościowych oraz mikro-blogów. 19 marca 2010 roku funkcja wyszukiwania w czasie rzeczywistym została oficjalnie wdrożona do polskiej wersji wyszukiwarki Google.

Algorytm wyszukiwarki odpowiedzialny za prezentowanie wyników na odpowiednich pozycjach analizuje kilkaset najważniejszych czynników strony i ciągle ulega modyfikacjom.

Kontrowersje[edytuj | edytuj kod]

Kontrowersje w pozycjonowaniu stron wynikają ze sposobów zdobywania linków prowadzących do stron – IBL oraz z nieetycznych technik stosowanych w pozycjonowaniu. Działania niezgodne z zaleceniami dla webmasterów przyjęło się nazywać spamem w wyszukiwarkach. Spam w wyszukiwarkach jest traktowany podobnie jak spam pocztowy, czyli elektroniczne wiadomości masowo rozsyłane do osób, które ich nie oczekują.

W wyszukiwarkach stworzono specjalne strony, na których można zgłaszać strony, które stosują nieetyczne metody pozycjonowania, np. Google – Raport dotyczący spamu[3].

Etyczne i nieetyczne techniki pozycjonowania[edytuj | edytuj kod]

W związku z ogromnym zainteresowaniem pozycją danej strony w wyszukiwarce zaczęto stosować różnorodne metody pozycjonowania m.in. takie, których nie akceptują twórcy wyszukiwarek lub nie są zgodne z zaleceniami dla tworzących strony, gdyż „zaśmiecają” wyniki wyszukiwania. Te metody zaczęto nazywać nieetycznymi. Są to na przykład:

  • Duże nagromadzenie słów kluczowych
  • Słowa kluczowe niezgodne z treścią
  • Ukrywanie słów kluczowych, np. użycie tekstu w kolorze tła, umieszczenie na niewidocznym elemencie lub w miejscu zwykle nie oglądanym przez użytkownika.
  • Cloaking (ang. cloak – płaszcz) – serwowanie robotom wyszukiwarek (rozpoznawanych np. po adresach lub tzw. User-agent) specjalnie spreparowanej wersji strony.

Wykrycie stosowania takich technik może jednak przynieść odwrotny skutek – całkowitą eliminację strony z wyników wyszukiwania.

Należy wspomnieć, że wiele metod ułatwiających użytkownikom poruszanie się po stronie i odnajdowanie informacji może przyczynić się do poprawy wyników w wyszukiwarkach. Niektóre przykłady to:

  • Wymiana linków i banerów ze stronami o podobnej tematyce, umieszczanie stron w katalogach tematycznych
  • Rezygnacja z nawigacji uzależnionej od dodatkowych technologii, np. JavaScriptu, Flasha lub ramek, poprawa możliwości poruszania się po stronie, użycie mapy strony
  • Usunięcie błędów (np. składniowych) z kodu strony
  • Wzmocnienie semantyki znaczników używanych na stronie
  • Optymalizacja kodu strony, usunięcie nadmiarowych znaczników HTML
  • Dobre opisanie elementów strony, np. tytułu strony lub treści alternatywnej dla grafiki
  • Czytelne opisywanie odnośników (unikanie opisów typu „tutaj” albo „kliknij” na korzyść lepiej opisujących zawartość strony, do której prowadzą)
  • Stosowanie „przyjaznych” adresów (np. http://example.com/sklep/drukarki/laserowe/ zamiast http://example.com/index.php?page=236&id=32)
  • Wyróżnianie (np. pogrubienie, podkreślenie) ważniejszych słów, stosowanie nagłówków

Bardzo istotne jest również optymalizowanie treści (SEO copywriting) strony tak, aby lepiej odzwierciedlała założone w fazie projektu frazy kluczowe, poprzez np. używanie słów kluczowych w mianowniku.

W odróżnieniu od nieuczciwych metod pozycjonowania, tutaj można być pewnym, że te metody będą zawsze akceptowane przez wyszukiwarki, a ich stosowanie nie spowoduje eliminacji strony z wyników wyszukiwania.

Zobacz też[edytuj | edytuj kod]

Przypisy

Linki zewnętrzne[edytuj | edytuj kod]