Optymalizacja dla wyszukiwarek internetowych: Różnice pomiędzy wersjami

Z Wikipedii, wolnej encyklopedii
[wersja nieprzejrzana][wersja przejrzana]
Usunięta treść Dodana treść
mNie podano opisu zmian
m Wycofano edycje użytkownika KampanieSEO (dyskusja). Autor przywróconej wersji to Boston9.
Znacznik: Wycofanie zmian
Linia 129: Linia 129:


* [http://secureglass.net/200-czynnikow-rankingowych-google 200 czynników rankingowych Google]
* [http://secureglass.net/200-czynnikow-rankingowych-google 200 czynników rankingowych Google]
*[https://www.kampanieseo.pl/blog/seo-co-to-jest-optymalizacja-strony-a-pozycjonowanie Różnica pomiędzy SEO a pozycjonowaniem]


[[Kategoria:Pozycjonowanie stron| ]]
[[Kategoria:Pozycjonowanie stron| ]]

Wersja z 15:50, 15 lis 2019

Optymalizacja dla wyszukiwarek internetowych (ang. search engine optimization, SEO; zwana także pozycjonowaniem) – procesy zmierzające do osiągnięcia przez dany serwis internetowy jak najwyższej pozycji w wynikach organicznych wyszukiwarek internetowych dla wybranych słów i fraz kluczowych. Proces pozycjonowania jest elementem szeroko pojętego marketingu internetowego. Pozycjonowanie opiera się na ciągłym poznawaniu mechanizmów rządzących wyszukiwarkami i dostosowywaniu kodów serwisów internetowych do aktualnych algorytmów wyszukiwarek w celu poprawienia pozycji danego serwisu na liście wynikowej.

Rynek reklamy w wyszukiwarkach (SEO i SEM) stanowi dzisiaj aż ponad 32 proc. wydatków na reklamę online w Polsce. Odsetek ten rośnie z roku na rok.[1]

W polskiej nomenklaturze branżowej dominuje rozróżnienie między pozycjonowaniem (ang. off-page) a optymalizacją stron (ang. on-page), choć często wyrażenia te mogą być używane zamiennie. Pierwszy z terminów odnosi się do działań prowadzonych poza docelową witryną (np. Link building), zaś optymalizacja w takim kontekście oznacza działania prowadzone bezpośrednio na stronie internetowej (wpływające na jej budowę, treść i strukturę).

Szczególną rolę w procesie pozycjonowania stron odgrywają media społecznościowe takie jak Facebook, Twitter, które są zintegrowane zazwyczaj z daną stroną internetową.

Optymalizacja

Optymalizację strony podzielić można na działania związane z modyfikacją treści na witrynie (pod kątem fraz, na które zamierza się prowadzić kampanię) oraz zmianami w kodzie strony, niemającymi bezpośredniego wpływu na wygląd serwisu.

Treść

W skład optymalizacji treści wchodzi m.in.:

  1. dopasowanie treści w tagu tytułowym,
  2. umieszczenie lub rozmieszczenie słów kluczowych w istniejących tekstach lub tworzenie nowych (SEO copywriting),
  3. dobór adekwatnych nagłówków,
  4. odpowiednie zaaranżowanie treści menu i innych elementów, wchodzących w skład linkowania wewnętrznego serwisu,
  5. ustawienie tekstu alternatywnego dla elementów graficznych oraz innych obiektów (np. Flash).
  6. odpowiednie linkowanie wewnętrzne między podstronami.

Dawniej działania te ograniczały się do zmiany treści tagów meta Keywords i Description, których obecność na stronie dla większości współczesnych wyszukiwarek ma znaczenie marginalne.

Kod i struktura

Działania w dużej mierze niewidoczne dla przeciętnego użytkownika strony, mające jednak wpływ na jej indeksowanie i klasyfikacje w wyszukiwarkach to np.:

  1. dostosowanie strony do standardów W3C,
  2. oddzielenia warstwy logicznej struktury dokumentu od warstwy jego prezentacji (np. poprzez zastosowanie CSS),
  3. poprawa czasu ładowania strony,
  4. rozwiązanie problemu powielonej treści, np. poprzez wskazanie wersji preferowanej za pomocą konwertowania kanonicznego z poziomu kodu HTML lub nagłówku HTTP dokumentu[2]; w przypadku zawartości błędnie powielonej wykonując przekierowanie 301, czyli przekierowanie na stałe pod inny URL[3],
  5. zastosowanie przyjaznych adresów, np. przy użyciu mod_rewrite,
  6. umożliwienie głębokiego linkowania w przypadku animacji Flash oraz zapewnienie alternatywnej wersji dla przeglądarek bez wsparcia dla wspomnianej technologii (w tym robotów wyszukiwarek internetowych)
  7. instalacja kodów Google Analytics oraz Search Console.

Search engine friendly

Struktura serwisu seo friendly
Przykładowa struktura strony przyjazna SEO i nadająca się pod pozycjonowanie.

SEF to pojęcie odnoszące się do jasnego i czytelnego formułowania adresów stron internetowych. SEF ma na celu eliminację niezrozumiałego kodu z odnośników stron przy jednoczesnym przekazaniu wartościowych informacji (np. słowa kluczowe) oraz ułatwienia odwiedzającemu poruszanie się po stronie i odszukanie interesujących wiadomości. SEF ma również pozytywne przełożenie na tzw. optymalizację stron pod kątem wyszukiwarek.

Przykład:

  • przed optymalizacją:

http://przyklad.pl/index.php?option=com_content&view=article&id=1:wiadomosci&catid=1:boeing-737-szczesliwie-wyladowal-na-oceanie-spokojnym&Itemid=32

  • po zastosowaniu SEF:

http://przyklad.pl/wiadomosci/zagranica/1-boeing-737-szczesliwie-wyladowal-na-oceanie-spokojnym

Jak wynika z powyższego przykładu zaletą SEF jest obok większej przejrzystości, często także krótszy adres internetowy[4].

Pozycjonowanie

Pozycjonowanie jest prowadzonym często równocześnie z optymalizacją strony procesem pozyskiwania odnośników z serwisów zewnętrznych, które są jednym z czynników wpływających na pozycje w wynikach wyszukiwania.

Pozycjonowanie, a SEO[5]

W Polsce pojęcie "pozycjonowania" odróżnia się od pojęcia SEO, które oznacza głównie działania on-site związane z optymalizacją kodu oraz treści strony. Natomiast "pozycjonowanie" określane jest jako cały proces zwiększania widoczności witryny internetowej. Na świecie jednak problem nie występuje, ponieważ nie ma innego odpowiednika terminu "pozycjonowanie" niż po prostu "SEO".

Terminologia

  • SERP (ang. search engine results page) – wyniki wyszukiwania w wyszukiwarce
  • PR – PageRank – matematyczny algorytm stworzony przez Google, na podstawie którego obliczana jest ważność znalezionych stron dla każdego zapytania, a także liczbowy efekt działania tego algorytmu.
    • TPR (ang. Toolbar PageRank) – PageRank wyświetlany w postaci zielonego paska na pasku narzędziowym zainstalowanym w przeglądarce stron WWW tzw. Google Toolbar
    • GDPR (ang. Google Directory PageRank) – PageRank publicznie dostępny w katalogu Google
    • RPR (ang. Real PageRank)
  • AT – Anchor Text – tekst/wyrażenie zawarte w <a href="http://example.com/">treść odsyłacza</a>
  • Content – Zawartość stron/witryn: tekst, obrazki. Kiedyś obowiązywała zasada „Content is King” – czyli najważniejsza dla pozycjonowania na stronie jest jej zawartość/treść – content
  • Duplicate Content Penalties – Tworzenie kilku kopii jednego dokumentu lub strony, w przypadku kopii strony mówi się o mirrors strony
  • IBL – Inbound Links – Liczba linków wskazujących na dany adres pliku/strony www, najlepiej z odpowiednim anchor textem
  • Index/indeks stron – Zbiór stron dostępnych w danej wyszukiwarce – stron zindeksowanych przez robota wyszukiwarki
  • Link exchange – Wymiana linków jest stosowana do podniesienia IBL pomiędzy stronami o wysokim PR
  • Link popularity – Wartość otrzymana dla zapytania (link:adres strony)
  • Naturalne linkowanie – Polega na rozpowszechnianiu w sieci linków do strony bez budowania specjalnych do tego celu stworzonych stron
  • OBL – Outbound Links – Liczba linków wskazujących na zewnętrzne adresy plików/stron www
  • Pozycjoner – użytkowa nazwa funkcji jaką pełni specjalista/konsultant ds. pozycjonowania stron www/seo
  • TBPR Update – Toolbar PageRank Update – inaczej update PageRank
  • Update PageRank – Zmiana wartości publicznie dostępnej PR wskazywanej przez Toolbar Google
  • TB Program Update – Zmiana w oprogramowaniu odpowiadającym za sposób obliczania PR
  • GDPR Update – Google Directory Update – Zmiana wartości PR publicznie dostępnej w katalogu Google PR
  • Update IBL – Zmiana wartości dla zapytania (link:adres strony)
  • BL Update – Backlink Update – Zmiana wartości dla zapytania (link:adres strony)
  • Algo Update – Algorithm Update – Zmiana algorytmu odpowiadającego za rezultaty SERP
  • Site – Liczba zaindeksowanych przez wyszukiwarkę podstron witryny

Historia

Pozycjonowanie stron rozpoczęło się wraz z rozwojem pierwszych wyszukiwarek internetowych. Webmasterzy dążyli do tego, aby ich strona pojawiła się jako pierwsza w wynikach wyszukiwania dla danego zapytania. Początkowo nie było to trudne, gdyż wyniki w wyszukiwarkach opierały się na analizie słów kluczowych podanych przez autora w nagłówku strony. Później jednak, między innymi ze względu na łatwą manipulację słowami kluczowymi, wyszukiwarki zaczęły je ignorować, odwołując się bezpośrednio do treści strony.

Ewolucja wyszukiwarek wywołała ewolucję pozycjonowania przechodzącego przez wszelkie algorytmy binarne i wektorową analizę treści strony. Dopiero wyszukiwarki oparte na analizie topologii sieci, zliczające linki (takie jak Google), podniosły poziom trudności pozycjonowania stron. Zaawansowane algorytmy analizy topologii sieci wielu osobom wydawały się odporne na wszelkiego rodzaju próby manipulacji/modyfikacji SERP, jednak zjawisko Google bomb, polegające na masowym dodawaniu na stronach linku ze wskazanym przez pomysłodawcę anchor tekstem, pokazało drogę do łatwego modyfikowania indeksu.

Termin „pozycjonowanie” pojawił się ok. 2002 r, wcześniej funkcjonował anglojęzyczny „web positioning”. Pierwsze powszechnie znane „polskie” Google bomb pojawiło się na przełomie 2003 i 2004 roku i polegało na linkowaniu ze słowem kluczowym kretyn adresu do sejmowej strony internetowej polskiego posła Andrzeja Leppera, co w efekcie dało pojawianie się wspomnianej strony na czołowych miejscach w wynikach wyszukiwania w Google dla hasła „kretyn” (zwykle jako pierwszy wynik). Akcja ta zyskała wielu naśladowców i podobne zjawiska można było zaobserwować dla innych słów i wyrażeń.

Pod koniec 2009 roku Google wprowadziło wyszukiwanie w czasie rzeczywistym (Real Time Search), polegające na przedstawianiu najaktualniejszych wyników z serwisów społecznościowych oraz mikro-blogów. 19 marca 2010 roku funkcja wyszukiwania w czasie rzeczywistym została oficjalnie wdrożona do polskiej wersji wyszukiwarki Google.

Algorytm wyszukiwarki odpowiedzialny za prezentowanie wyników na odpowiednich pozycjach analizuje kilkaset najważniejszych czynników strony i ciągle ulega modyfikacjom.

Kontrowersje

Kontrowersje w pozycjonowaniu stron wynikają ze sposobów zdobywania linków prowadzących do stron – IBL oraz z nieetycznych technik stosowanych w pozycjonowaniu. Działania niezgodne z zaleceniami dla webmasterów przyjęło się nazywać spamem w wyszukiwarkach. Spam w wyszukiwarkach jest traktowany podobnie jak spam pocztowy, czyli elektroniczne wiadomości masowo rozsyłane do osób, które ich nie oczekują.

W wyszukiwarkach stworzono specjalne strony, na których można zgłaszać witryny, które stosują nieetyczne metody pozycjonowania, np. Google – Raport dotyczący spamu[6].

Etyczne i nieetyczne techniki pozycjonowania

W związku z ogromnym zainteresowaniem pozycją danej strony w wyszukiwarce zaczęto stosować różnorodne metody pozycjonowania m.in. takie, których nie akceptują twórcy wyszukiwarek lub nie są zgodne z zaleceniami dla tworzących strony, gdyż „zaśmiecają” wyniki wyszukiwania. Te metody zaczęto nazywać nieetycznymi. Są to na przykład:

  • Duże nagromadzenie słów kluczowych
  • Słowa kluczowe niezgodne z treścią
  • Ukrywanie słów kluczowych, np. użycie tekstu w kolorze tła, umieszczenie na niewidocznym elemencie lub w miejscu zwykle nieoglądanym przez użytkownika.
  • Cloaking (ang. cloak – płaszcz) – serwowanie robotom wyszukiwarek (rozpoznawanych np. po adresach lub tzw. User-agent) specjalnie spreparowanej wersji strony.

Wykrycie stosowania takich technik może jednak przynieść odwrotny skutek – całkowitą eliminację strony z wyników wyszukiwania.

Należy wspomnieć, że wiele metod ułatwiających użytkownikom poruszanie się po stronie i odnajdowanie informacji może przyczynić się do poprawy wyników w wyszukiwarkach. Niektóre przykłady to:

  • Wymiana linków i banerów ze stronami o podobnej tematyce, umieszczanie stron w katalogach tematycznych
  • Rezygnacja z nawigacji uzależnionej od dodatkowych technologii, np. JavaScriptu, Flasha lub ramek, poprawa możliwości poruszania się po stronie, użycie mapy strony
  • Usunięcie błędów (np. składniowych) z kodu strony
  • Wzmocnienie semantyki znaczników używanych na stronie
  • Optymalizacja kodu strony, usunięcie nadmiarowych znaczników HTML
  • Dobre opisanie elementów strony, np. tytułu strony lub treści alternatywnej dla grafiki
  • Czytelne opisywanie odnośników (unikanie opisów typu „tutaj” albo „kliknij” na korzyść lepiej opisujących zawartość strony, do której prowadzą)
  • Stosowanie „przyjaznych” adresów (np. http://example.com/sklep/drukarki/laserowe/ zamiast http://example.com/index.php?page=236&id=32)
  • Wyróżnianie (np. pogrubienie, podkreślenie) ważniejszych słów, stosowanie nagłówków

Bardzo istotne jest również optymalizowanie treści (SEO copywriting) strony tak, aby lepiej odzwierciedlała założone w fazie projektu frazy kluczowe, poprzez np. używanie słów kluczowych w mianowniku.

W odróżnieniu od nieuczciwych metod pozycjonowania, tutaj można być pewnym, że te metody będą zawsze akceptowane przez wyszukiwarki, a ich stosowanie nie spowoduje eliminacji strony z wyników wyszukiwania. Ze względu rosnący rynek sprzedaży linków sponsorowanych pod SEO, firma Google w 2019 roku zdecydowała się na wprowadzenie nowego atrybutu rel="sponsored", który nakłada na webmasterów obowiązek informowania robota wyszukiwarki o tym, które linki są linkami sponsorowanymi (kupionymi) przez reklamodawców.[7]

Zobacz też

Przypisy

  1. Agencje SEO – ranking. Te firmy warto zbrifować na prowadzenie działań promocyjnych w Google [online], interaktywnie.com [dostęp 2019-07-18] (ang.).
  2. Google – Konwertowanie kanoniczne.
  3. Przekierowania 301.
  4. Benjamin Hättasch: Proste adresy w Joomla. Joomla. [dostęp 2012-11-20].
  5. Tomasz Sikora, SEO, optymalizacja techniczna stron i sklepów internetowych [online], Grupa iCEA, 1 czerwca 2019 [dostęp 2019-07-01] (pol.).
  6. Google – Raport dotyczący spamu.
  7. Autor: Sirius Pro, Atrybuty rel="sponsored" i rel="ugc" ‹ Blog Sirius Pro [online], Blog Sirius Pro, 11 września 2019 [dostęp 2019-09-11] (pol.).

Linki zewnętrzne