Menu
Poradnik
- Algorytmy Google - czym są, jak działają i czy należy się bać zmian i aktualizacji
- Czynniki SEO on-site i off-site, na które trzeba zwrócić największą uwagę
- Linkowanie wewnętrzne i zewnętrzne w e-commerce
- Pozycjonowanie lokalne strony - usługi SEO dla firm lokalnych
- Czy warto uczyć się e-commerce?
- Kursy online dla dzieci
- Szkolenia zamknięte online
- Szkolenia pracowników w firmie
- Najbardziej wartościowe kursy. Badanie rynku.
- Kursy zawodowe, czyli zawód i fach w jednym.
Darmowy Poradnik o SEO
Zanim zapiszesz się na kurs SEO sprawdź czy pozycjonowanie i optymalizacja jest dla Ciebie.
- Co to jest SEO?
- Czym różni się SEO od SEM?
- Jakie są najskuteczniejsze techniki SEO
- Jak odróżnić wyniki płatne, reklamy i wyniki organiczne w wyszukiwarkach?
- Czy warto kształcić się w zawodzie SEO?
- SEO a marketing internetowy
- Pozycjonowanie i optymalizacja a Google
przeczytaj poradnik lub zapisz się na KURS SEO, który polecamy.
SEO czyli optymalizacja serwisów internetowych
SEO to skrót od angielskiego terminu search engine optimization, a oznacza po polsku dokładnie tłumacząc „optymalizacja dla wyszukiwarek internetowych” i składa się z dwóch podstawowych składowych: optymalizacji serwisów www oraz ich pozycjonowania w wyszukiwarkach.
Najprościej tłumacząc SEO to wszystkie czynności prowadzące do takiego dopasowania strony internetowej do aktualnych algorytmów sortujących wyniki w wyszukiwarkach sieciowych, w rezultacie których osiągamy wysoką widoczność w wynikach naturalnych w sieci, co często rozumiane jest jako wyświetlanie na wysokich pozycjach poszczególnych słów kluczowych w wynikach organicznych.
Jeśli miałbym w najprostszy sposób wytłumaczyć na czym polega SEO, to napisałbym że są to działania w wyniku których Google wyświetla naszą stronę wysoko w swojej wyszukiwarce po wpisaniu interesujących nas haseł. Czyli jeśli mamy np. stronę związaną z pracą, to w wyniku optymalizacji i pozycjonowania wyświetlamy się na czołowych pozycjach po wpisaniu frazy „praca” czy też „oferty pracy”.
SEO to między innymi:
– optymalizacja serwisu www pod wyszukiwarki internetowe, która skupia się na działaniach po stronie serwisu www.
Są to na przykład zmiany techniczne, które przyspieszają działanie serwisu (hosting), poprawa UX serwisu (użyteczność internetowa, czyli skupienie się na użytkowniku i tworzenie stron przyjaznych dla odwiedzających – łatwa nawigacja, czytelność itp. oraz wiele innych działań i zmiennych, które szczegółowo opisuję poniżej.
Niektórzy uważają, że UX to nie SEO, ale twierdzę, że jest inaczej. Algorytmy wyszukiwarek coraz częściej skupiają się na relacji strona www – użytkownik serwisu, a UX jest w tym przypadku decydującym czynnikiem. Internet ma nam służyć, być przyjazny i intuicyjny.
Przecież to ludzie korzystają z przeglądarek, wyszukiwarek i spędzają dziesiątki godzin w sieci. Dlatego tak ważne staje się skupienie na użytkowniku i prezentowanie mu treści w maksymalnie przyjazny i przyjemny sposób. Z tego powodu algorytmy starają się rozpoznać użyteczność strony. UX jako waży czynnik wpływający na SEO stał się faktem.
Przykład: w wyniku działań optymalizacyjnych na stronie www oraz działań zewnętrznych nasza strona zbierające fundusze dla dzieci pojawia się wysoko po wpisaniu w Google hasła „fundacja pomocy dzieciom”.
– pozycjonowanie strony internetowej, czyli działania prowadzone poza stroną internetową.
Pozycjonowanie nadal głownie sprowadza się do tworzenia odnośników do strony www, czyli tak zwanych linków. Obecnie jednak zgodnie z zaleceniem Google takie odnośniki powinny powstawać naturalnie, czyli w wyniku zainteresowania naszym serwisem użytkownicy sami powinni dodawać linki w różnych miejscach sieci. Oczywiście sprawa jest prosta jeśli nasz serwis jest popularny i ciekawy.
Najłatwiej zrozumieć te działania nawiązując do historii. Jeszcze parę lat temu wystarczyło pozyskać dużą liczbę linków przychodzących (tzw linkbuilding) do strony internetowej a nasza strona w określonym czasie (zazwyczaj w ciągu paru tygodni do 2 miesięcy) osiągała zamierzoną przez nas widoczność. Tak jak w przypadku treści (algorytm Pingwin) i tu Google postanowił ukrócić działania pozycjonerów i wprowadził w 2010 roku algorytm Pingwin , którego zadaniem jest karanie serwisów za takie praktyki. W efekcie wprowadzenia tych modyfikacji zniknęło z rynku wiele sklepów, niektóre duże portale zniknęły praktycznie z sieci a powrót zajął wiele miesięcy lub nie nastąpił nigdy (np. BMW, które otrzymało karę za…., podobnie Nokaut.pl, który zniknął za agresywne linkowanie).
Jednak co ma zrobić lokalny fryzjer, który chciałby być widoczny w sieci na hasło „fryzjer Gdynia” a nie ma czasu, pieniędzy i dość kreatywności żeby stworzyć na tyle ciekawą stronę www o fryzjerstwie, żeby ludzie sami o niej wspominali? W takim przypadku nadal zaczynają pracować pozycjonerzy tworząc linki prowadzące do docelowej strony. Z tą różnicą, że obecnie te działania są bardzo ryzykowne, więc miejsca linkowania są wybierane z dużą rozwagą z nastawieniem na tematyczność (podobieństwo stron jest ważne) oraz jakość (strony linkujące nie mogą być tzw. śmietnikiem ze spamem)
Przykład dobrego linkowania:
Nasz fryzjer porozumiał się z serwisem trójmiasto.pl (popularnym i cenionym serwisem) i otrzymał w nim wpis o swojej firmie z linkiem wychodzącym i czytelnym dla robotów Google (link dofollow).
Złe linkowanie – pozycjoner wpisał stronę fryzjera do starych katalogów stron, z milionem spamowych wpisów.
Działania SEO to ciągłe poznawanie algorytmów, które rządzą sortowaniem wyników w sieci. Algorytmy są ciągle modyfikowane a każda ich zmiana powoduje zmiany w wynikach wyszukiwania.
Przykład: Google przeciwdziałając tworzeniu niskiej jakości treści i publikowania ich w Internecie wprowadził w 2004 roku algorytm Pingwin (tak go nazwano w Google), którego zadaniem jest rozpoznanie słabej jakości treści, treści powielonych oraz tekstów pisanych np. przez automaty (tzw. Mieszarki tekstów z użyciem synonimów) i obniżenie lub całkowite wyeliminowanie stron www zawierających taki kontent. W efekcie serwisy musiały zmienić podejście i skupić się na podnoszeniu jakości zawartości treści. Tak narodził się marketing treści (content marketing).
SEF (czyli search engine friendly to inaczej przyjazne adresy url zarówno dla wyszukiwarek jak i użytkowników.
Przykład przed optymalizacją url: kursy.pl/w23s
Po optymalizacji: kursy.pl/poradnik
Przyjazny adres url to adres, który łatwo zapamiętamy, ze słowem kluczowym w url.
Sam proces pozycjonowania i optymalizacji to działania długotrwałe, których efekty zazwyczaj widzimy po paru miesiącach.
Wyniki naturalne a linki sponsorowane i reklama płatna.
Bardzo ważne jest, żebyśmy umieli rozróżnić wyniki wyszukiwania i po wpisaniu dowolnego hasła w Google potrafili dokładnie wskazać wyniki naturalne, linki płatne (np. Google Ads – dawne Adwords), wyniki Google Maps i chociaż pobieżnie wiedzieli, jakie reguły nimi rządzą a co najważniejsze czego możemy się spodziewać po kliknięciu. Jest dokładnie tak jak napisałem – w zależności w co klikniemy, to otrzymamy inną jakość wyników.
Płatne reklamy Google Ads zależą wyłącznie od funduszy przeznaczonych na reklamę. W tym przypadku możemy spodziewać się absolutnie wszystkiego, a że reklama przyjmie prawie każdy tekst (Google stara się ukrócić pewne formy reklamy), to nawet mało rzetelne firmy reklamują się jako liderzy rynkowi i próbują tym kanałem sprzedać swoje produkty i usługi.
Oczywiście reklama może być wykorzystana w znakomity sposób jako kanał zdobywania klientów i tylko od nas zależy jak wykorzystamy pozyskany ruch. Google Ads zapewni ci widzów, ale nie zapewni, że klient kupi towar. Wspominając o tej reklamie chciałem tylko nadmienić, że nie można jej do końca ufać. Nie wiemy, któ ją wykupił i jakie ma intencje.
Google Ads to nic innego jak licytacja miejsca wyświetlenia twojej oferty w wynikach wyszukiwania.
Ten kto ustali wyższy budżet i lepiej sformułuje treść reklamy ten może liczyć na lepsze efekty w postaci liczby odwiedzin docelowej strony www. Google Ads ma również wiele wspólnego z SEO. Google nie ustala dla wszystkich jednakowych stawek za kliknięcie. CPC zależy od wielu czynników, między innymi od tzw współczynnika jakości, czyli dopasowaniu reklamy do strony docelowej (nie rozwodząc się nad tematem np. czy treść reklamy jest dopasowana do treści na stronie www).
SEO dba o optymalizację treści, odpowiedniej jakości treści, nasyceniu kluczowych słów kluczowych, czyli de facto jest powiązane ze współczynnikiem jakości reklam.
Poniżej prezentuję rozkład wyników wyszukiwania z podziałem na wyniki organiczne i płatne reklamy:
Przykład:
Nie uzyskamy wysokiego współczynnika jeśli nasza reklama będzie brzmią np. „maszyny spawalnicze do warsztatu” a nas tronie docelowej będą tylko zdjęcia, bez treści, tytułu, opisu, albo co gorsz strona docelowa będzie na inny temat (np. myjek ciśnieniowych).
Zalety reklamy Ads: przy umiejętnym prowadzeniu kampanii Ads można uzyskać natychmiastowy efekt sprzedażowy, bez opóźnień.
Wady – koszty mogą dramatycznie rosnąć, jeśli konkurencja również zwiększa budżet reklamowy. Podnoszenie stawki za wyświetlenie na pierwszych 3 miejscach może doprowadzić do absurdalnych sytuacji, w których klikniecie za reklamę będzie kosztowało tyle co sama usługa czy produkt.
Przykład:
Właściciel wypożyczalni aut ustawił górny limit za kliknięcie na 100 zł, licytacja CPC rozpoczęła się od 2 zł, ale w ciągu paru godzin CPC skoczył do 100 zł a w związku z tym, że ustawione były automatyczne zasilnia z karty kredytowej budżet dzienny wyświetleni reklam przekroczył zarobki firmy i wygenerował duże straty.
Poniżej: GDN czyli Google Display Network, sieć reklamowa Google
Co to są wyniki naturalne w wynikach wyszukiwania?
Wyniki organiczne, czyli takie które są wynikiem działania algorytmu są najbardziej cenne z punktu widzenia właściciela strony.
Dlaczego wyniki organiczne są takie ważne?
Po pierwsze użytkownicy sieci mają dużą świadomość tego co się dzieje w sieci i cenią sobie serwisy, które pojawiają się na najwyższych pozycjach w Google zakładając z góry, że Google potrafi sortować i katalogować strony www i odrzuca strony bezużyteczne. Oczywiście nie jest to 100% prawda, ale w dużym uproszczeniu ma to uzasadnienie.
Po drugie wyniki naturalne nie generują kosztów za klikniecie. Jeśli już jesteśmy wysoko w rankingu na dane słowo, to nawet jeśli kliknie w nie milion użytkowników nie zapłacimy za to ani złotówki.
Jest wiele czynników przemawiających za wynikami naturalnymi. Najlepiej to wiedzą np. właściciele sklepów, którzy mogą sobie porównać zachowania klientów przychodzących z reklam (Ads) wyników organicznych (SERP) w darmowym narzędziu od Google (Google Analytics). We wszystkich znanych mi przypadkach klienci z wyników organicznych dłużej pozostają na stronie, a współczynnik odrzuceń (czyli opuszczenia strony) jest dużo mniejszy. Świadczy to o większym zaufaniu do treści przedstawianych na stronie www oraz do dobrego dopasowania spodziewanych wyników do wyszukiwanej frazy (np. szukaliśmy informacji o dobrej karmie dla małego kotka i otrzymaliśmy informację, z której jesteśmy zadowoleni).
Wyników naturalnych nie można kupić u Google, trzeba na nie czasami ciężko zapracować i dlatego stanowią taką wartość zarówno dla widzów (użytkowników jak i właściciela strony www.
Google Maps to usługa Google z lokalnymi wynikami wyszukiwania pokazanymi na mapach.
Jak pojawić się w wynikach Google Maps? Załóż darmową wizytówkę w Google Firma a potem zdobądź pozytywne opinie, trochę odnośników (linków) z tematycznie powiązanymi stronami www z okolicy (np. jeśli prowadzisz serwis aut to wartościowe będą linki z okolicznych stron sprzedawców aut, warsztatów lakierniczych czy sklepów z akcesoriami samochodowymi).
Co kształtuje wyniki naturalne (inaczej zwane organiczne, SERP)?
O tym decyduje skomplikowany algorytm Google, który przelicza elementy optymalizacyjne na stronie, linki przychodzące, inne czynniki (np. wiek domeny, historia itp.) oraz porównuje do konkurencji. W wyniku temu na każde słowo kluczowe przypisywany jest nam ranking i po wpisaniu tego słowa w wyszukiwarkę wyświetlamy się na danej pozycji. Oczywiście najwartościowsze są pozycje z top 1-3 i na hasła, które generują ruch na którym nam zależy (np. praca, jeśli prowadzimy serwis pracy).
Robot Google (Google bot) to tak zwany crawler, który skanuje strony internetowe, zbiera z ich potrzebne informacje (treści, linki, informacje o obrazkach i wszystko co jest w stanie na dany dzień przeliczyć – np. strony we flash, czy java nadal sprawia robotowi problemy, chociaż coraz częściej udaje się i to) a następnie kopiując stronę www do indeksu używając skomplikowanego algorytmu nadaje stronie ranking i wiąże to ze słowami kluczowymi, które wpisują użytkownicy sieci.
Jak rozkłada się siła poszczególnych czynników wpływających na wyniki organiczne w wyszukiwarkach?
1. Linki prowadzące do strony internetowej
Google od zawsze zakładał w swoim algorytmie sortującym wyniki wyszukiwania, że interakcja z użytkownikami jest najważniejsza. Teraz jednak oprócz tego liczy się jakość tej interakcji.
Ten czynnik nawiązuje bezpośrednio do tego jak funkcjonuje ocenianie prac naukowych. Generalnie zakłada się, że ta praca nabiera większej wartości wśród czytelników, która częściej jest wspominana przez innych naukowców. Wprost tłumacząc – profesor, którego cytują inni profesorowie zyskuje uznanie i prestiż, wszyscy go znają i cenią.
Podobnie Twoja strona www. Jeśli wspomną o niej znane, popularne i uznane serwisy a jeszcze dodatkowo jeśli ta strona umieści link do twojej strony internetowej (najlepiej dofollow, czyli taki, który łatwo czyta i przechodzi robot Google), to Twój ranking rośnie i masz szanse na zdobycie popularności.
Google rekomenduje tworzenie takich serwisów, do których inni linkują sami, czyli w sposób naturalny zdobywamy popularność. W świecie rzeczywistym walka trwa o pozycje a na popularne frazy jest wielu chętnych. Wartościowych miejsc jest tak na prawdę 1-3 i co wówczas mamy zrobić? Większość decyduje się na współpracę z firmami zajmującymi się SEO, optymalizują serwisy pod wyszukiwarki aż w końcu decydują się na tak zwany linkbuiding (zaczynają zdobywać linki przychodzące).
Metod zdobywania linków jest nadal całe tysiące. Oczywiście wszystkie są zabronione a samo pozycjonowanie uważane za złe, nie mniej chyba nie istnieją wyniki organiczne w całej ogólnoświatowej sieci ma komercyjne hasła, które nie zostały zmanipulowane przez pozycjonerów. Internet nie pokazuje naturalnych wyników opartych o algorytm jakości Google, tylko to co wypracowali pozycjonerzy.
Pułapki linkowania:
Linki ze słabych miejsc, które powodują zagrożenie kary od Google (filtr lub ban – filtr to obniżenie pozycji w wynikach Google a ban to całkowite usunięcie), to tylko jedno z zagrożeń. Algorytm analizuje więcej czynników, które mogą wskazywać na naszą działalność ukierunkowaną na manipulowanie wynikami SERP. Np. jeśli przyrost linków jest zbyt szybki (jesteśmy niecierpliwi), linkujemy zbyt agresywnie używając w linku za często jednego słowa kluczowego (np. ciągle linkujemy na słowo „fundacja” licząc na szybki efekt związany z tym właśnie wyrażeniem).
Pozycjonerzy stosują całą gamę metod przez automaty, które piszą na forach, tworzą profile, symulują zachowania internautów, a nawet włamują się na inne strony i dopisują linki do już istniejących treści.
Bardzo popularnym i tępionym rzez Google sposobem zdobywania linków są artykuły sponsorowane celowo kupowane pod SEO i linkbuilding np. zaplecza pozycjonerskie. Zdarzało się niejednokrotnie, że Google nadawał kary (algorytmiczne lub ręczne) za takie działania.
Rodzaje kar od Google:
Kara algorytmiczna, to inaczej kara wnikająca z czynników czysto matematycznych, która obniża naszą widoczność na podstawie działań, które są wykryte przez bota Google a potem przeanalizowane przez algorytm. Naprawa sytuacji w przypadku tej kary nie jest rudnym zadaniem, jeśli mamy do dyspozycji fachowca SEO, który potrafi rozpoznać negatywnie działające czynniki.
Analizę zazwyczaj zaczynamy od audytu SEO strony www (pomocne są narzędzia typu srceaming frog) a następnie przechodzimy do badania linków przychodzących.
Usuwanie linków spamowych i takich, które mogą mieć zły wpływ na stronę www (np. źle dobrany anchor tekst, linki z artykułów sponsorowanych itp.) zaczynamy od dobrej analizy i planu na zmianę linkowania.
W przypadku linków nie wystarczy, że źródło jest dobre (strona, która do nas linkuje). Liczy się również słowo z jakiego linkujemy (już wspominałem o tym), wiek linka (czym dłużej jest w sieci tym lepiej), miejsce położenia w stosunku do innych linków (farmy linków na jednej stronie nie mają większego sensu).
2. Optymalizacja strony www typowo pod SEO
• Odpowiednio dobrane tytuły
• Opis, unikalne treści z odpowiednim nasyceniem słowami kluczowymi.
• Wyczerpany temat poruszany na stronie – treści w oparciu o czynniki tdl
• RankBrain – algorytm, który ocenia strony www po zapytaniach (wpisywanych hasłach, ich długości, nawet popełnianych błędach).
3. UX strony, czyli czy nas serwis jest dostatecznie przyjazny dla użytkowników.
4. Pozostałe czynniki, o które również warto zadbać i które mają wpływ na pozycje w SERP:
– wiek serwisu oraz jego historia na przestrzeni czasu, ma to bezpośrednie przełożenie na wiek domeny, co jest również czynnikiem rankującym (wpływającym na wyniki).
– sygnały z mediów społecznościowych
Złote zasady w SEO, czyli jak optymalizować i pozycjonować strony www, żeby osiągnąć sukces.
SEO to sztuka. Jest jak taniec – nigdy nie wiesz, czy zabłyśniesz, czy też się potkniesz i będą się śmiać. Doświadczony pozycjoner wie, że cierpliwość i rzetelność w dążeniu do celu to podstawa. Należy jednak pamiętać, że nawet duży nakład pracy i duże inwestycje nie gwarantują sukcesu w SEO. Po drugiej strony barykady stoi agresywny i inteligentny przeciwnik, który a na celu jedno – maksymalizowanie swojego zysku. Mówię o Google.
Dobre SEO zaczynamy od nastawienia na jakość. Jeśli chcemy szybkich i wielkich efektów to nie oczekujmy, że będą trwałe.
Zaczynamy budować dobry serwis z nastawieniem na dobre SEO:
Ważna uwaga: rynek jest pełen sprzedawców a nie specjalistów. W niektórych firmach SEO, hostingach, czy nawet serwisach rejestrujących domeny dominuje dział call center z nastawieniem na sprzedaż za wszelką cenę. Nie oczekujmy jakości a raczej spodziewajmy się pułapki, w którą wpadniemy i będziemy musieli ponosić dużo większe koszty niż gdybyśmy rozsądnie wybrali. Poniżej podam przykłady i opiszę czego powinno się unikać.
Domena – zakup domen to często pierwszy krok w dążeniu do zawojowania sieci. Domena ma kolosalne znaczenie z punktu widzenia tego, co się później stanie.
Po pierwsze rozszerzenie – najlepiej, jeśli jest to domena wyższego rzędu (.com, .pl). Nie jestem zwolennikiem regionalnych i egzotycznych domen (chociaż i t nie wyklucza dobrego efektu w SEO – rozszerzenie nie jest tu przeszkodą dla algorytmów), ale…. W świadomości internautów domeny wyższego rzędu mają większe znaczenie a oprócz tego jeśli kupimy domenę np..com.pl i zdobędziemy popularność w sieci to część ruchu przekierujemy na właścicieli domen „łatwiejszych do zapamiętania: czyli z naszą nazwą ale o rozszerzeniu .pl czy .com. Przykładem niech będzie telewizja Polsat, która przez lata posługiwała się rozszerzeniem .com.pl i naturalnie „nabijała” oglądalność stronie z rozszerzeniem .pl, która należała do lokalnego serwisu satelitarnego. Obecnie ten stan się zmienił, ale nie jest to odosobniony przypadek.
Nazwa domeny – najlepsze nazwy (tzw. generyczne zazwyczaj są zajęte), nie wyklucza to jednak znalezienie dobrej i czytelnej nazwy. Idealnie, jeśli będzie łatwa do zapamiętania i wpisania przez użytkownika. Wyobraź sobie, że wykupujesz baner na drodze, kierowcy mają tylko parę sekund żeby zauważyć twoją reklamę z nawą serwisu www i zapamiętanie jego nazwy a po pewnym czasie wpisanie go poprawnie w przeglądarkę, żeby odwiedzić Twoją stronę.
Dotychczasowa historia domeny – z punktu widzenia pozycjonowania to ważny czynnik. Zła historia domeny może na nas negatywnie wpływać. Jeśli z jakiś powodów Google ukarał poprzedniego właściciela domeny może chciała się on jej pozbyć? Np. stał na niej serwis, do którego sztucznie zdobyto tysiące linków o bardzo niskiej jakości. Nie będzie łatwo wyczyścić trwale taką historię a złe wzmianki o domenie nie znikną nigdy (a przynajmniej będzie to bardzo trudne).
Historię domeny sprawdzisz w tym miejscu: https://web.archive.org/
Linki przychodzące do domeny sprawdź jednym z narzędzi zliczającym linki np., seomajetic https://ahrefs.com/
Rejestracja domeny – nie dajcie się nabrać na pseudo promocje za złotówkę.
Tworzymy stronę www
Ten temat wymagałby osobnego artykułu. Moja rada – nie podejmuj decyzji pochopnie. Stworzenie prostej strony/wizytówki to naprawdę bardzo proste zadanie, stworzenie strony na popularnych cms typu wordpress to również koszt bardziej widoku (grafik) oraz ustawień niż jakieś obsługi informatycznej. Inna sprawa ma się w przypadku rozbudowanych serwisach lub sklepach internetowych. W takim przypadku każdy temat musi być rozważony rozsądnie oraz odpowiednio do powagi sytuacji. Na rynku mamy wiele rozwiązań, które można zastosować a umiejętne ich dobranie może zaoszczędzić czas, pieniądze a co najważniejsze jest bardzo istotne z punktu widzenia SEO.
Wybieram hosting
Wiele osób sądzi, że hosting musi być drogi. Tymczasem utrzymanie niedużego serwisu www a tym bardziej prostej strony firmowej nie powinno kosztować więcej niż 50 zł rocznie.
Zwracaj uwagę na podpisywaną umowę, cena powinna być stała również po przedłużeniu o kolejny rok. Przed zamówieniem hostingu musisz wiedzieć jakie parametry zapewnia dostawca. Czy obciążenie serwera nie będzie za duże i czy twoja strona internetowa będzie płynnie „chodziła”. Sprawdzenie opinii na temat właściciela hostingu, szczególnie na forach (np. PiO) to najlepszy pomysł. Wielu dostawców hostingu manipuluje opiniami w sieci, tworzy własne rankingi i przedstawia się w dobrym świetle.
UX strony www czyli nastawienie na użytkownika to podstawa.
Wartościowy i ciekawy serwis to absolutna podstawa, ale oprócz tego forma w jakiej przedstawimy informacje na stronie ma również niebagatelne znaczenie. Nawigacja strony www powinna ułatwiać poruszanie się po stronie, teksty i obrazki zaprezentowane w zrozumiałej formie.
Checking the numbers. Close up of young business people analyzing data using computer while working in the office
Generalnie Twoja strona www powinna zachęcać do pozostania na niej, być intuicyjna dla użytkowników i jasno komunikować swój przekaz. Wielu twórców stron www próbuje silić się na oryginalność i wymyślić coś swojego, innego. I tak mieliśmy już serwisy w formie komiksów, stronny jednokolorowe itp. Niestety, ale ludzie oczekują rzeczy sprawdzonych. Nie chcą marnować swojego cennego czasu.
Bywa i tak, że serwisy, które cieszą się dużą popularnością w danym kraju wyznaczają trendy dla UX. Dlaczego? Ponieważ stosowane przez nie rozwiązania znają miliony użytkowników i jeśli się do nich przyzwyczają, to oczekują podobieństw w innych miejscach (stronach www). Tak jest np. z filtrami i sortowaniem produktów w serwisach aukcyjnych. Ebay, allegro przyzwyczaiły swoich klientów i jeśli będziesz tworzył sklep to dobrze zapożyczyć z tych stron gotowe rozwiązania. Przynajmniej twoi klienci napotkają znane już sobie rozwiązań.
Jak już twoja strona zobaczy światło dzienne powinieneś zacząć monitorować ruch i weryfikować swoje wszystkie zmiany. Najlepiej zacząć od instalacji darmowych statystyk dostarczanych przez Google Analytics https://www.google.com/analytics/. Do większości serwisów te statystyki są wystarczające. W zasadzie korzystają z nich nawet wielkie koncerny.
Poniżej przykład widoku statystyk z Google Analytics:
Dla osób, które chcą bardziej skupić się na poprawie UX przydatne będą takie narzędzia jak hot jar, który pozwala nagrywać zachowania użytkowników na stronie (30 di darmowego dostępu powinno wystarczyć d zebrania danych) oraz vwo, którym prowadzi się testy AB. Testy te polegają na podstawianiu użytkownikom najpierw strony a po pewnym czasie zamienia się stronę na wersję b (dlatego testy ab). W następnym kroku analizujemy skutki w statystykach (poziomy odrzuceń stron, ilość odwiedzających itp.). Na tej zasadzie ulepsza się serwisy do skutku.
Treści na stronie.
Jeśli planujesz zaistnieć w wynikach naturalnych Google powinieneś mocno skupić się na testach, które publikujesz. Nie chodzi tylko o to, żeby były unikalne i pisane specjalnie dla Twojej strony www, ale również o to, że powinny być ciekawe, dobrze zredagowane i przystępnie przedstawione. Tytuły, cytaty, listy a wszystko uzupełnione infografikami, zdjęciami oraz filmami. Zobacz, jak wyglądają strony z artykułami popularnych serwisów informacyjnych.
Ważne aspekty techniczne
Serwis powinien wyświetlać się na wszystkich urządzeniach, w tym na mobilnych. Responsywność strony www to obecnie podstawa (https://www.google.com/webmasters/tools/mobile-friendly/ – miejsce, gdzie można sprawdzić czy twoja strona jest przyjazna wszystkim urządzeniom).
Google wręcz zaczyna preferować urządzenia mobilne a indeksy dla komputerów stacjonarnych i urządzeń mobilnych zostają rozdzielone z tym, że te drugie zaczynają brać pierwszeństwo. W niektórych krajach posługiwanie np. smartfonem staje się popularniejsze niż używanie laptopa wiec nie jest dziwne, że Google przywiązuje o tego taką wagę. Nie chcesz chyba, żeby ktoś nie mógł przeczytać Twojej strony www bo nie została dostosowana do tego typu urządzeń?
Skrypt, na którym zbudujesz swój serwie ma również duże znaczenie. Nie może zawierć błędów, powinien być zabezpieczony przed atakami hakerów, a ponad wszystko powinien zapewniać ciągłość pracy twojej strony www (efektywność działania). Przez zły wybór skryptu na którym zbudowany jest sklep internetowy wiele firm musiało ponieść duże koszty modernizacyjne. Ważnym argumentem przy wyborze skryptu są dodatki, np. pluginy SEO (przyjazne url, przekierowywanie linków itp.). Polecam poradzić się kogoś doświadczonego na rynku a potem podejmować decyzję.
Bardzo ważne jest, żeby nasza strona sprawnie działa, szybko się wyświetlała i była dostępna 24/dobę. Bez dobrego serwera/hostingu nie jest to możliwe. Niewielkie strony firmowe ni potrzebują drogich serwerów dedykowanych.
Dostawców hostingu jest tak wielu, że polecam spytać się kogoś doświadczonego o polecenie (np. twórcy strony www). Pamiętaj o jednym – jeśli korzystasz z w miarę nowego dostawcy hostingu to koniecznie zachowaj sobie kopie bezpieczeństwa swojej strony internetowej. Niektórzy dostawcy hostingów zamykają swoje firmy bez powiadomienia usługobiorców i wszystkie nasze dane znikają. Znam wiele takich przypadków. Najczęściej takie sytuacje mają miejsce, gdy opłacalność prowadzenia usługi mija się z sensem.
Optymalizacja strony www pod wyszukiwarki:
– przyjazne url, czyli adres podstron czytelne nie tylko dla robotów, ale również dla użytkowników. Strona westom/kariera lub westo/kar-polski222 – która ze stron jest łatwiejsza do zapamiętania i wpisania bezpośrednio z klawiatury?
– responsywność serwisu,
– odpowiednia struktura serwis www: jasny podziała na części serwisu, prosta i intuicyjna nawigacja,
Użytkownik powinien w maksymalnie 3-4 krokach (kliknięciach) dojść do każdej podstrony, która go interesuje.
– wewnętrzne linkowanie: serwis powinien posiadać sitemap (wykonaną zgodnie z zaleceniami Google. Sitemap to inaczej spis stron w jednym miejscu w formie listy w przyjaznym dla botów formacie (np. XML). Sitemap oprócz umieszczenia na stronie powinniśmy poinformować Google o jej istnieniu i podać link no niej w search console google.
W przypadku dużych serwisów/sklepów stajemy czasami przed problemem wielkości sitemap. Google z jednej sitmap pobiera „tylko” 50 tyś url więc jeśli nasz sklep ma więcej podstron powinniśmy stworzyć więcej sitemap niż jedna i również zgłaszać ją do search console.
Treści, które publikujemy muszą koniecznie być unikalne oraz interesujące z punktu widzenia osoby, która ma je czytać. Pisałem o tym wyżej, ale oprócz tego należy pamiętać o pewnych zasadach typowo pod algorytmy. Jeśli zależy nam na wyróżnieniu jakieś frazy, to musimy odpowiednio często użyć zdanie/słowo użyć w treści. Tytuły (H1 -h6), podkreślenia, akapity, to podstawa dobrze zoptymalizowanej strony z tekstem.
Oprócz wymienionych czynników pamiętajmy o długości tekstu (należy wyczerpać temat, niektórzy uważają, że tekst poniżej 300 słów nie ma sensu). Zadbajmy o wizualną oprawę strony. Zdjęcia z atrybutem alt (boty czytają go zamiast obrazka, z którym jeszcze mają problem – chociaż OCR zaczyna pomału wchodzić jako element algorytmu).
Zadbajmy o nazwy linków, które umieszczamy w serwisie i na serwerze. Niech mają proste i łatwe do zapamiętania tytuły. Może się zdarzyć, że te same liki będziemy umieszczać w innych miejscach (np. YouTube i filmy, gdzie nazwy plików mają znaczenia). Oprócz tego zachowanie logii i konsekwencji w nazewnictwie pozwoli nam uniknąć chaosu i bałaganu. Zachowaj taką samą regułę jak przy przyjaznych adresach url – nazwy poszczególnych wyrazów rozdzielaj myślnikiem. Przykład pliku z filmem: film-mazury.mvk.
Najważniejsze atrybuty strony:
Title strony (oraz podstron) – tytuł strony to a kodzie html title. Wyświetla się on w zakładce przeglądarki oraz jest pierwszym elementem czytelnym dla botów. Title daje pierwszy sygnał o czym jest strona, wyświetla się jako tytuł w wynikach wyszukiwania i jest „wabikiem” na użytkownika.
W tym miejscu powinniśmy użyć słów, kluczowych na których nam szczególnie zleży, jednocześnie pamiętając o fakcie, że nie można ich nadużywać (Praca praca praca), mamy ograniczoną ilość znaków (50-60), oraz że sens jest najważniejszy.
Descripton – z punktu widzenia wpływu na pozycji i widoczność nie ma obecnie te atrybut większego znaczenia. Wiele osób przy tej okazji zapomina, że description wyświetla się w wynikach wyszukiwania Google zaraz pod tytułem i adresem strony. Jest 2-3 najważniejszym czynnikiem który może zachęcić użytkownika w kliknięcie i odwiedzenia strony. Szczególnie pierwsze i o tanie fragmenty tego atrybutu mogą być istotne. Napisz ciekawą informację o czym jest storna, postaraj zmieścić się w 250 znakach. CO prawda przeglądarka i Google wyświetli tylko pierwsze 150 znaków (czasami więcej) ale korzystaj z możliwości pokazywana co masz najlepsze i zareklamuj się na poziomie. Jeśli nie napiszesz samodzielnie decription to gogle pobierze samodzielnie tekst z twoje strony wyświetli to w description. Zdarzają się też sytuacje, gdzie nawet po napisaniu opisu samodzielnie Google bot wybiera treści ze strony i je serwuje użytkownikom. Google wie lepiej. ????
Jak mierzyć efekty naszej pracy?
SEO łatwo mierzyć. Wystarczy monitorować kilka czynników:
– oglądalność naszej strony – czyli ilość unikalnych użytkowników, którzy odwiedzają naszą stronę za pośrednictwem wyszukiwarki (np. Google). Możemy skorzystać w tym przypadku z połączenia naszej strony z darmowym narzędziem Google Analytics, który w przejrzysty sposób prezentuje dane statystyczne o naszej witrynie. Istnieje całe multum narzędzi do sprawdzenia oglądalności, poczynając od logów na serwerze, po darmowe i płatne wersje programów Analytics, Yandex Metrica i wiele innych.
– monitorowanie słów kluczowych. Po wpisaniu w Google słowa kluczowego, które nas interesuje, nad którym pracowaliśmy (SEO) powinniśmy pojawić się wysoko w wynikach wyszukiwania. Niestety tylko czołowe pozycje (1-4) gwarantują wejścia z danego słowa. Pierwsza 4 zbiera prawie całą widownię w Internecie, a na drugą stronę wyników (ponad 10) praktycznie nikt nie patrzy. Istniej cała masa programów, które sprawdzają pozycje słów kluczowych oraz całych wyrażeń. Np. sistix, czy też świetny polski program stat4seo. Zazwyczaj sprawdzanie wielu słów wiąże się z kosztami z prostego powodu. Google nie pozwala na powtarzanie zapytań. Szybko blokuje takie IP. Oprogramowani do sprawdzania wielu słów kluczowych wymaga zmiany IP po przez tzw. proxy. Niestety takie rozwiązanie nie jest darmowe. Koszt rzędu 5-10$ miesięcznie dla r20-100 słów kluczowych przy codziennym sprawdzaniu pozycji nie jest wygórowany.
– narzędzia do monitorowanie widoczności SEO. Powstało dziesiątki narządzi do sprawdzania widoczności serwisów www oraz porównania słów kluczowych oraz konkurencji. Niestety darmowe wersje tych narzędzi praktycznie nie przedstawiają żadnej wartości. Takie narzędzia jak SISTRIX, Semrush to dla niektórych początek dnia i ocena co się dzieje w Internecie ze stronami www.
Bardziej zaawansowani specjaliści SEO sprawdzają inne czynniki takie jak linki przychodzące (seomajestic, ahresfs), czynniki optymalizacyjne na stronie (audyty screamig frog itp.),
Czy da się samodzielnie wypozycjonować stronę www?
Atrybutem każdego specjalisty od SEO jest wiedza i cierpliwość. Zdobywanie widoczności w sieci zajmuje czasami długie lata.
Należy również pamiętać, że nie jest możliwe być na 100% pewnym, że osiągnięta widoczność i pozycje są na zawsze. Wystarczy zmiana algorytmu, działania konkurencji i musimy zaczynać pracę prawie od nowa. SEO to proces długi i stały. Samodzielne pozycjonowane jest jak najbardziej możliwe.
Jak zauważyliście czytając ten tekst stawiam na jakość i unikalność. Zrób to samo na początek oraz zadbaj o użyteczność strony. Większość z tych zadań da się wykonać intuicyjnie. Świadomość użytkowników jest tak duża, że na niektóre tematy mamy wiedzę zupełnie sobie nie zdając z tego sprawy. Jeśli Twój serwis będzie ciekawy, przyjazny użytkownikom oraz intuicyjny w obsłudze, to pierwszy krok w SEO masz już zrobiony. Potem pozostaje tylko zdobyć popularność w sieci i linki, linki, linki do strony.
Czarne SEO, czyli black hat
Internet to źródło pieniędzy. Nie dziw się więc, że niektórzy posuwają się do mało etycznych działań. Skoro algorytm Google da się zmanipulować, to dlaczego tego nie zrobić? Z takiego założenia wychodzą niektórzy SEO specjaliści. Oprócz tego niektóre branże charakteryzują się wysokimi dochodami (no. Kasyna online, pożyczki, lekarstwa) co skutkuje chęciami łatwego i szybkiego zysku.
Jakie więc techniki stosują pozycjonerzy?
Po pierwsze to zdobywanie linków w nielegalny sposób, np. po przez włamania do innych stron. Przejmowanie wartościowych domen (takich, do których prowadzą silne linki) oraz stawianie w tym miejscu (tzn. pod adresem domeny) fałszywego serwisu, którego celem jest wyłącznie publikacja linku.
Przykład: pozycjoner przejął wygasłą i nieprzedłużoną domenę fundacji, która działała na rynku wiele lat i do której prowadzą silne linki np. ze stron rządowych. W ciągu paru dni pozycjoner tworzy stronę www na popularnym i darmowym skrypcie WordPress, tworzy treści podobne do starego serwisu i symuluje, że serwis działa w podobnej formie jak przed przejęciem domeny. Po pewnym czasie pozycjoner wykorzystuje do tworzenia linków.
Metod pozycjonowania niedozwolonymi technikami jest więcej niż metod white hat. Na rynku jest masa produktów do przeszukiwania sieci i publikacji linków.
Google walczy z tego typu metodami ale dopóki działają przekierowania, dopóty takie metody będą działać. Dlaczego? Może to stwierdzenie o przekierowaniach nie wydaje się jasne wszystkim. Chodzi o to, że można stosować niedozwolone metody w pewnym sensie bezkarne a siłę SEO tylko przekierowywać na strony docelowe. Dzięki takiej strategii w każdej chwili możemy odciąć się od kar i filtrów. Wystarczy zmienić lub usunąć przekierowanie. Jak to działa w praktyce? Przejmujemy domenę którą pozycjonujemy niedozwolonymi metodami (np. automaty do tworzeni postów na forach, księgach gości, zaplecza pozycjonerskie, kupowanie linków, PBN) a jeśli na się powiedzie i domena osiągnie zakładane efekty to wykorzystując przekierowanie 301 przenosimy zbudowaną moc na docelową domenę.
Metod BHS (black hat seo) jest niestety więcej niż WHS (white hat seo). Nie chcę promować tej drogi, więc nie będę się rozpisywać na ten temat. Wspomnę tylko, że ciężko się ustrzec przed hakerami, którzy coraz częściej zajmują się SEO. Z prostego powodu: pieniędzy, które za tym stoją. W Internecie prym wiodą strony, za którymi stoją największe pieniądze (erotyka, hazard, lekarstwa).
Google zdając sobie sprawę, że Internet jest zarzucony nielegalnymi i spamowymi linkami udostępnił nawet narzędzie w search console do usuwania niechcianych linków (disavow) ale uważam, ze tego typu działanie powinno być ostatecznością. Po pierwsze trzeba dbać o jakość przychodzących linków od samego początku powstania serwisu. Droga na skróty nie sprawdza się w tym przypadku.
Co to oznacza dobry specjalista SEO?
Dobra firma SEO to po pierwsze doświadczeni pozycjonerzy co często mija się z umiejętnościami sprzedażowymi. Dobry specjalista SEO nie obiecuje gruszek na wierzbie. Wie, że pozycjonowanie to proces długotrwały nigdy nie można mieć pewności sukcesu. Nie pytaj co firma osiągnie z twoją stroną, pytaj co osiągnęli do tej pory. Poproś o adresy przykładowych serwisów, referencje od klientów, najtrudniejsze zadania z jakimi się mierzyli i jak je można sprawdzić w Internecie. Możesz np. spytać się o najtrudniejsze pozycjonowane słowo i wpisując je w wyszukiwarkę bezpośrednio sprawdzić efekty a klikając w stronę napisz do właściciela i dopytaj się czy pozycjoner nie kłamie i nie przypisuje sobie efektów czyjeś pracy.
Co o są kary od Google?
Google zabrania pozycjonowania w takiej formie, w jakiej jest to najskuteczniejsze czyi np. zdobywania odnośników (linków) do naszej strony www. Wg Google powinniśmy tworzyć wartościowe i dobre technicznie serwisy i czekać cierpliwie na popularność. Google zostawia sobie furtkę w postaci kar, dzięki czemu może obniżać nasz ranking w sieci i wpływać na naszą widoczność. Przykład: kupiłeś 100 mocnych odnośników, wszystkie na jedno słowo kluczowe, z którego prowadzi link do twojej strony internetowej. Algorytm Google (lub pracownik Google) zarejestrował te działania i nałożył filtr w postaci obniżenia widoczności na linkowane słowo (anchor text). W wyniku tego zamiast poprawić soją widoczność straciliśmy swoje dotychczasowe pozycje.
W skrajnym przypadku Google może nas całkowicie wyrzucić ze swojego indeksu. Tak się dzieje, jeśli nasze manipulacje wynikami wyszukiwania są wyjątkowo napastliwe i spamowe.
Siedziba Google w Mountain View:
Jak długo może trwać pozycjonowanie?
Pozycjonowanie to stały proces, który powinno się wykonywać stale. Wiele osób pyta jak szybko można zauważyć efekty pozycjonowania. Nie można tego przewidzieć ze 100% pewnością. Na szybkość osiągnięcia wyników ma wpływ tak wiele czynników, których nie da się szybko zmienić. Np. wiek domeny na której działa serwis, dotychczasowa historia serwisu, ewentualne kary od Google w przeszłości, sam serwis: rozwiązania techniczne, optymalizacja, unikalność treści, siła konkurencji itp.
Generalnie w każdym przypadku (nawet gdy zaczynamy od samego zera) pierwsze efekty powinny być widoczne po około 3 miesiącach. W skrajnie trudnych przypadkach trzeba czekać nawet rok.
Jaki jest koszt pozycjonowania?
Po pierwsze należy policzyć koszt optymalizacji serwisu: czynniki wewnętrzne takie jak skrypt, optymalizacja treści (unikalność) oraz UX to sam początek.
Następny krok to działania zewnętrzne, czyli promocja i linkbuilding. Jeśli jesteś kreatywny i potrafisz zdobyć popularność bez płacenia za nią, ,to chwała tobie. Zazwyczaj jednak zmuszeni jesteśmy płacić za linki lub korzystać z usług agencji. Jakie to koszty? Na pewno nie małe. Minęły czasy „9 zł” za frazę. Dobre pozycjonowanie musi kosztować bo jest trudne i kosztowne. Chyba, że chcesz żeby Google ukarał cię za spam.
Umowa o pozycjonowanie. O czym powinniśmy pamiętać?
Wiążąc się z agencją SEO umową koniecznie musisz pamiętać o kilku ważnych punktach. Po pierwsze zabezpiecz się przed nieetycznymi działaniami agencji. W przypadku efektu odwrotnego od zamierzonego, czyli otrzymania kar od Google (szczególnie po jakimś czasie) agencja musi odpowiadać za ten stan i usunąć negatywne skutki działania. Po drugie po zakończeniu umowy nie może być tak, że agencja usunie wszystkie odnośniki, które prowadzą do Twojej strony www, bo to również grozi natychmiastowymi spadkami w rankingu i widoczności. Po trzecie wszystkie rozliczenia muszą być jasno i dokładnie sprecyzowane.
Anchor text, czyli słowo kluczowe, czym różni się od długiego ogona (long tail)?
Anchor text to fraza, z której tworzymy odnośnik linka. Przekładem niech będzie słowo „fundacja” czy też zlepek słów „fundacja pomocy dzieciom”. Long tail czyli długi ogon to zlepek wielu słów, wręcz układające się w zdanie. Przykładem może być na przykład: „fundacja pomocy dzieciom z biednych rodzin z Łodzi i okolic”.
W co klikają użytkownicy po otrzymaniu wyników wyszukiwania?
Dobrze ilustrują wyniki badania, które jednoznacznie wskazują na to, że użytkownicy klikają w pierwszym rzędzie wyniki naturalne pod mapkami google …. (infografika).
Czy SEO dla Google działa również na inne wyszukiwarki?
Każda wyszukiwarka kieruje się swoim algorytmem. Generalnie wszystkie firmy, k™óre sa właścielami wyszukiwarek twierdzą, że dążą do wyświetlania jak njtafniejszych wyników. Róznei to jednak bywa, Bimg, Yandex, Google generalnie opierają się o czynnk treści oraz linków przychodzących ale różńy jest sposób zbierania i oceniania tych czynników.
Podobnie jest z wyszukiwarkami funkcjonującymi w różnych serwisach np. YouTube ma swoje zasady. Krótko przedstawiam je poniżej:
SEO dla kanałów:
– dedykowana grafika dla każdego z kanałów
– dedykowane miniatury dla każdego filmu,
– dodaj linki do naszych serwisów/sklepów/Facebook
– usuwamy sekcję “podobne kanały”
– dodajemy sekcję “polecane kanały” =, umieszczamy nasze inne kanały,
– dodajemy zwiastun kanału,
= porządkujemy playlistę tematycznie (kanały, języki),
Publikowane filmy:
1. Tytuł – chwytliwy, ciekawy, z użyciem słowa kluczowego, nie dłuższy niż 60 znaków
2. Opis – użyteczny dla widza, początek opisu z najistotniejszymi informacjami, użycie słowa kluczowego 3/4 razy w tekście, opis powinien mieć przynajmniej 250 wyrazów,
3. Tagi – słowa kluczowe związane wyłącznie z filmem, rzeczowniki i parę przymiotników, nie wolno nadużywać tego atrybutu
4. Kategoria – po wgraniu filmy w części “zaawansowane ustawienia” należy wybrać odpowiednią kategorię do jakiej film najbardziej pasuje
5. Miniaturka filmu – unikalna dla każdego filmu, najlepiej z napisem/logiem
6. Znaczenie mają również: jakość filmu, dźwięk, subtitles
7. Nazwa pliku wgrywanego do YouTube: powinien zawierać słowo kluczowe, słowa proszę rozdzielać “-”
Czynniki zewnętrzne:
1. Akcje subskrybentów kanału – komentarze oraz nasze odpowiedzi, polubienia filmu
2. Linki zewnętrzne do kanału: Facebook, Twitter itp.
Dla YouTube ważne jest również:
1. staż kanału – na to musimy poczekać
2. jak reagują widzowie na film: czy oglądają do końca, czy przerywają w połowie itp
3. Powielanie filmu na innych kanałach społecznościowych
Jak widać SEO to bardzo szerokie pojęcie i oprócz ogromniej wiedzy wymaga doświadczenia oraz ciągłego śledzenia trendów i zmieniających się algorytmów.
Czy warto kształcić się w zawodzie SEO?
Internet stał się podstawowym źródłem dochodów dla wielu firm a praktycznie dla wszystkich jest miejscem wymiany informacji. Rynek pracy jest praktycznie nienasycony specjalistami w branżach związanych ze sprzedażą i marketingiem internetowym. Specjaliści SEO są na wagę złota dla każdej firmy i długo ten trend będzie się utrzymywał.
Po wdrożeniu optymalizacji na stronę www warto zrobić audyt stron internetowych - zobacz poradnik.
Pozycjonowanie i optymalizacja stron internetowych to wiedza, która niektórzy porównują do sztuki. Nie można się jej nauczyć a dostęp do sprawdzonych i skutecznych metod jest bardzo ograniczony. Chętnych do osiągania wysokich pozycji są miliony a miejsc zaledwie kilka.
Słownik:
SERP (ang. search engine results page) – wyniki wyszukiwania w wyszukiwarce
Content – Zawartość stron/witryn: tekst, obrazki. Kiedyś obowiązywała zasada „Content is King” – czyli najważniejsza dla pozycjonowania na stronie jest jej zawartość/treść – content
Duplicate Content Penalties – Tworzenie kilku kopii jednego dokumentu lub strony, w przypadku kopii strony mówi się o mirrors strony
IBL – Inbound Links – Liczba linków wskazujących na dany adres pliku/strony www, najlepiej z odpowiednim anchor textem
Index/indeks stron – Zbiór stron dostępnych w danej wyszukiwarce – stron zindeksowanych przez robota wyszukiwarki
Naturalne linkowanie – Polega na rozpowszechnianiu w sieci linków do strony bez budowania specjalnych do tego celu stworzonych stron
OBL – Outbound Links – Liczba linków wskazujących na zewnętrzne adresy plików/stron www
Algo Update – Algorithm Update – Zmiana algorytmu odpowiadającego za rezultaty SERP
Site – Liczba zaindeksowanych przez wyszukiwarkę podstron witryny