pozycjonowanie
artykuły pozycjonowanie

Jeśli Państwa strona nie znajduje się na pierwszych pozycjach w wyszukiwarkach Google, Onet i WP pod określonymi słowami warto pomyśleć nad usługą jaką jest pozycjonowanie.

¬ CZYTAJ DALEJ

Błędy SEO pod względem optymalizacji

SEO

Przed rozpoczęciem pozycjonowania bardzo ważnym elementem jest optymalizacja strony pod względem pozycjonowania. Źle zoptymalizowana strona może przyczynić się do tzw. filtrów lub banów rozdawanych złym stronom przez Google.

Nawet jedni z lepszych webmasterów którzy tworzą bardzo ładne witryny czasami nie zdają sobie sprawy że niektóre napisane przez nich elementy na stronie są nie zgodne ze standardami SEO, niektórzy nawet popełniają ewidentne błędy które mogą spowodować że Twoja strona przez bardzo długi okres nie będzie się pojawiać w wynikach wyszukiwania.

Przechodzimy do rzeczy, a więc najczęściej spotykane błędy SEO na które warto zwrócić uwagę.

1

Podwójne metatagi - sprawdź aby w kodzie strony nie znalazły się podwójne metatagi błąd ten może kosztować nawet całkowitego bana dla strony.

2

Źle dobrane metatagi - bardzo często użytkownik myśli że doda sobie słowa w metatagach typu sex , filmy chociaż jego strona jest całkiem o czymś innym, myśląc że skoro na te słowa inne strony mają dużo odwiedzin to przyciągnie dużą ilość internautów na jego witrynę, jest to błędne przekonanie, jeśli w treści strony nie ma powyższych słów kompletnie nie zwiększy ci to żadnego ruchu.

3

Zbyt długie: title, description, keywords - za dużo słów kluczowych zamiast pomóc może obniżyć wartość każdego z nich - przy ogromnych portalach w późniejszym czasie można dodać trochę więcej słów na małych portalach zaleca się stosowanie

title 64 znaków
description 200-500 znaków
keywords 500 znaków

4

Umieszczanie zdań w metatagu keywords - zaleca się nie stosowanie zdań w tym tagu należy dobierać słowa pojedyńcze maksymalnie składające się z 3 wyrazów np "pozycjonowanie stron Warszawa"

5

Identyczne lub bardzo podobne metatagi na wszystkich podstronach – metatagi mają opisywać zawartość danej podstrony, a przecież nie wszystkie podstrony dotyczą tego samego.

6

Zablokowanie w metatagach dostępu dla robotów - sprawdź czy przypadkiem nie masz zablokowanego dostępu robotów na danych podstronach, jeśli chcesz aby robot odwiedzał daną podstronę umieść taki tag

<meta name="robots" content="index,follow">

gdy natomiast nie chcesz aby robot wchodził na daną stronę umieść w metatagach taki tag

<meta name="robots" content="index,nofollow">

7

Przesadzenie że słowami kluczowymi na stronie - czasami użytkownik przeczyta pierwszy lepszy kurs pozycjonowania nie zawsze napisany przez eksperta i wszędzie gdzie popadnie umieszcza jedno słowo kluczowe w tekście strony, aby na nie wypozycjonować stronę, nasycenie słów pomaga wypozycojnować stronę lecz ich nadmiar może spowodować otrzymanie filtra na dane słowo czyli przez wiele miesięcy a nawet lat Google zablokuje ci możliwość wypozycjonowania tego słowa, im bardziej objętościowy jest tekst na stronie tym więcej powtórzeń możesz zastosować danej frazy.

8

Złe rozmieszczenie czcionek - Aby strona była zgodna ze standardami struktury kodu należy największe czcionki wstawiać w górnej części strony czyli h1 dajemy wyżej h2 niżej h3 jeszcze niżej następnie strong , b itd...

9

Zbyt częste stosowanie samych dużych czcionek h1 i h2 - Może negatywnie wpłynąć na stronę a nawet doprowadzić ją do filtra

10

Stosowanie ramek - Roboty wyszukiwarek odwiedzających twoją stronę nie czytają ramek więc nie zaindeksują zawartości w nich się znajdujących , podstrony na których są używane ramki zajmują niższe pozycje w wyszukiwarkach.

11

Zbyt dużo elementów graficznych - za duża ilość elementów graficznych powoduje wolniejsze wczytywanie strony, należy wyrzucić zbędną grafikę ewentualnie ją odchudzić zmniejszając kompresje obrazków.

12

Tworzenie strony na podstawie treści skopiowanych z innych stron - GoogleBot potrafi sprawdzić że na stronie znajdują się treści pobrane z innych stron, jeśli po wybraniu kawałka tekstu wkleimy go w wyszukiwarce możemy zobaczyć na ilu stronach widnieje dany tekst jeśli te strony będą na wyższych pozycjach od twojej GoogleBot porówna daty zaindeksowanych stron, w przypadku gdy więcej niż połowa tekstów na stronie jest skopiowana z innych portali może to grozić banem za duplicate conntent. Jeśli pobierasz artykuły z innych stron zaleca się używanie darmowego programu służącego do zamiany słów na ich synonimy który nazywa się mixer słów, można go pobrać na stronie www.polseo.com

13

Stosowanie ukrytego tekstu w kolorze tła lub z atrybutem visibility:hidden - Używanie tej techniki może zwiększyć pozycje twojej strony lecz za jej używanie Twoja strona może zostać całkowicie usunięta z wyszukiwarki Google.

14

Stosowanie podkreślników zamiast myślników w tytułach stron - zastosowanie podkreślenia typu słowo_kluczowe zostanie potraktowane przez wyszukiwarkę jako jedno słowo natomiast zastosowanie myślnika słowo-kluczowe zostanie potraktowane przez wyszukiwarkę jako słowo kluczowe i kluczowe słowo.

15

Używanie przekierowań 302 - jest złe pod względem SEO ,jeśli musisz używać przekierowania rób przekierowanie 301

16

Posiadanie na stronie tych samych treści - może obniżyć pozycje, zaleca się wtedy zrobienie przekierowania 301 lub odcięcie robotom możliwości oglądania danej podstrony.

17

Niewłaściwy tekst linków (tzw. anchor text) - Roboty wyszukiwarek wykorzystają ten tekst w celu określenia treści, do której prowadzi link. Stworzenie linka typu "kliknij tutaj" ładnie wygląda dla użytkownika lecz jeśli chcesz aby twoja strona była lepiej zoptymalizowana warto go zamienić na słowo kluczowe które określi co jest w linku np "artykuł o optymalizacji".

18

Brak przekierowania na adres z lub bez www – Google traktuje stronę z www i bez www jako dwie różne strony przez co może dojść do potraktowania jakiejś za duplicate conntent Należy w pliku .htaccess ustawić jaki rodzaj strony chcesz aby wyszukiwarka widziała jeśli chcemy aby strona była widoczna z www należy wstawić

RewriteEngine On
RewriteCond %{HTTP_HOST} ^polseo.com [NC]
RewriteRule ^(.*)$ http://www.polseo.com/$1 [R=301,L]

natomiast jeśli ma być bez www należy wstawić

RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.polseo.com [NC]
RewriteRule ^(.*)$ http://polseo.com/$1 [R=301,L]

19

Złe linkowanie wewnętrzne - Każda podstrona powinna być powiązana linkami z innymi podstronami i linkować do strony głównej. Ułatwia to ich indeksację.

20

Brak przy obrazkach wartości alt oraz rozmiaru - aby wyszukiwarka pozycjonowała także obrazki należy w ich atrybuty wstawić znaczniki alt oraz rozmiar, wpisanie atrybutu alt dodatkowo pomaga robotom określić tematykę strony.

21

Dodawanie zbyt dużej ilości altów z takimi samymi słowami kluczowymi przy obrazkach - nie zaleca się w każdy obrazek dodawać tego samego anchora w sekcje alt jeśli posiadasz wiele obrazków staraj się umieścić w nich różne anchory.

22

Błędy w pliku robots.txt - Czasami można spotkać że w pliku robots mamy wstawioną regułkę aby robot Google nie odwiedzał danej podstrony i przez to nie zostaje ona zaindeksowana otwórz plik robots.txt i sprawdź jakim podstronom został zablokowany dostęp zawartość pliku robots.txt powinna wyglądać tak:

User-agent: *
Disallow: /download/
Disallow: link.html

powyższy plik będzie blokował dostęp do katalogu download oraz pliku link.html plik robots.txt umieszcza się w głównym katalogu strony

23

Brak aktywnych odnośników - Należy sprawdzić czy wszystkie linki na Twojej stronie są aktywne, co prawda odnośniki nieaktywne nie mają wpływu na spadek witryny lecz robot indeksujący strony napotykając często takie odnośniki może szybciej ją opuścić.

24

Umieszczanie tekstów w nieodpowiednim miejscu - Wyszukiwarka bierze pod uwagę zawartość strony i teksty na niej umieszczone , teksty które są wyżej umieszczone są przez wyszukiwarki lepiej traktowane dlatego słowa zawarte w tekstach które znajdują się wyżej zajmują wyższe pozycje - jeśli to możliwe na początku tekstu stosuj nasycenie słów kluczowych na które pozycjonujesz stronę.

25

Brak standardów validacji w3c - opinie o tym czy validacja stronie jest potrzebna są podzielone, strona zgodna ze standardami w3c jest poprawnie wyświetlana przez przeglądarki internetowe oraz w niektórych przypadkach może przyśpieszyć wczytywanie strony.

26

Stosowanie mod rewrite (friendly URL) - brak mod rewrite w dzisiejszych czasach znacznie obniża pozycje Twojej strony jeśli masz możliwość stosowania przyjaznych linków nie wahaj się z ich zastosowaniem przyjazne linki powodują że link na stronie nie wygląda w ten sposób article_cat.php?id=323 tylko np artykul-o-bledach-seo.html dzieki temu twój link jest mocniejszy na słowa w nim zawarte i po wpisaniu w Google: "artykuł o błędach SEO" zajmie on znacznie wyższą pozycje od artykułu bez mod rewrite.

Aby móc wykrywać większość takich błędów Google stworzyło dla webmasterów narzędzie które potrafi wykrywać niektóre z nich znajdziecie je na stronie google webmaster tools

Możemy też użyć darmowego programu GSiteCrawler służy on do tworzenia map strony lecz także potrafi wykazać gdzie mamy zrobione złe linkowanie lub jakich podstron brakuje./

Na stronie domain tools natomiast sprawdzisz swoje seo score poprawność metatagów oraz ilość obrazków w tym brakujące alty.

Dokładną poprawność metatagów natomiast możesz sprawdzić na stronie Meta Tag Analyzer

Jeśli nie masz czasu lub obawiasz się że źle zoptymalizujesz swoją stronę zleć usługę jej optymalizacji specjalistom z www.polseo.com

Optymalizacja witryny to pierwszy proces jaki należy przeprowadzić przed przystąpieniem do pozycjonowania. Pamiętaj nie każdy webmaster zoptymalizuje twoją stronę do standardów zgodnych z SEO lecz każdy pozycjoner od tego powinien zacząć.

Perfekcyjnie zoptymalizowana witryna nawet bez usługi pozycjonowania na wiele słów powinna zająć wysokie pozycje w wyszukiwarkach internetowych.

kliknij w link Optymalizacja. i zamów profesjonalną optymalizację strony



bardzo słaby <--- Oceń artykuł ---> bardzo dobry

Glosuj: 9.4/10 (1263 oddanych glosow)

 Komentarze  

Brak komentarzy - możesz być pierwszy !


Dodaj własną opinię :


AntiBot   

Informacje o PolSeo

Zajmujemy się tworzeniem oprogramowania, pozycjonowaniem stron, przeprowadzaniem kampani SEM oraz webmasteringiem.

Aktualnie wystawione aukcje

Oprogramowanie do marketingu internetowego Aukcje Allegro
Aukcje eBay