Wzrost wydatków na promocję online?

Bez kategorii Styczeń 12th, 2010

Ostatnie newsy ze świata SEO to przede wszystkim prognozy odnośnie rozwoju marketingu internetowego. 2010 może być rokiem wzrostu wydatków na promocję w sieci. Coraz więcej firm widzi korzyści z aktywnego istnienia w sieci. Wielkie oczekiwania są wobec real time searching i znacznego poprawienia wyników wyszukiwań pochodzących z serwisów społecznościowych typu facebook, twitter, myspace.
Twitter najmocniej idzie w kierunku rozwoju wyszukiwarki real time. Szukanie nowego pomysłu, nie bycia drugim google, to moim zdaniem zbyt duże wyzwanie :) – zobaczymy

Serwisy społecznościowe – ile ich zostanie zamkniętych?

Marketing internetowy, serwisy społecznościowe Listopad 23rd, 2009

Okres 2007 – 2008 przypada na szczyt manii Web 2.0. Co drugi powstający serwis był społecznościowy, tworzony przez użytkowników wokół danej grupy czy wspólnych zainteresowań. W związku z tym, że w 2000 roku już raz było przeinwestowanie w internet – tzw bańka internetowa, marketingowcy za wszelką cenę chcieli odróżnić się od początkowego okresu powstawania sieci, stworzyć coś lepszego – przynajmniej z nazwy – przyjęło się określenie Web 2.0.

Kto to jeszcze pamięta?
W okresie 19997 – 2000 każda powstająca strona po kilku tygodniach pojawiała się na giełdzie i na debiucie biła dotychczasowe rekordy pojawiających się praktycznie co miesiąc dotcomów. Wystarczyło mieć dobrą domenę (najlepiej domenę) naście podstron, pomysł a pieniądze sypały się z każdej strony. Wielki boom internetowy przez kilka lat tak zdominował rynek reklam, że główne wydarzenia (sportowe, kulturalne) zdominowane były przez dotcomy. Ceny reklam telewizyjnych w 2000 roku biły swoje rekordy. Każdy zakładał biznes internetowy i wchodził na Nasdaq. Eh to było eldorado dla posiadaczy serwisów i posiadaczy domen. Wtedy to właśnie były także złote czasy dla firm handlujących domenami. Nie raz każdy słyszał, że domena X została sprzedana za 1 mln zł, a domena Y za 2 mln zł. Do tej pory nawet w Polsce wyciągane są i nagłaśniane takie historie. Bańka internetowa pękła – 98% biznesów internetowych z tamtego okresu padło. Przetrwali tylko najmocniejsi. Ci którzy ulegli manii internetowej i kupili akcje stracili (index Nasdaq stracił do 2002 roku 80%). Minęło prawie 10 lat i wydaje się, że powoli rodzi się nowa mania – serwisy społecznościowe. Ile ich upadnie ?

Kofeina – nowy update Google

Optymalizacja strony Listopad 19th, 2009

Od sierpnia Google wprowadza stopniowo zmiany w strukturze baz danych i sposobie indeksowania stron. Wymusiła to konkurencja min: Bing i Twitter. Kofeina ma być szybsza – walka idzie o ułamki sekund. W AOL na podstawie własnych obserwacji zauważono, że wykorzystywanie wyszukiwarki drastycznie spada gdy czas ładowania strony przekracza 1-3 sekund. Skoro wykorzystywanie wyszukiwarki jest mniejsze to ilość kliknięć w reklamy jest mniejsza, a to oznacza mniejsze zyski. Poprawa klikalności reklam chociaż o część % to olbrzymie przychody dla wyszukiwarek.
Poprawię ma też ulec szybkość indeksowania i uaktualniania nowych stron. Już to widać, strony pokazują się już po kilku godzinach w wynikach wyszukiwania (wcześniej okres ten trwał kilka dni). Zmian mających wpływ na pozycję w wynikach wyszukiwaniach teoretycznie ma nie być, ale dopóki nowy update nie obejmie większości Data Centers można tylko sobie gdybać. Warto zwrócić uwagę na fakt, że Google poinformowało webmasterów o nowym update z kilku miesięcznym wyprzedzeniem. Obecnie Kofeina działa na jednym Data Center.

Szybkość ma znaczenie

Optymalizacja strony Listopad 14th, 2009

Przez ostatnie kilka lat uważano, że szybkość ładowania strony ma wpływ pośredni na pozycjonowanie. Im szybciej ładuje się strona, jest z optymalizowana  tym łatwiej jest ją zaindeksować robotom wyszukiwarek i przypisać odpowiednie znaczenie.  Wykonano wiele testów by sprawdzić czy prędkość ładowania strony ma bezpośredni wpływ na pozycjonowanie. Nie miało ! Sam osobiście wykonałem testy na ponad 100 stronach – optymalizując kod, zmieniając serwery o różnych parametrach łącza. Strony, które ładowały się po 20 sekund udało mi się z optymalizować tak by ładowały się 5 sekund.

Szybkość ładowania strony a wielkość sprzedaży

Optymalizację prędkości ładowania stron  wykonałem przede wszystkim z myślą o odwiedzających. Wiele wejść na wolno ładujące się strony trwały nie więcej niż 10 sekund. Wniosek jaki mi się nasunął to że powodem tak krótkiej wizyty było jest czas ładowania strony.  Odwiedzający wchodzi widzi niedogodności i wychodzi. Jeżeli zmniejszę czas ładowania strony to powinno mieć to wpływ na zmniejszenie liczby odwiedzin trwający mniej niż 10 sekund.  czytaj więcej »

Content is a King ?

Optymalizacja strony Październik 21st, 2009

Wielu webmasterów stawia tezę, że najważniejsze w internecie
jest budowanie jak największej ilości treści – “content is king”.
Treść ma olbrzymie znaczenie dla widoczności w wyszukiwarkach.
Ponad 70% korzystających z internetu wykorzystuje wyszukiwarki w
celu znalezienia informacji. Im więcej treści na stronie tym większy
ruch na stronie z “długiego ogona”. czytaj więcej »

pozycjonowanie w google

pozycjonowanie w google Wrzesień 27th, 2009

Wyszukiwarka Google jest najbardziej popularna wśród użytkowników internetu. Na największym rynku internetowym w USA  ponad 60% użytkowników wykorzystuje Google. W Polsce dominacja Google jest jeszcze bardziej widoczna. Wśród wyszukiwarek internetowych gdzie nie ma praktycznie konkurencji,  Google jest wykorzystywane przez ponad 90% Polaków.

Z tego powodu webmasterzy skupiają się przede wszystkim na pozycjonowaniu (zobacz “co to jest pozycjonowanie?“) na tej jednej wyszukiwarce.

Dlaczego tylko Google?

Google wprowadziło zasady, czyste i klarowne dla każdego webmastera. czytaj więcej »

Duplicate content

Pozycjonowanie Wrzesień 26th, 2009

Z problemem duplicate content spotkałem się osobiście kilka lat temu gdy w któryś piękny poniedziałek ilość odwiedzających strony moich klientów spadła o 95%. Szok, co się stało? Czy to tymczasowe google dance? Blog Matta Cuttsa zagotował się, było już wiele takich przypadków jak mój. Ukazała się informacja, że wprowadzono pewne usprawnienia :) .

Czym jest Duplicate content ?

Jest to rodzaj filtra, któremu poddawane są strony. Google w pewnym momencie zaczęło walczyć ze stronami o takiej samej lub podobnej treści, nie różniących się znacznie od siebie, w imię zasady by prezentować unikalną najlepszą treść użytkownikom korzystających z wyszukiwarki. Uderzyło to najpierw w serwisy gdzie brakowało unikalnych title, desc, dobrej struktury strony, które powstały w oparciu o gotowe cms’y – niedostosowane i nie z optymalizowane pod kątem wyszukiwarek. W początkowym okresie rozwoju pozycjonowania stron dobra optymalizacja strony dawała olbrzymią przewagę nawet nad serwisami, które miały wysoki Page Rank i istniały w sieci po kilka lat. Kto dobrze zaprezentował treść wyszukiwarkom zdobywał na samym starcie przewagę. czytaj więcej »