Uwaga: Poniższy artykuł pomoże Ci w: Często zadawane pytania: Jak dokładne są prognozy ruchu w narzędziach SEO?
Podejmowanie decyzji opartych na danych w celu optymalizacji witryny jest podstawową strategią SEO i zasadą marketingu internetowego. Problem polega na tym, że musisz mieć dokładne dane, zanim pozwolisz im wpłynąć na swoją strategię marketingową.
To dobrze, gdy jest to Twoja witryna. Możesz zainstalować dowolne narzędzia analityczne bezpośrednio w swojej witrynie i zbierać możliwie najdokładniejsze dane. Możesz mieć pewne problemy, powiedzmy, ze współczynnikiem odrzuceń i nie będziesz dokładnie śledzić osób, które mają wyłączone skrypty, i być może boty mogą nieco zakłócić twoje wskaźniki, ale ogólnie jest to dość dokładne.
A co z badaniem konkurencyjnych słów kluczowych? Co zrobić, jeśli chcesz zobaczyć dane dotyczące witryny, której nie jesteś właścicielem?
Najlepsze dane pochodziłyby z przyjrzenia się ich prywatnym numerom ruchu. Ale nie możesz uzyskać dostępu do ich oprogramowania analitycznego i zebrać go dla siebie. Większość witryn nie publikuje też publicznie swoich danych. Co możesz zrobić?
Odpowiedzią jest korzystanie z zewnętrznych platform analitycznych. Witryny takie jak Semrush, Ahrefy, PodobneWeb, mozi nawet Neil Patel (dawniej Ubersuggest) ma narzędzia do prognozowania ruchu.
Pytanie brzmi, jak dokładne są?
Niestety, składa się na to wiele czynników, więc trudno odpowiedzieć na to pytanie bez wystarczająco dużej próbki. Jeśli chcesz udostępnić dane o ruchu organicznym i szacunki podane przez niektóre z tych witryn, napisz do mnie.
Od razu mogę powiedzieć jedno: nie są one tak dokładne. Semrush, na przykład, twierdzi, że ruch Content Powered spadł o 14,32% w ciągu ostatnich 30 dni. Moje dane z Search Console mówią mi, że ruch organiczny wzrósł o 23%; istnieje ogromna różnica między tymi liczbami.
Czy to oznacza, że nie warto używać narzędzi takich jak Semrush? Zupełnie nie. Oznacza to, że musisz wiedzieć, jak prawidłowo korzystać z tych narzędzi, zanim zaczniesz korzystać z dostarczanych przez nie wskaźników.
Czy te badania słów kluczowych i wskaźniki ruchu są przydatne?
Usługi takie jak Ahrefs i Semrush wykorzystują wiele różnych źródeł danych do zbierania informacji. Robią wszystko, co w ich mocy, aby być dokładnym w rzeczywistości, ale czy kiedykolwiek im się to uda?
Prawda jest taka, że nie, i istnieje wiele powodów, dla których te dane zawsze będą przybliżonymi szacunkami w porównaniu z rzeczywistym ruchem. Ale nie zniechęcaj się; jest światełko w tunelu.
1. Po pierwsze, „rzeczywistość” jest dość trudna do zmierzenia! Pomiędzy ludźmi blokującymi skrypty, przepisami dotyczącymi prywatności ograniczającymi to, co można śledzić w różnych regionach geograficznych, oraz nieodłączną trudnością oszacowania czegokolwiek na temat witryny, do której nie masz bezpośredniego dostępu, po prostu robisz wykształcone domysły. Co więcej, nawet źródła z pierwszej ręki, takie jak Google i inne wyszukiwarki, częściej wykorzystują próbkowanie statystyczne niż faktyczne monitorowanie.
Rozważając sama ilość informacji generowanych codziennie w Internecie potrafi spojrzeć na sprawę z perspektywy. Nawet megakorporacje, takie jak Google czy Amazon, nie mają mocy obliczeniowej, aby dokładnie monitorować i raportować o tym wszystkim dla wszystkich. To po prostu niewykonalne.
2. Drugim powodem jest to, że „rzeczywistość” jest subiektywna. Jeśli przeprowadzisz wyszukiwanie w Google, a następnie wylogujesz się z konta Google i ponownie przeprowadzisz dokładne wyszukiwanie, uzyskasz nieco inne wyniki. Twój kumpel siedzący obok ciebie będzie miał inne wyniki. Ktoś inny w całym mieście będzie miał inne wyniki, podobnie jak ktoś w całym kraju. Wyniki Google i większość wyników wyszukiwania w internecie jest spersonalizowana.
Każda strona zewnętrzna próbująca mierzyć dane również będzie podlegać tej personalizacji. Mogą gromadzić ogromne ilości danych, ale nadal muszą uwzględniać różnice geograficzne, testy podziału witryn, a nawet różnice w codziennym zainteresowaniu i tasowanie algorytmów Google.
3. Trzecim powodem jest kwestia oszacowania CTR (współczynników klikalności). Te narzędzia do szacowania mogą określić, że zapytanie ma 5000 wyszukiwań miesięcznie, a SERP numer jeden otrzymuje 28% kliknięć w Google, przy szacowanym ruchu w witrynie wynoszącym 1400 odwiedzających miesięcznie. Co się dzieje, gdy współczynnik klikalności nie zbliża się do 28%? A jeśli to 6%? Szacowane 1400 odwiedzających miesięcznie byłoby bliższe 300 odwiedzającym.
Rozciągnij tę logikę na tysiące stron w witrynie, a ich całkowity ruch może stanowić ułamek ich szacunków. Pozycja „numer jeden” w rankingu nie zawsze znajduje się na górze strony.
4. Dodaj do tego testy porównawcze i wszystkie reklamy, a zdasz sobie sprawę, że Internet jest wysoce spersonalizowanym miejscem i wszystko dzieje się za kulisami. Jasne, jesteś przyzwyczajony do tego, że wiesz, że Twój kanał na Twitterze, kanał na Facebooku i sponsorowane wiadomości są dostosowane, ale istnieje o wiele więcej dostosowań i personalizacji tam, gdzie nie możesz tego zobaczyć.
Polecane fragmenty w Google Discover, wyniki lokalne, wyniki zakupów w sklepach eCommerce i Google Ads pojawiają się nad pierwszym wynikiem w Google, a także są spersonalizowane i mają znaczący wpływ na współczynnik klikalności.
5. Ostatnim powodem jest to, że te narzędzia do szacowania ruchu w witrynie patrzą tylko na rankingi organicznych słów kluczowych i mierzą wyszukiwane hasła. Ruch odsyłający do linków zwrotnych z budowania linków, udostępnień w mediach społecznościowych, ruchu bezpośredniego i ruchu e-mailowego — żadne z tych źródeł ruchu nie jest uwzględniane w tych szacunkach ruchu.
6. Te narzędzia nie mają takiego samego sprzętu ani oprogramowania jak Google. Sprzęt Ahrefsa robi wrażenie, ale to wciąż ułamek wielkości centrów danych Google. Na przykład Ahrefs podaje, że mam 16,9 tys. słów kluczowych w rankingu w Google.
Ahrefs podaje, że mam 8,8 tys., a Moz, że mam tylko 14.
Czy któryś z nich jest dokładny? NIE – Lista słów kluczowych Ahrefs jest dość obszerna (około 4,4 miliarda słów kluczowych), ale nikt poza Google nie ma całej listy słów kluczowych.
Wszystko to oznacza, że jest mało prawdopodobne, aby dane o ruchu dostarczane przez te platformy były rzeczywiście dokładne w raporcie analitycznym Twojej witryny.
Nie oznacza to jednak, że te szacunki ruchu są bezwartościowe. Zajmę się tym trochę później.
Skąd pochodzą dane prognozy ruchu?
Warto wiedzieć, skąd pochodzą dane, które widzisz. Wszystkie te firmy analityczne korzystają z własnych źródeł danych, ale czasami trochę o tym rozmawiają i można wyciągnąć pewne wnioski.
Weźmy na przykład Ahrefsa. Ahrefs ma całą stronę poświęconą mówieniu o tym, skąd pochodzą ich dane o ruchu. W końcu dokładność jest niezbędna, a wystarczająco dużo osób martwi się o dokładność, którą Ahrefs chce zapewnić, aby ludzie byli pewni swoich raportów. Dlatego ta strona:
Krótka wersja dla Ahrefs polega na tym, że zaczynają od danych z narzędzia do planowania słów kluczowych Google (część ich ofert PPC, na wypadek gdybyś nie wiedział) i filtrują je za pomocą danych o strumieniu kliknięć z różnych źródeł przeglądarek i wtyczek. Rozgrupowują również organiczne słowa kluczowe, które są sklejone w narzędziu do planowania słów kluczowych Google, co może być dość dużym źródłem mylących danych, gdy próbujesz go użyć samodzielnie.
Szacunkowa liczba wyszukiwań dla pojedynczego słowa kluczowego może zawierać setki podobnych słów kluczowych z długim ogonem, które są bardzo przybliżonymi szacunkami.
Śmieszny fakt: Jeszcze kilka lat temu Ahrefs pozyskiwał wiele swoich danych ze źródła, którego mogłeś się nie spodziewać: twojego programu antywirusowego. Konkretnie się nimi zajmowali Skok, który wykorzystywał Avast do śledzenia każdego adresu URL odwiedzanego przez osoby korzystające z Avast. (A przynajmniej ci, którzy się zgodzili, choć nie jest jasne, ile z tych osób wiedziało, co zgodzili się udostępnić.) Jumpshot został zamknięty po tym, jak publiczne oburzenie w związku ze śledzeniem wzrosło.
Semrush napisał o swojej wersji na Reddicie; pobierają duże ilości danych od swoich klientów, prawdopodobnie zanonimizowanych:
Łączą to z danymi o liczbie kliknięć z nieznanych źródeł, wykorzystują uczenie maszynowe do opracowania algorytmów, które dokładnie przewidują ruch na podstawie istniejących danych wyszukiwania, a następnie przeprowadzają ekstrapolację na rozległą branżę za pomocą tych modeli.
Każdy, kto nie jest po uszy w optymalizacji pod kątem wyszukiwarek, może być zdezorientowany i to jest w porządku. Jest tam wiele do zakwestionowania i rzeczywiście użytkownicy Reddit również rzucają temu wyzwanie.
Jak duże są rozmiary próbek? Jakie są źródła danych i czy są one reprezentatywne? Co to są dane dotyczące kliknięć? Odpowiedzią na wszystkie te pytania i nie tylko jest po prostu całkiem duże emoji wzruszenia ramionami.
I oczywiście istnieją nieodłączne problemy z uczeniem maszynowym. Dość łatwo jest uzyskać sieć neuronową do dokładnego przewidywania danych, a także trudno jest uzyskać ekstrapolację tych wyników na większą pulę. Uczenie maszynowe jest podatne na wychwytywanie wzorców, luk i luk w wiedzy oraz wykorzystywanie ich jako czynników wpływających, gdy nie są ze sobą powiązane. Jest to problem, z którym wciąż zmagają się czołowi analitycy danych na świecie, więc kwestionowanie go jest całkowicie uzasadnione.
Oczywiście każda firma analityczna będzie mówić o tym, że jej analityka jest najlepsza i najdokładniejsza, że ma tajny sos, który czyni ją lepszą od wszystkich innych i tak dalej. Semrush ma nawet taką linię:
Więc zbadałeś siebie i stwierdziłeś, że byłeś najlepszy, co? Wszyscy mamy dostęp tylko do tego, co jest publicznie ujawnione w Internecie. Ta cyfrowa kopia marketingowa jest jednak dość standardowa.
Niemożliwe jest stwierdzenie, że jedna aplikacja ma dokładniejsze dane niż inne, chyba że weźmiemy ogromną próbkę z setek tysięcy witryn, które udostępniają swoje prywatne dane i porównamy je na każdej platformie.
Być może coś takiego wydarzy się w przyszłości.
Na czym polega wojna między analityką a prywatnością?
Jednym z najważniejszych problemów związanych ze śledzeniem i analizą witryny jest użytkownik obawy dotyczące prywatności.
Jak myślisz, ile wie o tobie firma taka jak Google? Odpowiedź brzmi „prawie wszystko”. Oczywiście nie mają dossier z twoimi danymi osobowymi. Mimo to mogą być bardzo wąskie i precyzyjne w kierowaniu na Ciebie, nawet jeśli technicznie mogą twierdzić, że są anonimowe.
Ale to jednak Google. To wyjątkowy przypadek.
Z wyjątkiem tego, że nie są. Istnieją tysiące firm, które kupują dane z dowolnego możliwego źródła, weryfikują te dane w różnych pulach danych i sprzedają te dane innym firmom. Nazywają się brokerami danych i obejmują zarówno wysoce anonimowe zbiorcze pule danych, jak i hiperspecyficzne dane, których ludzie mogą używać do indywidualnego działania.
Ile w tym prawdy, a ile siania strachu? Cóż, w tym problem, prawda? W branży nie ma przejrzystości, a gdyby tak było, wiele osób nagle przeraziłoby się stanem nadzoru. Sama ilość informacji, które przekazujesz, będąc online, korzystając z bezpłatnych treści i korzystając z urządzeń podłączonych do Internetu, jest oszałamiająca.
Pomiędzy firmami, które chcą gromadzić, wykorzystywać lub sprzedawać te dane, a presją, by postępować etycznie, istnieje ciągła przepychanka. Przepisy dotyczące prywatności rozwijają się w rekordowym tempie, a UE forsuje wszelkiego rodzaju przepisy ustanawiające prawo do prywatności, prawo do bycia zapomnianym, prawo do domyślnego wyłączenia, a nawet takie rzeczy jak przejrzystość działania algorytmów, takich jak Facebook, Twitter i Google.
Im więcej danych firma analityczna może zebrać i im dokładniej może je zgromadzić, tym lepsze dane mogą ci dostarczyć. Ale im mniej prywatności będzie miała każda osoba lub grupa. Gdzie należy narysować linię? To nie jest pytanie, na które mogę odpowiedzieć.
Ta praktyka nie jest oczywiście unikalna dla Internetu. Rządy i prywatne agencje monitorują wszystko, od zużycia energii elektrycznej i wody, przez ruch na drogach, po frekwencję na imprezach i nie tylko. Internet jest tak głęboko powiązany z naszym życiem, że łatwo dostrzec skutki zbyt inwazyjnego śledzenia.
Zresztą wszystko to jest dygresją. Skoncentrujmy się ponownie.
Jak efektywnie wykorzystywać dane o ruchu?
Problem z danymi o ruchu w bezpłatnych wynikach wyszukiwania polega na tym, że często nie są one dokładne. Pomimo wszystkiego, co powiedziałem powyżej o prywatności i śledzeniu, śledzenie zbiorowego ruchu miliardów ludzi przez 24 godziny na dobę na miliardach stron internetowych nadal jest dość trudne. Na ogromnych poziomach zagregowanych dane są dość dokładne! Nieostrość przeszkadza, gdy przechodzisz do dowolnego konkretnego punktu danych i zadajesz pytanie typu „jaki jest ruch w witrynie X w ciągu ostatnich 30 dni”.
Czy w ogóle warto korzystać z danych?
Jasne! Jednak nadal musisz zrozumieć, że musisz porównywać jabłka do jabłek, a nie jabłka do pomarańczy.
Jak wspomniano powyżej, moje dane pokazują, że mój ruch jest do 23% w ciągu ostatnich 30 dni z 34 000 bezpłatnymi odsłonami strony (przynajmniej w chwili pisania tego tekstu):
Tymczasem Semrush mówi wszystkim, że to spadła o 14,32% i że mam około 2,9 tys. odwiedzających miesięcznie. To dość duża różnica i nigdzie nie jest dokładna:
Tak więc, gdybym użył moich danych do porównania się z danymi Semrush dotyczącymi moich najważniejszych konkurentów, prawdopodobnie otrzymałbym wypaczony i niedokładny obraz wydarzeń z tą analizą konkurencji.
Ale jeśli porównam dane Semrush dla siebie z danymi moich konkurentów, otrzymam dokładniejsze porównanie. Jeśli mówi, że spadłem o 4,7%, ale moi konkurenci mają spadek o 50%, oznacza to, że radzę sobie lepiej niż oni. Nawet jeśli rosną, mogę założyć, że rosną wolniej niż ja na podstawie ich organicznych słów kluczowych, które zajmują pozycję w rankingu.
Musisz także pamiętać, że dane, które widzisz, często koncentrują się tylko na PPC lub określonych rodzajach słów kluczowych. Pojedyncza witryna może zostać uszeregowana pod kątem tysięcy, dziesiątek tysięcy lub więcej słów kluczowych. Te słowa kluczowe mogą mieć zasięg od kilkudziesięciu kliknięć dziennie do tysięcy, a każde filtrowanie i ekstrapolacja, których musi dokonać firma, dodaje do danych warstwę niejasności.
Prawda jest taka, że dane, które otrzymujesz z witryn takich jak Ahrefs, Semrush, Neil Patel lub ktokolwiek inny, będą ograniczone i niejasne, po prostu z definicji. Nikt bez bezpośredniego dostępu do analityki Twojej witryny nie może uzyskać dokładnych informacji o Tobie. Nawet to ma warstwę mglistości, z problemami takimi jak próbkowanie i problem współczynnika odrzuceń.
To nie znaczy, że nie jest pomocne. Oznacza to po prostu, że musisz go używać, porównując go ze sobą, jabłkami do jabłek, i staraj się unikać nadmiernego polegania na określonych punktach danych. Jest to najbardziej korzystne, gdy patrzy się na ogromne rozmiary próbek i określa, które strony są w rankingu dla setek lub tysięcy słów kluczowych o wysokiej wartości, zwłaszcza w porównaniu z innymi działaniami marketingu treści. Liczby nie muszą być bardzo dokładne, gdy korzysta się z prognoz ruchu w ten sposób, tylko wartości procentowe w stosunku do reszty ich witryny. Jeśli wiele narzędzi zgłasza, że pojedyncza strona odpowiada za 70% ich ruchu, warto się temu przyjrzeć, nawet jeśli szacunki są nieco błędne.