Jak wygenerować 185000+ słów kluczowych

Po raz kolejny czytam o nowym sposobie, technice albo pochłaniam kolejny post przekrojowy typu “content marketing [aktualny rok]”, który wszystko zmieni. Już John z DC tego spróbował, tak samo Peter z LA, a nawet Sven Skurvesen ze Szwecji! Ja też chcę odkryć ten jeden prosty trik i niech marketerzy mnie nienawidzą! Czytam i grzęznę już na samym początku, bo najpierw muszę znaleźć x słów kluczowych. Często bywa tak, że mam problem właśnie z tymi pierwszymi słowami, szczególnie że niektóre z nisz w których pracuję są trudne ze względu na bardzo specyficznych odbiorców i wymaganą specjalistyczną wiedzę.

Poza tym należę do ludzi, którzy lubią mieć wszystko zaplanowane, ja nie chcę mieć wymyślonych 5 tematów do przodu, chcę mieć ich przynajmniej 50, a najlepiej plan contentu na cały rok, szczególnie, że poszczególne materiały łączę w klastry tematyczne.

Jeżeli temat jest relatywnie prosty to mogę tak z czapy różnymi kreatywnymi technikami naprawdę sporo pomysłów wyprodukować. Jeżeli jednak tematyka nie jest aż tak seksi, to jakoś ten proces trzeba wspomóc. Oczywiście można skorzystać z gotowych narzędzi typu keywordtool.io, mangools czy mojego ulubionego ahrefs’a, ale są to narzędzia płatne i zastanawiałem się nad metodami alternatywnymi bo… bo mogę.

Myślałem jak to zrobić inaczej i czy w ogóle można i okazało się, że można. Technika wymaga użycia pythona lub innego języka albo alternatywnie google sheets i trochę czasu i samozaparcia.

Moja tajna technika

Cały koncept polega na znalezieniu dużej i różnorodnej strony z wieloma kategoriami. W moim przypadku była to wikipedia,  która ma sporo stron przekrojowych, stron kategorii, stron z prefiksem, stron z listami odsyłającymi do innych podstron, a angielska ma nawet listę list.  Przy odrobinie kreatywności można znaleźć znacznie więcej podstron na wikipedii, które nadają się do wykorzystania. Myślę że, sporo innych stron również można by było wykorzystać w tej metodzie. To co ciekawe, to fakt że można na wiki wybrać konkretną niszę i frazy będą na niej skoncentrowane.

Przykład

Najłatwiej zobaczyć to na przykładzie. Na stronie Skarbnica Wikipedii/Przegląd dziedzin wiedzy wybieram, powiedzmy matematykę i od razu widzę alfabetyczną listę zagadnień jej dotyczących. Już sama ta lista wygląda interesująco.

Po wybraniu strony scrapuję wszystkie linki, a konkretnie ich parametr title, w ten sposób mam w kilka sekund 3024 słów kluczowych. Ale to nie koniec, bo mając zebrane linki operację powtarzam dla każdego(prawie) z tych 3024 linków. Głębokość zależy wyłącznie od was, w moim eksperymencie dwukrotne i trzykrotne powtórzenie było w zupełności wystarczające.

Podejście darmowe, ale wolne (bez programowania)

Ja robię to w pythonie, ale spokojnie można to zrobić używając google sheets, tylko że wolniej.

  1. Po wejściu na konkretną stronę klikam prawym przyciskiem myszy i klikam w „zbadaj” lub w „”.
  2. W oknie podglądu kodu szukam znaczników między którymi znajdują się interesujące linki, chrom podświetla zaznaczony obszar na niebiesko. Istotne jest aby wybrać taki obszar który zawiera jak najmniej elementów zbędnych, czyli np. nawigacji.
  3. Jak już mam wybrany konkretny element, w tym wypadku jest to DIV, klikam na nim prawym, wybieram copy i klikam w copy x path.
  1. Teraz trzeba się jeszcze przyjrzeć strukturze, interesują nas linki czyli rzeczy, które będą między znacznikami <a> i </a>.
  2. W tym przykładzie widać że w divie jest paragraf <p> i dopiero w nim link <a> – zapamiętuję to.
  3. Przechodzę do google sheets i korzystam z funkcji =IMPORTXML(X,Y). Pod parametr X wstawiam badany url a pod Y skopoowany wcześniej Xpath ale dodaję do niego trochę, wygląda to tak:
//*[@id='mw-content-text']/div/div[3]  i do tego dorzucam /p/a/@title

Całość formuły powinna wyglądać następująco:

=IMPORTXML( https://pl.wikipedia.org/wiki/Wikipedia:Skarbnica_Wikipedii/Przegl%C4%85d_zagadnie%C5%84_z_zakresu_matematyki ,"//*[@id='mw-content-text']/div/div[3]/p/a/@title")
  1. Po wciśnięciu Enter pojawią się atrybuty title. Żeby pobrać adresy url należy końcówkę @title zmienić na @href.
  2. Potem powtarzamy proces dla każdego nowego urla.

Rezultaty

Kierując się zasadą, że większa próba poprawia jakość wyniku, na potrzeby jednego z moich testowych serwisów wygenerowałem tą metodą 185762 adekwatnych słów kluczowych. Na ich podstawie wybrałem 100 tematów, które najlepiej rokują i będą najprostsze w realizacji i promocji. Jak wybrałem tę setkę to temat na inny wpis(trochę pisałem o tym tutaj: priorytetyzacja projektów), ale brałem pod uwagę trudność produkcji contentu, potencjał ruchu, stopień trudności SEO, jego trend i jeszcze kilka innych parametrów.

Wątpliwości

Ktoś mógłby powiedzieć, że skoro mam słowa kluczowe wygenerowane tą techniką, to będę potem konkurował z Wikipedią. Owszem, ale przy każdym skanowaniu oceniam też jakość każdego artykułu. Jest to pewne uproszczenie, ale zakładam, że jeżeli tekst ma mało słów, to jest stosunkowo słaby. A w związku z tym będzie łatwiej zrobić coś lepszego. Co więcej, część z linków nie ma jeszcze napisanych artykułów, są to te zaznaczone na czerwono i mają również stosowny wpis w atrybucie title. W naszym matematycznym przykładzie jest takich przypadków 705. Analizując bardzo pobieżnie tą 705 mam przynajmniej kilka tematów, które będą stosunkowo łatwe do zrealizowania.

Kolejny etap

Jeżeli by się okazało, że mam jednak za mało słów kluczowych, to prawdopodobnie przepuściłbym go przez jeden z moich skryptów. Skrypty wykorzystują dane z google trends, autosguuest i ads planera. Można też pobrać dane z angielskiej wikipedii i przepuścić je przez google translatora.

To jest tylko pomysł, który sobie testuję i z którym was zostawiam. Widzę też inne potencjalne strony które można by tak wykorzystać  choćby duże sklepy internetowe czy portale aukcyjne.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *