[Pomysł] Jak wygenerować 185000+ słów kluczowych

Jest oczywiście sporo narzędzi, które pomagają w takiej pracy (ahrefs, mangools, keyword palanner, keywordtool.io itd.), ale zawsze warto szukać nowych rozwiązań i właśnie coś takiego wymyśliłem.

Cały koncept polega na znalezieniu dużej i różnorodnej strony z wieloma kategoriami. W moim przypadku była to wikipedia,  która ma sporo stron przekrojowych, stron kategorii, stron z prefiksem, stron z listami odsyłającymi do innych podstron, a angielska ma nawet listę list.  Przy odrobinie kreatywności można znaleźć znacznie więcej podstron na wikipedii, które nadają się do wykorzystania. Myślę że, sporo innych stron również można by było wykorzystać w tej metodzie. To co ciekawe, to fakt że można na wiki wybrać konkretną niszę i frazy będą na niej skoncentrowane.

Przykład

Najłatwiej zobaczyć to na przykładzie. Na stronie Skarbnica Wikipedii/Przegląd dziedzin wiedzy wybieram, powiedzmy matematykę i od razu widzę alfabetyczną listę zagadnień jej dotyczących. Już sama ta lista wygląda interesująco.

Po wybraniu strony scrapuję wszystkie linki, a konkretnie ich parametr title, w ten sposób mam w kilka sekund 3024 słów kluczowych. Ale to nie koniec, bo mając zebrane linki operację powtarzam dla każdego(prawie) z tych 3024 linków. Głębokość zależy wyłącznie od was, w moim eksperymencie dwukrotne i trzykrotne powtórzenie było w zupełności wystarczające. Całość robię w pytonie, a el ręcznie też by się dało, tylko wolniej. W ten sposob na potrzeby jednego z moich testowych serwisów wygenerowałem tą metodą 185762 adekwatnych słów kluczowych. Na ich podstawie wybrałem 100 tematów, które najlepiej rokują i będą najprostsze w realizacji i promocji.

Wątpliwości

Ktoś mógłby powiedzieć, że skoro mam słowa kluczowe wygenerowane tą techniką, to będę potem konkurował z Wikipedią. Owszem, ale przy każdym skanowaniu oceniam też jakość każdego artykułu. Jest to pewne uproszczenie, ale zakładam, że jeżeli tekst ma mało słów, to jest stosunkowo słaby. A w związku z tym będzie łatwiej zrobić coś lepszego. Co więcej, część z linków nie ma jeszcze napisanych artykułów, są to te zaznaczone na czerwono i mają również stosowny wpis w atrybucie title. W naszym matematycznym przykładzie jest takich przypadków 705.

Kolejny etap

Można metodę rozwinąć dalej. Jeżeli by tak przejść na angielską Wikipedię, to tam tych słów jest jeszcze więcej i nic nie przeszkadza przepuścić je prze API google translatora (już to robiłem). Co więcej, tak wygenerowane można jeszcze rozbudować prostym skryptem przepuszczając każde z nich przez autosuggesta, google trendsa itd.

To jest tylko pomysł, który sobie testuję i z którym was zostawiam. Widzę też inne potencjalne strony, które można by tak wykorzystać  choćby duże sklepy internetowe czy portale aukcyjne.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *