Przechwytywanie domen – jak nie przegapić ani jednej dobrej domeny

Przechwytywanie wartościowych domen wciąż stanowi podstawę tworzenia solidnego zaplecza SEO – choć oczywiście oficjalnie nikt takich zaplecz nie tworzy. Jeśli jednak zdarza Wam się zbaczać ze ścieżki Białego Rycerza SEO, to mam dla Was prosty sposób, na sprawdzenie wszystkich domen .pl wygasających każdego dnia.

Dla osób przechwytujących domeny sporadycznie takie rozwiązanie to raczej spory overkill. Z kolei zawodowi domainerzy uznają go za banalny i oczywisty. Mam nadzieję, że ten krótki tekst zainteresuje kogoś „pośrodku” 😉

Lista wygasających domen

Zacznijmy od tego, że lista domen wpadających w okres wygasania nie jest niczym tajnym. NASK publikuje ją codziennie w godzinach porannych pod tym adresem.

Zawiera one wszystkie nieopłacone na czas domeny w rozszerzeniu .pl, włączając w to również domeny regionalne i funkcjonalne: com.pl, net.pl, katowice.pl itd.

Zapisanie listy domen

Oczywiście codzienne ręczne przeglądanie takiej listy byłoby niewykonalne, dlatego warto stworzyć kilka linijek kodu, które zrobią tę robotę za nas.

<?php /*
$today = date("m-d-y");
$nazwa = 'domeny'. $today .'';
file_put_contents($nazwa, fopen("https://www.dns.pl/deleted_domains.txt", 'r'));

*/?>

Wklejamy to do pliku, który nazywamy np. skrypt.php i chowamy w jakimś folderze na naszym –  na wszelki wypadek – mało używanym / zbędnym serwerze.

Co robi ten kod? Pobiera listę domen wpadających w okres wygasania i zapisuje je w pliku tekstowym z aktualną datą w nazwie.

Pozostaje jeszcze sprawić, by był codziennie wywoływany automatycznie, do czego możemy zastosować np. Cron, który powinien być dostępny na większości tanich hostingów. Ustawiamy go na codzienne wywołanie naszego pliku np. w południe.

Możnaby oczywiście popracować nieco nad kodem i sprawić, by np. dopisywał kolejne domeny w jednym pliku, zamiast tworzyć nowe, ale rozwiązanie w tej formie również się sprawdza.

Filtrowanie list

Każdy ma swój sposób na filtrowanie dużych list domen i tu już nic odkrywczego nie da się napisać. Oczywiście najlepszym, ale jednocześnie najdroższym chyba rozwiązaniem jest API Ahrefsa i własna aplikacja, ale tu ceny zaczynają się od $500 za miesiąc.

Rozwiązaniem pośrednim dla posiadaczy konta w Ahrefs, jest użycie API i jakiejś integracji z zewnętrznym softem. Tutaj w cenie standardowego planu Ahrefsa mamy 300 000 wierszy API do wykorzystania.

Jeśli chodzi o integracje z API Ahrefsa, to jest w czym wybierać: Screaming Frog, Clusteric, Netpeak i inne.

W zależności od tego, jakie informacje z API pobierzemy, sprawdzenie jednej domeny pobierze nam z konta jakieś 4 wiersze. Codziennie wygasa kilka tysięcy domen .pl – aby sprawdzić wszystkie, przy oszczędnym gospodarowaniu zasobami 300 000 wierszy powinno wystarczyć.

Kryteria, wg jakich filtrować domeny pozostawiam oczywiście do rozważenia każdemy z osobna. Podpowiem tylko, że czasem warto spojrzeć na:

  • ilość linkujących klas IP (zamiast na ilość Referring Domains),
  • ilość rodzajów anchorów,
  • liczba linków z gov., czy .edu,
  • oczywiście liczba słów kluczowych
  • mimo wszystko – domain rating (choć oczywiście ostrożnie),
  • warto przyjrzeć się mniej oczywistym danym, bo z reguły ilość linków ma się nijak do ich jakości.

Żaden z tych elementów oczywiście nie gwarantuje wysokiej jakości domeny ani jej nie wyklucza. Rzecz w tym, by opracować taki sposób filtrowania, który weźmie pod uwagę jak najwięcej aspektów, nie zużywając przy tym zbyt wielu zapytań z API.

Przechwytywanie

Pamiętajmy, że właśnie przesialiśmy listę domen, które dopiero wpadły w okres wygasania. Wiele z nich zostanie jednak opłaconych i znikną z naszych list domen do przechwycenia.

W samej kwestii przechwytywania, skazani jesteśmy niestety na duże podmioty tym się trudniące – oczywiście mam tu na myśli np. Aftermarket. Próby przechwytywania na własną rękę czegokolwiek wartościowego to strata czasu.

Co mi to da?

Tak jak zastrzegłem na początku: nie warto monitorować wszystkich domen jeśli przechwytuje się sporadycznie, lub tylko dla jednej branży.

Przechwytuję sporo domen i dzięki temu rozwiązaniu zamiast godzin błąkania się po omacku, raz na 2 tygodnie generuję sobie listę – i zajmuje mi to 20 minut.

I choć nie jest to idealne rozwiązanie i pewnie wymagające dopracowania – skraca i podnosi skuteczność działań. Ciekaw jestem, czy macie na to jakieś lepsze patenty?


Pomogę Ci wybrać agencję SEO Konsultacja i wycena bez żadnych kosztów
Piotr Samojło

Freelancer działający pod marką Audytorium SEO. Jeśli masz pytania, lub szukasz człowieka od SEO i optymalizacji stron, zapraszam do kontaktu.

Zobacz komentarze

  • Bardzo przydatny skrypt php. Dzięki!

    Anuluj odpowiedź

    Zostaw komentarz

    Twój adres e-mail nie zostanie upuibliczniony Pola wymagabe*

Zostaw komentarz

Twój adres e-mail nie zostanie upuibliczniony Pola wymagabe*

Szybkość strony – poradnik dla początkujących

Co by było, gdybyśmy na szybkość witryny spojrzeli nie pod kątem punktów zdobywanych w teście…

20 godzin temu

People cards – nowa funkcja testowana przez Google

Google testuje na rynku indyjskim nową funkcję, która po głębszym zastanowieniu wydaje się niemal rewolucyjna.…

2 dni temu

Firma prowadzona przez Afroamerykanów – nowe oznaczenie w Google Moja Firma

Google w amerykańskiej wersji Google Moja Firma (Google My Business) wprowadza nowe oznaczenie - Black-owned,…

2 tygodnie temu

Google Guaranteed, czyli jak Google za $50 miesięcznie rozmienia na drobne swoje dziedzictwo

Google (a dokładniej spółka matka Alphabet) to korporacja. Korporacja ma za zadanie zarabiać i pomnażać…

3 tygodnie temu

Rich Results Test wychodzi z bety, ale nie to jest najważniejsze

Google właśnie ogłosiło, że Rich Results Tool, narzędzie do testowania wyników rozszerzonych w SERPie, wyszło…

1 miesiąc temu

Grzeszki stron topowych agencji SEO

Od dłuższego czasu zżerała mnie ciekawość, jak duże agencje SEO radzą sobie z wdrażaniem wytycznych…

2 miesiące temu

Wraca polskojęzyczne forum dla webmasterów

Po ponad roku nieobecności Google postanowiło przywrócić polskojęzyczne forum dla webmasterów. Polska wersja forum dostępna…

3 miesiące temu

Dziura w Google Site Kit pozwala przejąć dostęp do Google Search Console

Jeśli używasz oficjalnej wtyczki do Wordpressa: Google Site Kit, to zanim doczytasz do końca, przejdź…

3 miesiące temu

CSS Containment – nowy standard wspomagający renderowanie witryny

Zaledwie kilka dni temu pisałem o inicjatywie Web Vitals autorstwa Google, polegającej na skupieniu się…

3 miesiące temu

Ta strona używa cookies.

Polityka prywatności