Przechwytywanie domen – jak nie przegapić ani jednej dobrej domeny

Przechwytywanie wartościowych domen wciąż stanowi podstawę tworzenia solidnego zaplecza SEO – choć oczywiście oficjalnie nikt takich zaplecz nie tworzy. Jeśli jednak zdarza Wam się zbaczać ze ścieżki Białego Rycerza SEO, to mam dla Was prosty sposób, na sprawdzenie wszystkich domen .pl wygasających każdego dnia.

Dla osób przechwytujących domeny sporadycznie takie rozwiązanie to raczej spory overkill. Z kolei zawodowi domainerzy uznają go za banalny i oczywisty. Mam nadzieję, że ten krótki tekst zainteresuje kogoś „pośrodku” 😉

Lista wygasających domen

Zacznijmy od tego, że lista domen wpadających w okres wygasania nie jest niczym tajnym. NASK publikuje ją codziennie w godzinach porannych pod tym adresem.

Zawiera one wszystkie nieopłacone na czas domeny w rozszerzeniu .pl, włączając w to również domeny regionalne i funkcjonalne: com.pl, net.pl, katowice.pl itd.

Zapisanie listy domen

Oczywiście codzienne ręczne przeglądanie takiej listy byłoby niewykonalne, dlatego warto stworzyć kilka linijek kodu, które zrobią tę robotę za nas.

<?php /*
$today = date("m-d-y");
$nazwa = 'domeny'. $today .'';
file_put_contents($nazwa, fopen("https://www.dns.pl/deleted_domains.txt", 'r'));

*/?>

Wklejamy to do pliku, który nazywamy np. skrypt.php i chowamy w jakimś folderze na naszym –  na wszelki wypadek – mało używanym / zbędnym serwerze.

Co robi ten kod? Pobiera listę domen wpadających w okres wygasania i zapisuje je w pliku tekstowym z aktualną datą w nazwie.

Pozostaje jeszcze sprawić, by był codziennie wywoływany automatycznie, do czego możemy zastosować np. Cron, który powinien być dostępny na większości tanich hostingów. Ustawiamy go na codzienne wywołanie naszego pliku np. w południe.

Możnaby oczywiście popracować nieco nad kodem i sprawić, by np. dopisywał kolejne domeny w jednym pliku, zamiast tworzyć nowe, ale rozwiązanie w tej formie również się sprawdza.

Filtrowanie list

Każdy ma swój sposób na filtrowanie dużych list domen i tu już nic odkrywczego nie da się napisać. Oczywiście najlepszym, ale jednocześnie najdroższym chyba rozwiązaniem jest API Ahrefsa i własna aplikacja, ale tu ceny zaczynają się od $500 za miesiąc.

Rozwiązaniem pośrednim dla posiadaczy konta w Ahrefs, jest użycie API i jakiejś integracji z zewnętrznym softem. Tutaj w cenie standardowego planu Ahrefsa mamy 300 000 wierszy API do wykorzystania.

Jeśli chodzi o integracje z API Ahrefsa, to jest w czym wybierać: Screaming Frog, Clusteric, Netpeak i inne.

W zależności od tego, jakie informacje z API pobierzemy, sprawdzenie jednej domeny pobierze nam z konta jakieś 4 wiersze. Codziennie wygasa kilka tysięcy domen .pl – aby sprawdzić wszystkie, przy oszczędnym gospodarowaniu zasobami 300 000 wierszy powinno wystarczyć.

Kryteria, wg jakich filtrować domeny pozostawiam oczywiście do rozważenia każdemy z osobna. Podpowiem tylko, że czasem warto spojrzeć na:

  • ilość linkujących klas IP (zamiast na ilość Referring Domains),
  • ilość rodzajów anchorów,
  • liczba linków z gov., czy .edu,
  • oczywiście liczba słów kluczowych
  • mimo wszystko – domain rating (choć oczywiście ostrożnie),
  • warto przyjrzeć się mniej oczywistym danym, bo z reguły ilość linków ma się nijak do ich jakości.

Żaden z tych elementów oczywiście nie gwarantuje wysokiej jakości domeny ani jej nie wyklucza. Rzecz w tym, by opracować taki sposób filtrowania, który weźmie pod uwagę jak najwięcej aspektów, nie zużywając przy tym zbyt wielu zapytań z API.

Przechwytywanie

Pamiętajmy, że właśnie przesialiśmy listę domen, które dopiero wpadły w okres wygasania. Wiele z nich zostanie jednak opłaconych i znikną z naszych list domen do przechwycenia.

W samej kwestii przechwytywania, skazani jesteśmy niestety na duże podmioty tym się trudniące – oczywiście mam tu na myśli np. Aftermarket. Próby przechwytywania na własną rękę czegokolwiek wartościowego to strata czasu.

Co mi to da?

Tak jak zastrzegłem na początku: nie warto monitorować wszystkich domen jeśli przechwytuje się sporadycznie, lub tylko dla jednej branży.

Przechwytuję sporo domen i dzięki temu rozwiązaniu zamiast godzin błąkania się po omacku, raz na 2 tygodnie generuję sobie listę – i zajmuje mi to 20 minut.

I choć nie jest to idealne rozwiązanie i pewnie wymagające dopracowania – skraca i podnosi skuteczność działań. Ciekaw jestem, czy macie na to jakieś lepsze patenty?

Wyceń pozycjonowanie swojej strony








  • 0 of 500 max characters
    • Wyrażam zgodę na przetwarzanie moich danych osobowych przez Audytorium Piotr Samojło z siedzibą w Białymstoku ul Rzędziana 1E, 15-698 Białystok (dalej: Audytorium) zawartych w niniejszym formularzu kontaktowym w celu realizacji przesłanego zgłoszenia. Zostałem poinformowany/poinformowana o możliwości wycofania zgody w dowolnym czasie, poprzez przesłanie wiadomości e-mail na adres biuro@audytorium.xyz.

Piotr Samojło

Freelancer działający pod marką Audytorium SEO. Jeśli masz pytania, lub szukasz człowieka od SEO i optymalizacji stron, zapraszam do kontaktu.

Zobacz komentarze

  • Bardzo przydatny skrypt php. Dzięki!

    Anuluj odpowiedź

    Zostaw komentarz

    Twój adres e-mail nie zostanie upuibliczniony Pola wymagabe*

Zostaw komentarz

Twój adres e-mail nie zostanie upuibliczniony Pola wymagabe*

Wraca polskojęzyczne forum dla webmasterów

Po ponad roku nieobecności Google postanowiło przywrócić polskojęzyczne forum dla webmasterów. Polska wersja forum dostępna…

3 tygodnie temu

Dziura w Google Site Kit pozwala przejąć dostęp do Google Search Console

Jeśli używasz oficjalnej wtyczki do Wordpressa: Google Site Kit, to zanim doczytasz do końca, przejdź…

3 tygodnie temu

CSS Containment – nowy standard wspomagający renderowanie witryny

Zaledwie kilka dni temu pisałem o inicjatywie Web Vitals autorstwa Google, polegającej na skupieniu się…

3 tygodnie temu

Nowa inicjatywa Google warta uwagi: Web Vitals

Web Vitals to inicjatywa Google, polegająca na spriorytetyzowaniu działań optymalizacyjnych stron i aplikacji na podstawie…

4 tygodnie temu

MREID (Machine-Readable Entity IDs), czyli jak Google rozumie świat

Nie wiem, czy Cię to zdziwi, czy nie, ale Google prawie każdemu elementowi znanego mu…

1 miesiąc temu

Rank Math – wtyczka dobra, ale dziurawa. Zagrożone 200 000 stron na WordPressie

Jeśli do SEO na swoim Wordpressie używasz wtyczki Rank Math, to zalecam szybką aktualizację. W…

2 miesiące temu

Koronawirus ma już swoje… dane strukturalne

Zapewne, tak jak ja, macie już dosyć artykułów o koronawirusie. Zewsząd wypełźli specjaliści od wszystkiego,…

3 miesiące temu

Strony kategorii rankują lepiej niż strony produktów

Bardzo ciekawe badanie ujrzało światło dzienne podczas zakończonej właśnie konferencji SMX West w San Jose.…

3 miesiące temu

Co trzeba umieć, by wyróżnić się w SEO?

Truizmem jest stwierdzenie, że SEO ewoluuje i rozwija się w błyskawicznym tempie. Są trendy, języki…

4 miesiące temu

Ta strona używa cookies.

Polityka prywatności