Przechwytywanie wartościowych domen wciąż stanowi podstawę tworzenia solidnego zaplecza SEO – choć oczywiście oficjalnie nikt takich zaplecz nie tworzy. Jeśli jednak zdarza Wam się zbaczać ze ścieżki Białego Rycerza SEO, to mam dla Was prosty sposób, na sprawdzenie wszystkich domen .pl wygasających każdego dnia.
Dla osób przechwytujących domeny sporadycznie takie rozwiązanie to raczej spory overkill. Z kolei zawodowi domainerzy uznają go za banalny i oczywisty. Mam nadzieję, że ten krótki tekst zainteresuje kogoś „pośrodku” 😉
Spis treści
Lista wygasających domen
Zacznijmy od tego, że lista domen wpadających w okres wygasania nie jest niczym tajnym. NASK publikuje ją codziennie w godzinach porannych pod tym adresem.
Zawiera one wszystkie nieopłacone na czas domeny w rozszerzeniu .pl, włączając w to również domeny regionalne i funkcjonalne: com.pl, net.pl, katowice.pl itd.
Zapisanie listy domen
Oczywiście codzienne ręczne przeglądanie takiej listy byłoby niewykonalne, dlatego warto stworzyć kilka linijek kodu, które zrobią tę robotę za nas.
<?php /* $today = date("m-d-y"); $nazwa = 'domeny'. $today .''; file_put_contents($nazwa, fopen("https://www.dns.pl/deleted_domains.txt", 'r')); */ ?>
Wklejamy to do pliku, który nazywamy np. skrypt.php i chowamy w jakimś folderze na naszym – na wszelki wypadek – mało używanym / zbędnym serwerze.
Co robi ten kod? Pobiera listę domen wpadających w okres wygasania i zapisuje je w pliku tekstowym z aktualną datą w nazwie.
Pozostaje jeszcze sprawić, by był codziennie wywoływany automatycznie, do czego możemy zastosować np. Cron, który powinien być dostępny na większości tanich hostingów. Ustawiamy go na codzienne wywołanie naszego pliku np. w południe.
Możnaby oczywiście popracować nieco nad kodem i sprawić, by np. dopisywał kolejne domeny w jednym pliku, zamiast tworzyć nowe, ale rozwiązanie w tej formie również się sprawdza.
Filtrowanie list
Każdy ma swój sposób na filtrowanie dużych list domen i tu już nic odkrywczego nie da się napisać. Oczywiście najlepszym, ale jednocześnie najdroższym chyba rozwiązaniem jest API Ahrefsa i własna aplikacja, ale tu ceny zaczynają się od $500 za miesiąc.
Rozwiązaniem pośrednim dla posiadaczy konta w Ahrefs, jest użycie API i jakiejś integracji z zewnętrznym softem. Tutaj w cenie standardowego planu Ahrefsa mamy 300 000 wierszy API do wykorzystania.
Jeśli chodzi o integracje z API Ahrefsa, to jest w czym wybierać: Screaming Frog, Clusteric, Netpeak i inne.
W zależności od tego, jakie informacje z API pobierzemy, sprawdzenie jednej domeny pobierze nam z konta jakieś 4 wiersze. Codziennie wygasa kilka tysięcy domen .pl – aby sprawdzić wszystkie, przy oszczędnym gospodarowaniu zasobami 300 000 wierszy powinno wystarczyć.
Kryteria, wg jakich filtrować domeny pozostawiam oczywiście do rozważenia każdemy z osobna. Podpowiem tylko, że czasem warto spojrzeć na:
- ilość linkujących klas IP (zamiast na ilość Referring Domains),
- ilość rodzajów anchorów,
- liczba linków z gov., czy .edu,
- oczywiście liczba słów kluczowych
- mimo wszystko – domain rating (choć oczywiście ostrożnie),
- warto przyjrzeć się mniej oczywistym danym, bo z reguły ilość linków ma się nijak do ich jakości.
Żaden z tych elementów oczywiście nie gwarantuje wysokiej jakości domeny ani jej nie wyklucza. Rzecz w tym, by opracować taki sposób filtrowania, który weźmie pod uwagę jak najwięcej aspektów, nie zużywając przy tym zbyt wielu zapytań z API.
Przechwytywanie
Pamiętajmy, że właśnie przesialiśmy listę domen, które dopiero wpadły w okres wygasania. Wiele z nich zostanie jednak opłaconych i znikną z naszych list domen do przechwycenia.
W samej kwestii przechwytywania, skazani jesteśmy niestety na duże podmioty tym się trudniące – oczywiście mam tu na myśli np. Aftermarket. Próby przechwytywania na własną rękę czegokolwiek wartościowego to strata czasu.
Co mi to da?
Tak jak zastrzegłem na początku: nie warto monitorować wszystkich domen jeśli przechwytuje się sporadycznie, lub tylko dla jednej branży.
Przechwytuję sporo domen i dzięki temu rozwiązaniu zamiast godzin błąkania się po omacku, raz na 2 tygodnie generuję sobie listę – i zajmuje mi to 20 minut.
I choć nie jest to idealne rozwiązanie i pewnie wymagające dopracowania – skraca i podnosi skuteczność działań. Ciekaw jestem, czy macie na to jakieś lepsze patenty?
Bardzo przydatny skrypt php. Dzięki!
Ciekawy artykuł, dzięki za ten wpis. Ja przeglądam sobie listę w linkhouse, bo na szybko da się filtrować po paramterach. Niestety nie pokazują się tam wszystkie domeny dostępne do przechwycenia. Jednak stawiam dopiero swoje pierwsze zaplecze i sprawdzę czy to w ogóle jeszcze działa więc dla mnie wystarczy 🙂
A dzięki, na pewno skorzystamy ze skryptu 😀