Pour avoir des nom de domaine expiré avec de bonnes metrics dans votre thématique, il n’y’a pas 50 solutions, soit vous trouvez un bon prestataire SEO qui fera le travail pour vous, soit vous devez faire du « ndd mining » …voici des petites pistes pour vous aider..
Trouver des listes d’url
- En manuel : copier-coller (pour extraire des url d’une page : Surf7 (Type of address to extract: url) )
- Faire des listes d’url via un scraper : Scrapebox ou RDDZ Scrapper
- Faire des listes d’url via les backlink d’un domaine ( exporte des BL de Seobserver ou Ahref etc…)
- Via un spider : Screaming Frog (External Exporter Excel) ou encore Xenu
- En python : Scrapy
Formater la liste:
- Surf7.net
- Trim to Root de SeoWeather
- Excel ou Notepad ….
Extraire les domaines sans réponse:
- Screaming Frog ( Responses Codes => Exporter)
Vérifier disponibilité des nom de domaines :
Vérifier si le domaine est propre :
- spamzilla.pbnhq.com
Services de domaines Expirés
Sinon, pour les moins courageux (ou les plus fortunés):
-
- Seo-pop.com (domaines expirés français)
- Domraider.com
- Kifdom.com (.fr uniquement)
- Expireddomains.net
- Dratar.com
- PBN Premium
- Domainronin.com
- expireseo.com
—-
Une méthode complète via Seobserver
Une petite méthode fastidieuse mais qui fonctionne plutôt bien.
- Sous seobserver.com, j’entre un site internet (de ma thématique?)
- Je clics sur « débloquer Backlinks + Mots-clés’
- Dans « Historique des Backlinks » , je télécharger le CSV de tout les BL
- J’ouvre sous excel et copie la liste des URLs
- J’utilise le script Trim To Root (je coche http//: et Trim URL’s to root)
- J’enregistre dans un txt (ou csv) la liste extraite
- J’ouvre ScremingFrog et lui donne a manger la liste extraire ( Mode , List , Upload , mon-fichier.txt)
- On lance le Spider, et on attends que le bot parcourt tout les url.
- Une fois fini, on se place dans l’onglet Response Codes, on met le filtre sur « No Response » et Exports les domaines ne répondant plus.
- On passe la liste no-reponses extraite dans un registar (par exemple Safebrand ou il faudra « trimer to root » la liste avant ) et on garde que les disponible .
- On peut ensuite trier les disponibles en allant chercher les metrix (soit via Seobserver => Websiteprofiler ou via des services type Bulk Metric Checker)
- Une fois fait il y’a plus qu’a acheter les domaines qui nous intéressent…
NB; Si votre liste n’est pas très grosse (< 1000) vous pouvez passer de l’étape 5 à la 10).