Aller au contenu

Extraire les URLs d'un sitemap XML en une ligne de commande

Antoine Brisset
Antoine Brisset
Temps de lecture : 4 min
Extraire les URLs d'un sitemap XML en une ligne de commande
Photo by Gabriel Heinzer / Unsplash

Table des matières

Aujourd'hui, petite astuce qui fait suite à ce tweet de @bunbeau qui a attiré mon attention la semaine dernière.

Dans ce tweet, Pascal cite SEOwl, une solution de monitoring SEO qui propose, entre autres, un outil gratuit pour extraire les URLs d'un sitemap XML.

Dans les réponses à son tweet, plusieurs consultants SEO ont proposé des alternatives à SEOwl comme Screaming Frog, ou encore Google Sheets.

Le problème avec Screaming Frog, comme l'a relevé Pascal, c'est que son interface graphique est assez lourde et qu'il met donc beaucoup de temps à se lancer.

Pour ce type d'opérations (parsing de fichier XML), clairement, la grenouille n'est pas la meilleure option.

Je suis donc parti en quête d'une solution plus rapide en ligne de commande.

Ready ? Let's go !

1ère étape : télécharger le sitemap XML

Pour télécharger le sitemap, je vais tout simplement utiliser la commande curl avec l'option -s (silent) suivie de l'URL du fichier.

curl -s https://www.seomemento.com/sitemap-posts.xml
Résultat de la commande cURL

Si tu es sur Mac, comme moi, il me semble que curl est installé par défaut. Pour t'en assurer, tu peux exécuter la commande curl -v.

Je vais ensuite "passer" le résultat de la commande curl à un autre programme en utilisant le | (pipe).

2ème étape : extraire les URLs

Ce programme, c'est xmllint.

Il s'agit d'un utilitaire bien pratique qui permet de parser des fichiers XML et d'en extraire des données à l'aide d'expressions XPath.

Là aussi, je crois qu'il est installé par défaut sur Mac OS (sinon, Homebrew est ton ami).

La requête XPath à utiliser est la suivante : //*[local-name()='url']/*[local-name()='loc'].

Tu te demandes sûrement pourquoi j'ai utilisé la fonction local-name() plutôt qu'un simple //loc, non ?

En fait, c'est parce que le namespace du protocole sitemap (sitemaps.org) – xmlns="http://www.sitemaps.org/schemas/sitemap/0.9" – est un namespace par défaut, sans préfixe.

Pour faire court, cela signifie que si j'utilise l'expression XPath //loc, le résultat sera vide car XPath, dans sa version 1.0, va retourner l'ensemble des élements <loc> qui n'ont pas été déclarés dans un namespace. Autrement dit, aucun.

Pour contourner le problème, j'utilise donc la fonction local-name() : elle permet de retourner la partie locale d'un noeud, sans son préfixe. En l'occurrence, ici, je cherche les noeuds dont la partie locale du nom est "url" puis "loc".

Bon, je m'écarte un peu du sujet du jour, mais si cette histoire de namespace t'intéresse, tu trouveras plus d'infos ici et .

Revenons-en à xmllint.

La commande à exécuter dans le terminal est donc la suivante :

xmllint --xpath "//*[local-name()='url']/*[local-name()='loc']" -

Note bien ici la présence du tiret à la fin, qui indique à xmllint qu'il doit lire le contenu de l'entrée standard (stdin), c'est-à-dire le résultat de la commande curl précédente.

Résultat de la commande curl + xmllint

3ème étape : nettoyer le code XML

Il ne me reste plus qu'à nettoyer le code en supprimant les occurrences de <loc> et en séparant chaque URL par un retour à la ligne.

Ce que je vais faire en utilisant la commande sed.

D'abord, je supprime toutes les occurrences de <loc> avec sed 's/<loc>//g'.

Explications :

  • j'indique à sed d'opérer une substitution avec s
  • je lui donne la chaîne à trouver : <loc>
  • je lui donne la chaîne de substitution, en l'occurrence ici une chaîne vide
  • je précise que la commande est globale avec g (toutes les occurrences trouvées doivent être remplacées)

Ensuite, je remplace chaque occurrence de </loc> par un retour à la ligne (\n) avec sed 's/<\/loc>/\n/g'. Attention ici à bien échapper le slash.

Pour combiner les deux commandes, je les sépare par un point-virgule.

Ce qui donne : sed 's/<loc>//g; s/<\/loc>/\n/g'.

Résultat de la commande curl + xmllint + sed

La commande finale

Et voilà le résultat.

curl -s https://www.seomemento.com/sitemap-posts.xml | xmllint --xpath "//*[local-name()='url']/*[local-name()='loc']" - | sed 's/<loc>//g; s/<\/loc>/\n/g'

Il faut bien entendu que tu remplaces https://www.seomemento.com/sitemap-posts.xml par l'URL de ton sitemap.

Bonus

Si tu veux enregistrer les URLs dans un fichier plutôt que de les afficher dans le terminal, ajoute simplement > urls.txt à la fin de ta commande.

Si tu souhaites simplement les copier dans ton presse-papier, ajoute plutôt | pbcopy.

Terminal

Antoine Brisset Twitter

Consultant SEO depuis 2010. Je traque les clics inutiles et j'automatise les tâches répétitives pour gagner du temps dans mon quotidien de travailleur du web.


Articles Similaires

Membres Public

Snippets iTerm2 : sauvegarde tes lignes de commande préférées !

Pour cette dernière newsletter de l'année, je te propose une petite astuce toute simple pour gagner du temps dans l'utilisation du terminal. Si tu es sur Mac, tu utilises peut-être le terminal par défaut. Il est cool, mais je préfère, de loin, la version proposée par

Snippets iTerm2 : sauvegarde tes lignes de commande préférées !
Membres Public

Comment vérifier le code réponse d'une liste d'URLs dans le terminal ?

Cette semaine, j'avais besoin de vérifier le code HTTP d'une grosse liste d'URLs. Manque de chance, ma licence Screaming Frog avait expiré et j'avais la flemme de la renouveler envie de finir ce que j'étais en train de faire avant

Comment vérifier le code réponse d'une liste d'URLs dans le terminal ?
Membres Public

Comment ouvrir plusieurs fenêtres Screaming Frog sur Mac ?

Aujourd'hui, nouvelle astuce pour tirer le meilleur parti de Screaming Frog. En tant que consultant SEO et éditeur de sites, je suis souvent amené, dans une même journée, à travailler sur plusieurs sites différents. Et l'une de mes tâches récurrentes, c'est le crawl. Avec

Comment ouvrir plusieurs fenêtres Screaming Frog sur Mac ?