Interview de Madeline Pinthon

Le monde du SEO technique n’est pas réservé aux hommes, et Madeline Pinthon le prouve avec compétence. Pour TeknSEO, elle présentera ses techniques pour scraper du contenu facilement et rapidement. Mais en attendant, découvrez son profil avec son interview.

Madeline, peux tu te présenter en quelques mots ?

Je m’appelle Madeline Pinthon, je suis consultante SEO chez iProspect depuis 3 ans. Auparavant, j’ai fait 4 ans chez l’annonceur, un poste majoritairement SEO, avec du SEA et du web analytics. J’ai appris le côté technique principalement chez l’annonceur. L’agence m’a permis de découvrir de nouvelles problématiques, de nouveaux types de sites. Avoir travaillé chez l’annonceur me permet de mieux cibler les attentes et les besoins de mes clients… et d’être en mesure de faire de l’opérationnel, pas uniquement des recommandations.

Peux tu présenter ta définition du scraping ?

Le scraping, c’est être capable d’extraire et de collecter des données, de manière automatique. Cela permet de gagner du temps et de consacrer plus de temps à l’analyse, à l’exploitation de la donnée, ce qui est beaucoup plus intéressant. On automatise les tâches ingrates.

Peux tu nous donner des exemples d’utilisation du scraping ?

La première idée lorsqu’on fait du SEO, c’est scraper les résultats de Google : soit pour faire un suivi de positionnement, soit pour trouver des sites thématisés, etc. Mes premiers bricolages consistaient à trouver des blogs indexés et thématisés avec des formulaires contenant un champ « site web » pour poster des commentaires.
Pour avoir des idées de mots clés, scraper les suggestions de recherche, les autres questions posées,…
Mais il peut y avoir plein d’autres usages : pour développer son activité, développer son réseau, trouver des consultants, etc. Linkedin peut être une bonne source de données.
On peut également scrapper pour faire de la veille : surveiller les prix de concurrents, etc.
On peut scraper son propre site pour préparer une migration, vérifier la mise en place de certains éléments, la présence de balises, etc.
Avec le développement du machine learning, il faut avoir des data sets assez importants pour pouvoir ensuite les classifier, etc. donc scraper peut fournir une bonne base de travail…Bref, il y a plein d’utilisations possibles.

Sans nous dévoiler le contenu de ton atelier, peux tu nous dire en deux mots pourquoi il peut être facile et rapide de scraper du contenu ?

Cela peut être facile car il y a plein d’outils à disposition. Après, les outils sont pratiques mais parfois limités, donc rien ne vaut l’outil maison. Pour cela, il faut savoir développer un peu. Le but de cet atelier est donc de découvrir certains outils, puis d’aller plus loin en apprenant le xpath, à l’intégrer dans des scripts, etc. L’idée, c’est vraiment de découvrir des outils gratuits et les meilleurs outils gratuits sont ceux que l’on construit. On apprendra donc à faire cela.

D’un point de vue éthique et légal, quel est ton point de vue sur le fait de scraper le web ?

Le scrap en lui même est (souvent) légal. Il suffit de respecter le robots.txt 🙂
L’usage qu’on fait des données collectées peut être illégal et non éthique. Donc c’est à chacun d’être conscient de ce qu’il fait et de prendre ses responsabilités. L’éthique relève de la personne, pas de la technique.