Comment savoir si l'audit SEO qu'on vous a livré est sérieux ?
Vous avez payé 1200€ pour un audit SEO. Vous recevez un PDF de 47 pages. Est-ce que ça vaut ce prix ou c'est juste un export Screaming Frog avec du texte autour ?
Il contient des données spécifiques à votre site, pas des généralités
Mauvais : "Votre site a des problèmes de vitesse. Optimisez vos images et réduisez le JavaScript."
Bon : "17 pages ont un LCP supérieur à 3,5 secondes. Les 3 principales : /category/chaussures (4,2s à cause de hero-banner.jpg qui pèse 2,1 Mo), /produits/running-nike (3,8s), /blog/guide-marathon (3,9s)."
Si vous pouvez remplacer le nom de votre site par n'importe quel autre et que ça reste pertinent, l'audit est générique.
Les recommandations sont priorisées avec un effort estimé
Un bon audit classe les actions en : impact fort + effort faible (à faire en premier), impact fort + effort élevé (planifier), impact faible + effort faible (quick wins), impact faible + effort élevé (ignorer).
Sans priorisation, vous avez 120 tâches et aucune idée par où commencer.
Il y a des captures d'écran de votre site, pas des schémas génériques
Vous devez reconnaître vos pages, vos URLs, vos données Search Console. Si le rapport contient 8 captures d'écran dont 6 sont des interfaces d'outils, c'est léger.
Les données de plusieurs sources sont croisées
Exemple : "La page /services/consulting a 1240 impressions/mois dans Search Console mais seulement 18 clics (CTR 1,4%). Position moyenne : 7,2. PageSpeed score : 42/100 mobile. Temps de chargement : 4,8s. Recommandation : optimiser d'abord la vitesse, puis réécrire la meta description pour améliorer le CTR."
Un outil seul ne fait pas ces connexions. C'est de l'analyse humaine.
Il identifie des problèmes que vous ne connaissiez pas
Si tout dans l'audit est quelque chose que vous aviez déjà remarqué, vous avez payé pour une confirmation, pas une analyse.
Un bon audit trouve 5-10 problèmes que vous n'auriez jamais détectés seul.
Les données de concurrence sont présentes
"Vos 3 concurrents principaux ont en moyenne 340 domaines référents. Vous en avez 87. Ils publient 8-12 articles/mois, vous en publiez 2-3."
Sans contexte concurrentiel, impossible de savoir si vos métriques sont bonnes ou mauvaises.
Il y a une section sur ce qui fonctionne déjà bien
Pas que des problèmes. Aussi : "Vos 8 articles de type 'guide complet' génèrent 65% de votre trafic organique avec seulement 12% de vos pages. Stratégie à reproduire."
Comprendre ce qui marche est aussi important que corriger ce qui ne marche pas.
Les métriques ont une date de collecte
"Données collectées du 15 novembre au 18 décembre 2024." Sans date, impossible de savoir si l'analyse porte sur des données récentes ou d'il y a 6 mois.
Il y a une estimation de l'impact potentiel
"Corriger les 23 erreurs 404 les plus crawlées pourrait récupérer environ 8-12% de crawl budget, permettant à Google de découvrir vos nouvelles pages 3-4 jours plus tôt."
Pas de garanties, mais des estimations basées sur l'expérience.
Le rapport n'est pas juste un PDF mais inclut des fichiers exploitables
Feuilles Excel avec la liste des redirections à créer, des balises title à réécrire, des URLs à désindexer. Vous devez pouvoir donner ces fichiers directement à votre dev.