Top-Webgroup

Accès confidentiel

Document réservé — Analyse pagination SEO

Analyse comparative des systèmes
de pagination SEO

Benchmark technique des stratégies de pagination utilisées par les grands sites d’annonces français — Recommandations pour les plateformes Top-Webgroup

Client : Top-Webgroup Sites concernés : nounou-top.fr · aide-au-top.fr · toutou-top.fr Date : Février 2026
Analyse comparative — Pagination SEO
2 / 7

Sommaire

01 Contexte & enjeux crawl budget
02 Tableau comparatif synthétique
03 Fiches détaillées par acteur
04 État technique & obfuscation Top-Webgroup
05 Constat Top-Webgroup : logs vs crawl (30 jours)
06 Recette Webgroup

01 — Contexte & enjeux

Le problème

Les sites Top-Webgroup (nounou-top, aide-au-top, toutou-top) sont des places de marché d’annonces à très forte volumétrie. Des milliers de fiches profils individuelles coexistent avec des pages de catégories (ville + métier) qui portent le vrai trafic SEO.

Problème classique : Googlebot gaspille son budget de crawl sur les fiches annonces individuelles (faible valeur SEO) au détriment des pages catégories département/ville qui ciblent les mots-clés à volume.

L’enjeu pagination

La pagination est le mécanisme clé qui connecte les pages catégories aux fiches annonces. Une pagination mal configurée peut :

  • Diluer le crawl budget sur des centaines de pages paginées
  • Créer du contenu dupliqué (canonicals mal configurées)
  • Empêcher Google d’atteindre les catégories profondes
  • Générer des variantes d’URL parasites (Turbo Frame)

Méthodologie

Analyse technique réalisée le 16 février 2026 par inspection directe du code source HTML (Puppeteer + curl), lecture des robots.txt, vérification de l’index Google (site:), et documentation technique publique. 5 acteurs analysés (SeLoger, Leboncoin, Indeed, Airbnb, PagesJaunes) + 3 sites Top-Webgroup.

Top-Webgroup — Analyse pagination SEO Confidentiel — Février 2026
Analyse comparative — Pagination SEO
3 / 7

02 — Tableau comparatif synthétique

Site Type de pagination URLs paginées crawlables Meta robots page 2+ Nofollow Obfuscation profonde Stratégie crawl Commentaire clé
SeLoger Obfuscation totale (<button>) × Aucun <a href> : pagination en <button> JS uniquement noindex, nofollow Non Obfuscation totale : <button> sans href Très agressive Pagination purement UX. Discovery via sitemap et hubs géographiques. Crawl budget parfaitement contrôlé.
Leboncoin URL SEO dédiées (/cl/.../p-N) Oui sur /cl/ (SSR, path /p-N) noindex, nofollow × Oui : rel="nofollow" sur tous les liens dès page 2 Indexé jusqu’à ~p-9, au-delà absent Agressive noindex, nofollow (meta) + rel=nofollow (liens) dès la page 2. Contrôle total du jus de lien.
Indeed Landing pages SEO + pagination bloquée Oui (SSR) mais &start= bloqué par robots.txt Bloqué robots.txt Non sur pagination Robots.txt bloque toute pagination Modérée Pages dynamiques canonical vers landing pages pré-générées /q-...-emplois.html.
Airbnb React SPA + SSR, pagination limitée Oui (SSR) mais canonical toutes → page 1 noindex, nofollow Non Limitée à ~15 pages Très agressive SEO sur fiches logement (millions) via sitemaps + hubs géo éditoriaux. Pagination = outil UX, pas SEO.
PagesJaunes Obfuscation totale pages 2+ × Page 1 seule crawlable, pages 2+ : href="#" + Base64 Absent (canonical → p.1) Non (remplacé par obfuscation) Pages 2-500 : noindex + href="#" Modérée Stratégie « Top 20 only ». Seuls les 20 premiers résultats reçoivent des liens crawlables.
Nounou-top
Aide-au-top
Toutou-top
Turbo hybride (Pagy + obfuscation à seuil dynamique) Pages proches : vrais <a href>, au-delà du seuil : <span> obfusqué Absent Non sur pagination Obfuscation progressive : seuil ajusté par catégorie selon potentiel SEO En cours Obfuscation à seuil dynamique par catégorie. Pas de noindex sur pages 2+ contrairement à 3/5 acteurs.

Lecture du tableau

= Bonne pratique    = Partiel / acceptable    × = Problème identifié

Top-Webgroup — Analyse pagination SEO Confidentiel — Février 2026
Analyse comparative — Pagination SEO
4 / 7

03 — Fiches détaillées par acteur

SeLoger — Obfuscation totale
Pagination HTML<button type="button"> — aucun <a href>, aucun lien crawlable
Meta robots page 2+noindex, nofollow — pages paginées complètement exclues de l’index
CanonicalAuto-référente par page (page 2 → page 2)
SitemapsHubs géo + fiches. Pages paginées absentes des sitemaps.
DécouverteExclusivement via sitemap XML et hubs géographiques

Enseignement : Triple verrou : <button> (pas de lien) + noindex, nofollow + sitemaps sélectifs. La pagination est invisible pour Google.

Leboncoin — Pagination verrouillée
URLs paginées/cl/voitures/cp_paris/p-2 (path segment, SSR)
Meta robots page 2+noindex, nofollow + canonical → page 1
Nofollow liensrel="nofollow" sur tous les liens de pagination dès la page 2
Profondeur indexée~9 pages max dans l’index Google
Protection IAFiches /ad/ bloquées pour GPTBot, CCBot, etc.

Enseignement : Triple contrôle sur la pagination : noindex, nofollow (meta) + rel=nofollow (liens) + canonical vers page 1. Zéro pollution de l’index.

Indeed — Landing pages pré-générées
Pages indexées/q-développeur-l-paris-(75)-emplois.html
Pages dynamiques/jobs?q=...&start=N → canonical vers landing
Meta robots page 2+Non applicable — pages bloquées par robots.txt en amont
Robots.txtDisallow: /*&start= pour Googlebot
Crawlers IABlocage total de tout contenu emploi

Enseignement : Le vrai asset SEO = milliers de landing pages statiques. La pagination dynamique n’existe pas pour Google.

Airbnb — Fiches via sitemaps
Format URL?items_offset=18 (offset, 18 résultats/page)
Meta robots page 2+noindex, nofollow — aucun canonical associé
Profondeur~15 pages max, puis coupure
SEO réelMillions de fiches /rooms/ via sitemaps XML
Hubs/locations/paris--france/ (contenu éditorial)

Enseignement : La pagination est un outil UX, pas un levier SEO. L’indexation passe par les sitemaps massifs.

PagesJaunes — Obfuscation radicale
Page 1/annuaire/paris-75/restaurants — indexée, 80 liens fiches en dur
Pages 2+/chercherlespros?...&page=2 — obfuscation complète
Meta robots page 2+Absent — canonical pointe vers page 1 (consolidation)
Liens paginationhref="#" + URL en Base64 dans data-pjlb

PagesJaunes fait le choix le plus radical du benchmark : seule la page 1 de chaque combinaison ville/activité est indexable. Les 15 000+ résultats restants sont complètement murés derrière une obfuscation JavaScript (href="#" + Base64).

Les fiches pros des pages 2+ ne sont accessibles à Google que via le sitemap XML ou le maillage depuis d’autres requêtes.

Top-Webgroup — Analyse pagination SEO Confidentiel — Février 2026
Analyse comparative — Pagination SEO
5 / 7

04 — État technique & obfuscation Top-Webgroup

Les trois sites (nounou-top, aide-au-top, toutou-top) partagent la même codebase Ruby on Rails, la même gem de pagination Pagy, et le même stack Hotwire/Turbo + Stimulus. Le fonctionnement décrit ci-dessous est identique sur les 3 sites.

Stack technique

FrameworkRuby on Rails + Webpacker
FrontendHotwire (Turbo Drive + Turbo Streams + Turbo Frames) + Stimulus
PaginationGem Pagy — fenêtre glissante de 5 numéros + lien « Suivant » + dernière page
Format URL/annonce-gratuite/{métier}/{ville}-{cp}?page=N
Turbo Frames2 frames (modales d’inscription), pas sur le contenu listing
Turbo prefetchDésactivé (meta content="false")

Obfuscation à seuil dynamique

La pagination utilise un mécanisme d’obfuscation dont le seuil varie par catégorie et par ville/département, en fonction du potentiel SEO estimé de chaque combinaison. Concrètement :

ÉlémentRendu HTMLCrawlable par Google ?
Pages avant le seuil <a href="?page=N"> Oui — liens standards
Pages au-delà du seuil <span data-controller="clickable"> Non — obfuscation Stimulus
Lien « Suivant » <a href="?page=N+1"> Oui — toujours crawlable
Dernière page <a href="?page=847"> Oui — toujours en dur

Le seuil est dynamique : une catégorie à fort potentiel SEO (ex. « assistante maternelle Paris ») aura un seuil plus élevé (plus de pages crawlables) qu’une catégorie à faible volume. Ce paramétrage se fait par catégorie et s’ajuste en fonction des données de trafic.

Balises SEO actuelles

BalisePage 1Pages 2+Constat
rel="canonical" /paris-75 /paris-75 (pointe vers p.1) Canonical auto-référente sur p.1, consolidée sur p.2+
rel="prev/next" next OK prev + next OK Chaînage correctement implémenté
meta robots Absente (index par défaut) Absente (index par défaut) Toutes les pages paginées sont actuellement indexables
Top-Webgroup — Analyse pagination SEO Confidentiel — Février 2026
Analyse comparative — Pagination SEO
6 / 7

05 — Constat Top-Webgroup : logs vs crawl (30 jours)

Données extraites des logs serveur sur 30 jours. Comparaison entre les directories (pages listing villes/départements) et les annonces (fiches individuelles), toutes catégories confondues.

Directories (listings ville/département)

Catégorie URLs crawl URLs logs Explorations Clics Ratio clics/URL
Garde partagée 60 329 16 560 378 606 1 341 0,02
Assmat 58 610 86 656 2 063 457 92 588 1,58
Nounou 58 231 82 444 3 715 374 8 162 0,14
Babysitter 57 582 41 007 2 021 466 11 642 0,20
Employeur 55 922 70 277 1 426 718 114 708 2,05

Annonces (fiches individuelles)

Catégorie URLs crawl URLs logs Explorations Clics Ratio clics/URL
Nounou 192 425 7 882 28 737 2 177 0,01
Assmat 166 809 31 721 108 678 1 964 0,01
Employeur 146 794 19 567 145 321 2 058 0,01
Garde partagée 135 731 3 473 10 411 1 769 0,01
Babysitter 94 790 9 528 33 030 772 0,01

Fréquence de crawl par URL connue (directories)

Catégorie Explorations URLs logs Hits / URL / mois
Babysitter 2 021 466 41 007 49x
Nounou 3 715 374 82 444 45x
Assmat 2 063 457 86 656 24x
Garde partagée 378 606 16 560 23x
Employeur 1 426 718 70 277 20x

Constat

Signal positif : Google aime les directories

Les URLs de directories déjà connues de Google sont crawlées 20 à 49 fois par mois. C’est un signal fort : Googlebot considère ces pages comme prioritaires et revient régulièrement.

Le problème n’est pas l’intensité du crawl, c’est la portée. Exemple Garde partagée : 16 560 URLs crawlées 23x/mois chacune, mais 43 769 URLs jamais visitées (couverture 27%).

Annonces : ratio clics/URL de 0,01 partout

736 549 URLs d’annonces crawlées pour un retour SEO quasi nul sur toutes les catégories. Les annonces Nounou : 192 425 URLs crawl pour seulement 7 882 vues en logs (4% de couverture).

L’enjeu : élargir la surface de découverte des directories (pas plus d’intensité, mais plus d’URLs découvertes) et réduire le gaspillage sur les annonces.

Top-Webgroup — Analyse pagination SEO Confidentiel — Février 2026
Analyse comparative — Pagination SEO
7 / 7

06 — Recette Webgroup

Il n’y a pas de recette miracle. Ce qui compte, c’est la compréhension de notre stack technique (ce qu’il est possible de faire avec Pagy + Stimulus) et de nos objectifs (à la lecture des données de logs). Nous ne sommes pas SeLoger (~300K directories) ni Leboncoin : à l’échelle de chaque site, nous sommes plus petits. Mais nos problématiques sont connexes, et l’objectif est clair : privilégier les directories.

Stratégie de pagination en 3 paliers

Palier Pages Meta robots Liens pagination Logique
Palier 1 Pages 1 → 5 index, follow <a href> crawlables Google indexe et suit les liens — on capitalise sur la longue traîne des premières pages
Palier 2 Pages 6 → seuil (ex. p.10) noindex, nofollow <a href> crawlables Google peut voir ces pages mais ne les indexe pas — zone tampon
Palier 3 Au-delà du seuil Obfuscation Stimulus (<span>) Invisible pour Google — crawl budget protégé

Le seuil du palier 2 → 3 est fonction de l’importance SEO de la catégorie. Exemple : « assistante maternelle Paris » (fort potentiel) pourra avoir un seuil à page 15, tandis que « garde partagée Aurillac » (faible volume) basculera en obfuscation dès page 6. Ce paramétrage dynamique est déjà en place.

Fenêtre de pagination visible

La numérotation affichée montre systématiquement « ... » + dernière page. Ce pattern remplit un double rôle :

←  3   4   5   6   7     847   →
ÉlémentRenduToujours en dur ?
5 numéros (courante ± 2)<a href> ou <span> selon palierSelon palier
« ... »Ellipse visuelleSignal d’exhaustivité — l’utilisateur et Google comprennent qu’il y a du contenu entre
Dernière page<a href="?page=847">Oui, toujours en dur — Google voit la profondeur totale
Suivant (→)<a href>Oui, toujours

Le « ... » + dernière page est un avantage différenciant : aucun des 5 acteurs analysés ne donne à Google un lien en dur vers la dernière page paginée. Top-Webgroup le fait systématiquement, ce qui permet à Googlebot de comprendre l’exhaustivité du contenu sans crawler des centaines de pages.

Prochaine étape : re-analyse de logs à 30 jours

Ce qu’on mesure
  • Taux de couverture directories : % d’URLs crawlées au moins 1x/mois (objectif : >85%)
  • Fréquence de crawl : hits/URL/mois (maintenir le signal positif 20-49x)
  • Volume annonces crawlées : le ratio 0,01 doit reculer en valeur absolue
  • Garde partagée : focus prioritaire, de 27% vers 70%+
Ce qu’on attend
  • Redéployer les 3 paliers sur les 3 sites
  • Attendre 30 jours de données de logs post-déploiement
  • Comparer les métriques avant/après (même format que la section 05)
  • Ajuster les seuils dynamiques si nécessaire
Top-Webgroup — Analyse pagination SEO Confidentiel — Février 2026