Analyse comparative des systèmes
de pagination SEO
Benchmark technique des stratégies de pagination utilisées par les grands sites d’annonces français — Recommandations pour les plateformes Top-Webgroup
Client : Top-Webgroup
Sites concernés : nounou-top.fr · aide-au-top.fr · toutou-top.fr
Date : Février 2026
Analyse comparative — Pagination SEO
2 / 7
Sommaire
01 Contexte & enjeux crawl budget
02 Tableau comparatif synthétique
03 Fiches détaillées par acteur
04 État technique & obfuscation Top-Webgroup
05 Constat Top-Webgroup : logs vs crawl (30 jours)
06 Recette Webgroup
01 — Contexte & enjeux
Les sites Top-Webgroup (nounou-top, aide-au-top, toutou-top) sont des places de marché d’annonces à très forte volumétrie. Des milliers de fiches profils individuelles coexistent avec des pages de catégories (ville + métier) qui portent le vrai trafic SEO.
Problème classique : Googlebot gaspille son budget de crawl sur les fiches annonces individuelles (faible valeur SEO) au détriment des pages catégories département/ville qui ciblent les mots-clés à volume.
La pagination est le mécanisme clé qui connecte les pages catégories aux fiches annonces. Une pagination mal configurée peut :
- Diluer le crawl budget sur des centaines de pages paginées
- Créer du contenu dupliqué (canonicals mal configurées)
- Empêcher Google d’atteindre les catégories profondes
- Générer des variantes d’URL parasites (Turbo Frame)
Méthodologie
Analyse technique réalisée le 16 février 2026 par inspection directe du code source HTML (Puppeteer + curl), lecture des robots.txt, vérification de l’index Google (site:), et documentation technique publique. 5 acteurs analysés (SeLoger, Leboncoin, Indeed, Airbnb, PagesJaunes) + 3 sites Top-Webgroup.
Top-Webgroup — Analyse pagination SEO
Confidentiel — Février 2026
Analyse comparative — Pagination SEO
3 / 7
02 — Tableau comparatif synthétique
| Site |
Type de pagination |
URLs paginées crawlables |
Meta robots page 2+ |
Nofollow |
Obfuscation profonde |
Stratégie crawl |
Commentaire clé |
| SeLoger |
Obfuscation totale (<button>) |
× Aucun <a href> : pagination en <button> JS uniquement |
noindex, nofollow |
✓ Non |
✓ Obfuscation totale : <button> sans href |
Très agressive |
Pagination purement UX. Discovery via sitemap et hubs géographiques. Crawl budget parfaitement contrôlé. |
| Leboncoin |
URL SEO dédiées (/cl/.../p-N) |
✓ Oui sur /cl/ (SSR, path /p-N) |
noindex, nofollow |
× Oui : rel="nofollow" sur tous les liens dès page 2 |
✓ Indexé jusqu’à ~p-9, au-delà absent |
Agressive |
noindex, nofollow (meta) + rel=nofollow (liens) dès la page 2. Contrôle total du jus de lien. |
| Indeed |
Landing pages SEO + pagination bloquée |
✓ Oui (SSR) mais &start= bloqué par robots.txt |
Bloqué robots.txt |
✓ Non sur pagination |
✓ Robots.txt bloque toute pagination |
Modérée |
Pages dynamiques canonical vers landing pages pré-générées /q-...-emplois.html. |
| Airbnb |
React SPA + SSR, pagination limitée |
• Oui (SSR) mais canonical toutes → page 1 |
noindex, nofollow |
✓ Non |
✓ Limitée à ~15 pages |
Très agressive |
SEO sur fiches logement (millions) via sitemaps + hubs géo éditoriaux. Pagination = outil UX, pas SEO. |
| PagesJaunes |
Obfuscation totale pages 2+ |
× Page 1 seule crawlable, pages 2+ : href="#" + Base64 |
Absent (canonical → p.1) |
• Non (remplacé par obfuscation) |
✓ Pages 2-500 : noindex + href="#" |
Modérée |
Stratégie « Top 20 only ». Seuls les 20 premiers résultats reçoivent des liens crawlables. |
Nounou-top Aide-au-top Toutou-top |
Turbo hybride (Pagy + obfuscation à seuil dynamique) |
• Pages proches : vrais <a href>, au-delà du seuil : <span> obfusqué |
Absent |
✓ Non sur pagination |
• Obfuscation progressive : seuil ajusté par catégorie selon potentiel SEO |
En cours |
Obfuscation à seuil dynamique par catégorie. Pas de noindex sur pages 2+ contrairement à 3/5 acteurs. |
Lecture du tableau
✓ = Bonne pratique • = Partiel / acceptable × = Problème identifié
Top-Webgroup — Analyse pagination SEO
Confidentiel — Février 2026
Analyse comparative — Pagination SEO
4 / 7
03 — Fiches détaillées par acteur
| Pagination HTML | <button type="button"> — aucun <a href>, aucun lien crawlable |
| Meta robots page 2+ | noindex, nofollow — pages paginées complètement exclues de l’index |
| Canonical | Auto-référente par page (page 2 → page 2) |
| Sitemaps | Hubs géo + fiches. Pages paginées absentes des sitemaps. |
| Découverte | Exclusivement via sitemap XML et hubs géographiques |
Enseignement : Triple verrou : <button> (pas de lien) + noindex, nofollow + sitemaps sélectifs. La pagination est invisible pour Google.
| URLs paginées | /cl/voitures/cp_paris/p-2 (path segment, SSR) |
| Meta robots page 2+ | noindex, nofollow + canonical → page 1 |
| Nofollow liens | rel="nofollow" sur tous les liens de pagination dès la page 2 |
| Profondeur indexée | ~9 pages max dans l’index Google |
| Protection IA | Fiches /ad/ bloquées pour GPTBot, CCBot, etc. |
Enseignement : Triple contrôle sur la pagination : noindex, nofollow (meta) + rel=nofollow (liens) + canonical vers page 1. Zéro pollution de l’index.
| Pages indexées | /q-développeur-l-paris-(75)-emplois.html |
| Pages dynamiques | /jobs?q=...&start=N → canonical vers landing |
| Meta robots page 2+ | Non applicable — pages bloquées par robots.txt en amont |
| Robots.txt | Disallow: /*&start= pour Googlebot |
| Crawlers IA | Blocage total de tout contenu emploi |
Enseignement : Le vrai asset SEO = milliers de landing pages statiques. La pagination dynamique n’existe pas pour Google.
| Format URL | ?items_offset=18 (offset, 18 résultats/page) |
| Meta robots page 2+ | noindex, nofollow — aucun canonical associé |
| Profondeur | ~15 pages max, puis coupure |
| SEO réel | Millions de fiches /rooms/ via sitemaps XML |
| Hubs | /locations/paris--france/ (contenu éditorial) |
Enseignement : La pagination est un outil UX, pas un levier SEO. L’indexation passe par les sitemaps massifs.
| Page 1 | /annuaire/paris-75/restaurants — indexée, 80 liens fiches en dur |
| Pages 2+ | /chercherlespros?...&page=2 — obfuscation complète |
| Meta robots page 2+ | Absent — canonical pointe vers page 1 (consolidation) |
| Liens pagination | href="#" + URL en Base64 dans data-pjlb |
PagesJaunes fait le choix le plus radical du benchmark : seule la page 1 de chaque combinaison ville/activité est indexable. Les 15 000+ résultats restants sont complètement murés derrière une obfuscation JavaScript (href="#" + Base64).
Les fiches pros des pages 2+ ne sont accessibles à Google que via le sitemap XML ou le maillage depuis d’autres requêtes.
Top-Webgroup — Analyse pagination SEO
Confidentiel — Février 2026
Analyse comparative — Pagination SEO
5 / 7
04 — État technique & obfuscation Top-Webgroup
Les trois sites (nounou-top, aide-au-top, toutou-top) partagent la même codebase Ruby on Rails, la même gem de pagination Pagy, et le même stack Hotwire/Turbo + Stimulus. Le fonctionnement décrit ci-dessous est identique sur les 3 sites.
Stack technique
| Framework | Ruby on Rails + Webpacker |
| Frontend | Hotwire (Turbo Drive + Turbo Streams + Turbo Frames) + Stimulus |
| Pagination | Gem Pagy — fenêtre glissante de 5 numéros + lien « Suivant » + dernière page |
| Format URL | /annonce-gratuite/{métier}/{ville}-{cp}?page=N |
| Turbo Frames | 2 frames (modales d’inscription), pas sur le contenu listing |
| Turbo prefetch | Désactivé (meta content="false") |
Obfuscation à seuil dynamique
La pagination utilise un mécanisme d’obfuscation dont le seuil varie par catégorie et par ville/département, en fonction du potentiel SEO estimé de chaque combinaison. Concrètement :
| Élément | Rendu HTML | Crawlable par Google ? |
| Pages avant le seuil |
<a href="?page=N"> |
Oui — liens standards |
| Pages au-delà du seuil |
<span data-controller="clickable"> |
Non — obfuscation Stimulus |
| Lien « Suivant » |
<a href="?page=N+1"> |
Oui — toujours crawlable |
| Dernière page |
<a href="?page=847"> |
Oui — toujours en dur |
Le seuil est dynamique : une catégorie à fort potentiel SEO (ex. « assistante maternelle Paris ») aura un seuil plus élevé (plus de pages crawlables) qu’une catégorie à faible volume. Ce paramétrage se fait par catégorie et s’ajuste en fonction des données de trafic.
Balises SEO actuelles
| Balise | Page 1 | Pages 2+ | Constat |
rel="canonical" |
/paris-75 |
/paris-75 (pointe vers p.1) |
Canonical auto-référente sur p.1, consolidée sur p.2+ |
rel="prev/next" |
next OK |
prev + next OK |
Chaînage correctement implémenté |
meta robots |
Absente (index par défaut) |
Absente (index par défaut) |
Toutes les pages paginées sont actuellement indexables |
Top-Webgroup — Analyse pagination SEO
Confidentiel — Février 2026
Analyse comparative — Pagination SEO
6 / 7
05 — Constat Top-Webgroup : logs vs crawl (30 jours)
Données extraites des logs serveur sur 30 jours. Comparaison entre les directories (pages listing villes/départements) et les annonces (fiches individuelles), toutes catégories confondues.
Directories (listings ville/département)
| Catégorie |
URLs crawl |
URLs logs |
Explorations |
Clics |
Ratio clics/URL |
| Garde partagée |
60 329 |
16 560 |
378 606 |
1 341 |
0,02 |
| Assmat |
58 610 |
86 656 |
2 063 457 |
92 588 |
1,58 |
| Nounou |
58 231 |
82 444 |
3 715 374 |
8 162 |
0,14 |
| Babysitter |
57 582 |
41 007 |
2 021 466 |
11 642 |
0,20 |
| Employeur |
55 922 |
70 277 |
1 426 718 |
114 708 |
2,05 |
Annonces (fiches individuelles)
| Catégorie |
URLs crawl |
URLs logs |
Explorations |
Clics |
Ratio clics/URL |
| Nounou |
192 425 |
7 882 |
28 737 |
2 177 |
0,01 |
| Assmat |
166 809 |
31 721 |
108 678 |
1 964 |
0,01 |
| Employeur |
146 794 |
19 567 |
145 321 |
2 058 |
0,01 |
| Garde partagée |
135 731 |
3 473 |
10 411 |
1 769 |
0,01 |
| Babysitter |
94 790 |
9 528 |
33 030 |
772 |
0,01 |
Fréquence de crawl par URL connue (directories)
| Catégorie |
Explorations |
URLs logs |
Hits / URL / mois |
| Babysitter |
2 021 466 |
41 007 |
49x |
| Nounou |
3 715 374 |
82 444 |
45x |
| Assmat |
2 063 457 |
86 656 |
24x |
| Garde partagée |
378 606 |
16 560 |
23x |
| Employeur |
1 426 718 |
70 277 |
20x |
Constat
Les URLs de directories déjà connues de Google sont crawlées 20 à 49 fois par mois. C’est un signal fort : Googlebot considère ces pages comme prioritaires et revient régulièrement.
Le problème n’est pas l’intensité du crawl, c’est la portée. Exemple Garde partagée : 16 560 URLs crawlées 23x/mois chacune, mais 43 769 URLs jamais visitées (couverture 27%).
736 549 URLs d’annonces crawlées pour un retour SEO quasi nul sur toutes les catégories. Les annonces Nounou : 192 425 URLs crawl pour seulement 7 882 vues en logs (4% de couverture).
L’enjeu : élargir la surface de découverte des directories (pas plus d’intensité, mais plus d’URLs découvertes) et réduire le gaspillage sur les annonces.
Top-Webgroup — Analyse pagination SEO
Confidentiel — Février 2026
Analyse comparative — Pagination SEO
7 / 7
06 — Recette Webgroup
Il n’y a pas de recette miracle. Ce qui compte, c’est la compréhension de notre stack technique (ce qu’il est possible de faire avec Pagy + Stimulus) et de nos objectifs (à la lecture des données de logs). Nous ne sommes pas SeLoger (~300K directories) ni Leboncoin : à l’échelle de chaque site, nous sommes plus petits. Mais nos problématiques sont connexes, et l’objectif est clair : privilégier les directories.
Stratégie de pagination en 3 paliers
| Palier |
Pages |
Meta robots |
Liens pagination |
Logique |
| Palier 1 |
Pages 1 → 5 |
index, follow |
<a href> crawlables |
Google indexe et suit les liens — on capitalise sur la longue traîne des premières pages |
| Palier 2 |
Pages 6 → seuil (ex. p.10) |
noindex, nofollow |
<a href> crawlables |
Google peut voir ces pages mais ne les indexe pas — zone tampon |
| Palier 3 |
Au-delà du seuil |
— |
Obfuscation Stimulus (<span>) |
Invisible pour Google — crawl budget protégé |
Le seuil du palier 2 → 3 est fonction de l’importance SEO de la catégorie. Exemple : « assistante maternelle Paris » (fort potentiel) pourra avoir un seuil à page 15, tandis que « garde partagée Aurillac » (faible volume) basculera en obfuscation dès page 6. Ce paramétrage dynamique est déjà en place.
Fenêtre de pagination visible
La numérotation affichée montre systématiquement « ... » + dernière page. Ce pattern remplit un double rôle :
← 3 4 5 6 7 … 847 →
| Élément | Rendu | Toujours en dur ? |
| 5 numéros (courante ± 2) | <a href> ou <span> selon palier | Selon palier |
| « ... » | Ellipse visuelle | Signal d’exhaustivité — l’utilisateur et Google comprennent qu’il y a du contenu entre |
| Dernière page | <a href="?page=847"> | Oui, toujours en dur — Google voit la profondeur totale |
| Suivant (→) | <a href> | Oui, toujours |
Le « ... » + dernière page est un avantage différenciant : aucun des 5 acteurs analysés ne donne à Google un lien en dur vers la dernière page paginée. Top-Webgroup le fait systématiquement, ce qui permet à Googlebot de comprendre l’exhaustivité du contenu sans crawler des centaines de pages.
Prochaine étape : re-analyse de logs à 30 jours
- Taux de couverture directories : % d’URLs crawlées au moins 1x/mois (objectif : >85%)
- Fréquence de crawl : hits/URL/mois (maintenir le signal positif 20-49x)
- Volume annonces crawlées : le ratio 0,01 doit reculer en valeur absolue
- Garde partagée : focus prioritaire, de 27% vers 70%+
- Redéployer les 3 paliers sur les 3 sites
- Attendre 30 jours de données de logs post-déploiement
- Comparer les métriques avant/après (même format que la section 05)
- Ajuster les seuils dynamiques si nécessaire
Top-Webgroup — Analyse pagination SEO
Confidentiel — Février 2026