Vous êtes perdu ? pas de panique notre lexique est là pour vous aider
Lexique SEO : les définitions à connaître
Les définitions essentielles en SEO
Le SEO (Search Engine Optimization) ne se limite pas à un simple positionnement sur Google : il représente un ensemble de leviers techniques, sémantiques et structurels destinés à améliorer la visibilité d’un site dans les moteurs de recherche. Pour en saisir toute la logique, il faut comprendre les multiples dimensions qui le composent et la manière dont elles interagissent entre elles.
Le premier pilier concerne la recherche et les résultats : comprendre comment les algorithmes classent les pages, comment les intentions de recherche se traduisent en requêtes, et comment les SERP (Search Engine Results Pages) reflètent la pertinence d’un contenu.
Le second pilier repose sur la structure d’une page, c’est-à-dire la manière dont les balises HTML, les titres (Hn), les métadonnées et le maillage interne construisent une hiérarchie claire pour les utilisateurs et les robots d’exploration.
Vient ensuite la conception technique d’un site, cœur de la performance SEO. Elle englobe l’accessibilité, la vitesse de chargement, l’indexation et la compatibilité mobile. Ces critères techniques influencent directement le crawl, la compréhension du contenu et la qualité perçue par les moteurs.
Enfin, le dernier pilier, l’optimisation sémantique, vise à relier les mots, les intentions et les entités pour donner du sens au contenu. C’est ici que la richesse lexicale, les liens internes et la structure thématique entrent en jeu.
Autant d’éléments indissociables pour construire une visibilité durable et faire du SEO un véritable levier de performance digitale.
Lumière sur les termes forts inhérents à tous ces éléments :
SEO Technique & Crawl
Crawl budget
Le crawl budget désigne le nombre de pages qu’un moteur de recherche est prêt à explorer sur un site donné. Il dépend de l’autorité du domaine, de la fréquence de mise à jour et de la performance technique du serveur.
Obfuscation de lien
L’obfuscation de lien consiste à masquer certains liens internes aux robots d’indexation, sans les rendre invisibles aux utilisateurs. Cette technique optimise la distribution du PageRank et préserve le crawl budget sur les pages réellement stratégiques.
Crawl budget
Le crawl budget désigne le nombre de pages qu’un moteur de recherche est prêt à explorer sur un site donné. Il dépend de l’autorité du domaine, de la fréquence de mise à jour et de la performance technique du serveur.
Log analysis
L’analyse de logs permet d’étudier les fichiers enregistrant les requêtes des robots et utilisateurs sur un serveur. Elle révèle comment Googlebot explore un site, identifie les pages peu crawlées et aide à corriger les problèmes d’exploration et d’indexation.
Time to First Byte (TTFB)
Le TTFB mesure le délai entre la requête d’un utilisateur et la réception du premier octet de réponse du serveur. Indicateur clé de performance technique, il influence directement la vitesse de chargement et l’expérience utilisateur.
Core Web Vitals
Les Core Web Vitals sont trois indicateurs de Google (LCP, FID, CLS) mesurant la performance d’un site. Ils évaluent la vitesse de chargement, l’interactivité et la stabilité visuelle, impactant à la fois le SEO et l’expérience utilisateur.
CLS (Cumulative Layout Shift)
Le CLS mesure la stabilité visuelle d’une page lors de son chargement. Un score élevé indique que des éléments se déplacent trop brusquement, nuisant à l’expérience utilisateur. Google recommande un CLS inférieur à 0,1 pour de bonnes performances.
LCP (Largest Contentful Paint)
Le LCP évalue le temps nécessaire au chargement de l’élément principal visible d’une page (image, texte, vidéo). Un bon score se situe sous 2,5 secondes, garantissant une expérience fluide et améliorant le classement SEO du site.
TBT (Total Blocking Time)
Le LCP évalue le temps nécessaire au chargement de l’élément principal visible d’une page (image, texte, vidéo). Un bon score se situe sous 2,5 secondes, garantissant une expérience fluide et améliorant le classement SEO du site.
LCP (Largest Contentful Paint)
Le TBT mesure le temps total pendant lequel le navigateur est bloqué par des scripts, empêchant l’interaction utilisateur. Il complète le FID (First Input Delay) pour évaluer la réactivité et la fluidité d’un site web moderne.
CDN (Content Delivery Network)
Un CDN est un réseau de serveurs répartis géographiquement qui diffuse les contenus d’un site depuis le serveur le plus proche de l’utilisateur. Il réduit la latence, accélère le chargement et améliore la performance globale du site.
HTTP status codes (301, 302, 410, 503)
Les codes HTTP indiquent l’état d’une ressource : 301 (redirection permanente), 302 (temporaire), 410 (contenu supprimé), 503 (serveur indisponible). Ils guident les moteurs dans l’indexation et assurent une gestion correcte des redirections et erreurs.
HTTP status codes (301, 302, 410, 503)
Les codes HTTP indiquent l’état d’une ressource : 301 (redirection permanente), 302 (temporaire), 410 (contenu supprimé), 503 (serveur indisponible). Ils guident les moteurs dans l’indexation et assurent une gestion correcte des redirections et erreurs.
Sitemap XML
Un sitemap XML liste les pages d’un site pour faciliter leur découverte par les robots d’indexation. Il précise la hiérarchie des contenus, leur date de mise à jour et optimise l’exploration, surtout pour les sites volumineux ou dynamiques.
Robots.txt
Le fichier robots.txt, situé à la racine d’un site, indique aux moteurs quelles parties peuvent ou non être explorées. Bien configuré, il optimise le crawl budget et évite l’indexation de zones techniques ou de contenus dupliqués.
Canonicalisation
La canonicalisation consiste à signaler la version principale d’une page lorsqu’un contenu existe en plusieurs exemplaires. Grâce à la balise <link rel="canonical">
, elle prévient le duplicate content et consolide le PageRank sur l’URL prioritaire.
Faceted navigation
La navigation à facettes permet de filtrer des produits ou contenus selon plusieurs critères (prix, couleur, taille…). Mal gérée, elle peut générer des milliers d’URL similaires et diluer le crawl budget, nécessitant un balisage SEO rigoureux.
JavaScript rendering
Le rendu JavaScript désigne la capacité d’un moteur à exécuter et comprendre le contenu généré dynamiquement par des scripts. Une mauvaise gestion du rendu peut empêcher l’indexation de sections importantes, notamment sur les sites en frameworks SPA.
Lazy loading
Le lazy loading retarde le chargement des images ou vidéos jusqu’à ce qu’elles deviennent visibles à l’écran. Cette technique réduit le poids initial de la page, améliore les Core Web Vitals et accélère l’affichage sur mobile.
Soft 404
Une erreur Soft 404 se produit lorsqu’une page inexistante renvoie un code 200 au lieu d’un vrai 404. Les moteurs la considèrent comme trompeuse, gaspillant le crawl budget et risquant de dégrader la qualité d’indexation globale du site.
Crawl Depth
La profondeur de crawl mesure la distance entre une page et la page d’accueil en nombre de clics. Plus une page est profonde, moins elle est explorée. Réduire cette profondeur favorise un crawl plus fréquent et un meilleur positionnement.