Le référencement naturel, ou SEO (Search Engine Optimization) est l’ensemble des méthodes et techniques qui permettent de positionner les pages web de votre site internet dans les premiers résultats naturels des moteurs de recherche (notamment Google, mais aussi Bing, Yahoo ).
Aujourd’hui il y a presque 2 milliards de sites web sur la toile et Google a indexé près 50 000 milliards de pages.
Lorsqu’un internaute lance une recherche sur la Toile, dans la plupart des cas il trouve la réponse à son intention de recherche sur la premiere page.
« Etre present sur la première page de Google ou de bing est un facteur de survie pour votre entreprise.
C’est l’objectif du Référencement Naturel (SEO) mais aussi des liens sponsorise : c’est pour cela que certaines agences Seo appellent le référencement naturel référencement gratuit.
La naissance des moteurs de recherche
Le terme site internet a été écrit la première fois en 1991par Tim Berners-Lee mais les moteurs de recherche ne sont apparus que 3 ans après dont Yahoo a été le premier en 1994 et Google en second en 1997.
Larry Page et son compere Serguei Brin ont remarqué lorsqu’ils étaient étudiants a Stanford que les publications universitaires font référence toujours à d’autres publications dans un glossaire et que les ouvrages qui font “référence” sont plus mentionne que les autres : idée de la méthode du classement du référencement naturel était nee et Google allait devenir un index de classement de liens de reference.
Google a donc défini cette règle pour une page Web : Plus elle reçoit de liens ou reference d’autres sites Web, plus elle est de qualité.
Ces mentions agissent comme un vote : Plus une publication est citée, plus elle est importante.
A cette epoque , plus précisément entre 1997 et 2003, le terme « Search Engine Optimization » ou SEO n’existait pas :il n’y avait pas de bonnes et mauvaises pratiques de référencement naturel.
Cette situation va alarmer les moteurs de recherche, notamment Google qui se lance dans la défense de l’expérience des utilisateurs du moteur de recherche. C’est la naissance du SEO, des termes Black Hat et White Hat
Le commencement du SEO : Don’t be evil.
Entre 2003 et 2005, le web connait un changement radical, engendrant la transformation de l’utilisation d’internet. Google s’efforce donc de règlementer les pratiques de référencement naturel des sites web dans l’unique objectif : améliorer l’expérience utilisateur du moteur de recherche.
À cette époque, « Don’t be Evil » est le slogan de Google.
Google met en place de nombreux autres critères pour classer les pages Web et les experts SEO parlent même de plus de 200 critères mais l’objectif de Google devient satisfait les intentions de recherche desinternautes.
Google va mettre encore les algorithmes complexes et stricts qui sont utilisés de nos jours.
Les Algorithmes de Google
Algorithme Google : 20 mises à jour et faits intéressants à connaître
L’algorithme de Google décide comment votre site internet se positionnera en première dans les résultats de recherche et l’algorithme a beaucoup évolué avec une vingtaine de mise a jour:
- Caffeine facilite et augmente la rapidité d’indexation,
- Panda est un filtre qui pénalise les sites de mauvaise qualité : la qualité de contenu et les pénalités Google font leur apparition
- Top Heavy filtre pénalisant les sites anormalement surchargés en publicités
- Penguin est un filtre de recherche qui pénalise le référencement de sites internet qui ne respectent pas les directives de Google en matière de création, d’achats ou de réseaux de liens.( Spam)
- Pirate: apparition du système DMCA et de l’ereputation
- Exact Match Domain permet d’éviter que les sites internet ne soient référencés dans les premiers résultats de recherche, simplement parce que leur nom de domaine correspond à une requête fortement recherchée par les internautes
- Payday
- Hummingbird ou Colibri permet de comprendre une requête ou une phrase dans son ensemble et non plus en fonction d’un ou de quelques mots-clés.
- Pigeon favorise les résultats locaux
- Mobile Friendly et lancement du Mobile First Index
- Rankbrain est un filtre aqdditionnel a colibri introduisant de L’AI pour comprendre la recherche.
- Phantom
- La limite des meta description passe de 160 caractères à une limite de 320 caractères.
- Premiere Core Update Aout 2018 : utilisation de ssl privilégié.
- Core Update de juin 2019 bannit les pages satellites
- Site Diversity Update
- Core Update Septembre 2019 : consolidation des SERP
- BERT hiérarchiser les expressions d’une requête par importance pour mieux comprendre ce qui est attendu par l’internaute
- Core Update Décembre 2020 : qualité du contenu, la performance technique, l’organisation des sites internet et l’expérience utilisateur.
- L’analyse du temps d’affichage (LCP – Largest Content Pain).
- Le laps de temps entre le moment où l’utilisateur clique pour afficher la page et le moment où le navigateur répond à la demande (FID – First Input Delay).
- La stabilité visuelle de la page pendant le temps de chargement (CLS – Cumulative Layout Shift).
- Ces trois critères sont donc des critères importants pour le classement des sites dans les résultats de recherche à partir de mai 2021.
Le ZMOT : Zero Moment Of Truth
Le progrès des moteurs de recherche et des sites référencés engendre un changement au sein du comportement des internautes. En effet, ils deviennent plus exigeants. Pour cause, ils deviennent le centre de tous.
Ici, Google parle de ZMOT (Zero Moment Of Truth).
Ce terme indique la détermination de Google de donner la réponse recherchée par l’utilisateur instantanément.
Google cherche même à prédire la requête des utilisateurs. ( apparait avec Colibri)
Entre 2006 et 2009, Google devient le géant du net que nous connaissons. C’est a cette époque que se développe les outils qui vont à professionnaliser le SEO.
Les outils tels que Google Analytics dont l’objectif est d’aider les web marketeurs à affiner leurs analyses apparaissent et les premiers outils comme SEMRUSH où on peut dire que le SEO devient une véritable profession a cette epoque
« Content is king »
L’affirmation de Bill Gates en janvier 1996 « Content is King » ou « Le contenu est ROI » est le fondement de toutes stratégies SEO efficaces. À partir de 2010 jusqu’à nos jours, Google se concentre plus sur la rédaction du contenu. C’est pourquoi il est fondamental de vous focaliser sur une rédaction de qualité.
Ainsi, le référencement naturel devient de plus en plus complexe.
Les SERPs connaissent également une évolution et une diversification. En effet, les internautes ont à présent à leur disposition de nombreux types de résultats, comme le Knowledge graph, les résultats locaux ainsi que la mise en avant des réseaux sociaux.
Les backlinks deviennent alors très importants et leur utilisation augmente. Pour cause, dès lors qu’un contenu est partagé naturellement, ce dernier se présente comme important aux yeux des moteurs de recherche. Ainsi, il sera mieux positionné dans les résultats de recherche.
La tournure du SEO au sein de Google fait peur aux utilisateurs
Le keyword stuffing et les tags abusifs ne sont plus désormais une bonne méthode. Pour cause, Google devient plus performant et personnalisé, ce qui fait peur aux utilisateurs.
La vie privée n’existe quasiment plus sur le net.La quête de Google d’hyper personnaliser les recherches est admirable d’un côté, mais d’un autre, le moteur de recherche perd de plus en plus la confiance des utilisateurs avec son cote Big Brother
Pour cette raison que d’autres acteurs du web proposent des solutions de recherche alternativesaux internautes comme Qwant ou DuckduckGo.
D’autre part, même si cette situation est complexe pour Google, les webmarketeurs sont les véritables bénéficiaires. Ils peuvent mieux cibler le public en fonction des devices et des besoins des utilisateurs à chaque instant.
Le métier devient donc plusprofessiionnel et la concurrence devient plus forte.
En effet, le SEO demande désormais plus de travail et se tourne vers la longue traîne, le SMO et le netlinking.
En outre, une stratégie SEO efficace n’est pas fixe, mais s’adapte au jour le jour à cause de l’évolution permanente des pratiques.
Le futur du SEO
– Les sites ayant des contenus dupliqués seront pénalisés par les moteurs de recherche, surtout au niveau référencement. Celui-ci existe déjà depuis longtemps, mais sera certainement plus sévère à l’avenir.
– La recherche vocale prendra le devant face à la recherche textuelle. Comme les assistants vocaux deviennent de plus en plus nombreux et développés, il est fortement probable que dans l’avenir, une requête sur deux sera vocale. Les stratégies SEO des webmarketeurs vont se tourner alors vers des outils comme les featured snippets de Google.
– La recherche visuelle peut elle aussi être l’avenir du SEO. Actuellement, le contenu média des sites a déjà une importance capitale. Donc, dans l’avenir, nous pouvons penser qu’il représente un facteur majeur dans le référencement des sites.
Pour aller plus loin, contactez nous et découvrez quelles stratégies SEO mettre en place.