Date de publication : 04 décembre 2017
Temps de lecture : 10 min.
Niveau : Débutant
2017 se termine, 2018 commence … et cette nouvelle année apporte son lot de changements et d’évolutions de l’algorithme Google qui vont forcément impacter le référencement naturel de votre site Internet. Quels sont les changements à prévoir ? Quelles tendances pour le SEO en 2018 ? Sur quoi concentrer votre stratégie SEO pour 2018 ?
Sommaire :
1° Le RankBrain : comprendre pour mieux répondre !
2° Recherches vocales : Ok Google …
3° Le Taux de clic (CTR) : sauveteur du trafic SEO !
4° Le contenu : qualité, quantité, … à vous de ne plus choisir !
5° Index Mobile First : Préparez-vous maintenant !
6° AMP, et pourquoi pas ?
7° Netlinking : mais que faire ?
À lire aussi :
Quelle stratégie pour votre SMO ?
Composante de l’algorithme de Google, le RankBrain, en se basant sur l’intelligence artificielle, cherche à mieux comprendre les intentions de recherche des internautes et donc à répondre à leur requête :
Dans l’objectif de préparer l’arrivée prochaine de la recherche vocale et conversationnelle, Google a donc ajouté RankBrain à l’algorithme Hummingbird (Colibri) depuis 2013, avec pour principale mission de comprendre le sens de la requête de l’internaute en vue de lui proposer une réponse adaptée (et donc une meilleure expérience utilisateur).
Google a annoncé l’année dernière que RankBrain était devenu le troisième facteur de classement (et non de positionnement) le plus important :
“… RankBrain est devenu le troisième plus important signal contribuant au résultat d’une requête de recherche.”
Réseaux de neurones, apprentissage automatique – Machine & Deep Learning – et intelligence artificielle sont donc à la base de RankBrain qui n’en finira pas d’influencer les résultats de recherches en 2018.
Attention RankBrain est une composante de l’algorithme inhérente à l’analyse des pages d’un site Web … l’optimisation d’un site n’a donc pas d’incidence sur cette « technologie » … sauf que …
Beaucoup de référenceurs considèrent que l’optimisation de son site internet en prenant en compte RankBrain est un non-sens car il n’est pas un « critère de positionnement » mais plutôt un « facteur de classement des résultats de recherche ».
Prenons un exemple permettant d’illustrer le « concept » :
Requête : comment faire des madeleines ?
Option 1 : l’internaute clique sur le troisième résultat et consulte la page pendant quelques minutes. La page répond parfaitement à la recherche et bénéficie d’un taux de clic et d’une durée de session élevés (et d’un taux de rebond faible). RankBrain va probablement favoriser ce résultat de recherche par la suite si suffisamment d’internautes adoptent le même comportement.
Option 2 : l’internaute clique sur le premier résultat mais la page consultée ne répond pas efficacement à la recherche et il ressort rapidement. Le taux de clic sera élevé mais la durée de session et le taux de rebond ne seront pas favorables. RankBrain va probablement défavoriser ce résultat de recherche par la suite si suffisamment d’internautes adoptent le même comportement.
Pour ces deux options, RankBrain va donc pouvoir s’appuyer sur deux facteurs pour juger de la pertinence et de l’efficacité des résultats :
Lors d’une conférence le 3 mars 2016, Paul Haahr, ingénieur chez Google a présenté une diapositive très intéressante :
Source : slideshare
En résumé, le message de cette diapositive est :
« Parfois RankBrain accorde un meilleur classement à des pages (plus haut qu’elles ne devraient être). Si la page bénéficie d’un CTR supérieur à la moyenne, la page bénéficie d’un boost dans le classement ».
Une étude récente de SearchMetrics démontre que la durée de session moyenne pour un résultat dans le Top 10 de Google est de 3 minutes et 10 secondes. En effet, plus la page est pertinente et répond favorablement à la requête d’un internaute et plus il reste longtemps sur la page pour en “décortiquer” l’information.
En conclusion, RankBrain révolutionne déjà en partie les résultats de recherche sur Google et devrait continuer à monter en puissance dans l’algorithme qui se veut de plus en plus intelligent et prédictif.
Selon Google, actuellement 1 recherche sur 5 provient de requêtes vocales et cette tendance devrait s’accélérer en 2018 avec l’arrivée de nouveaux « assistants numériques » tels que Google Home.
Au-delà de la technologie qui tend à se démocratiser malgré certaines réticences liées aux données personnelles et à la vie privée, la recherche vocale constitue une nouvelle opportunité dans la manière dont nous communiquons et traitons l’information.
Pour exemple, voici l’analyse des tendances de recherche pour « Ok Google » :
L’analyse des tendances de requêtes fait également apparaître un changement dans les recherches qui s’orientent de plus en plus vers des questions plutôt que des successions de mots-clés. « Madeleines recette » devient « comment faire des madeleines ».
Coté SEO, cette évolution de la recherche vocale nécessite une adaptation de la stratégie de référencement, en se concentrant davantage sur les mots-clés de « recherche » ou « question » et sur le langage naturel utilisé dans une conversation, plutôt que sur de simples mots-clés ou expressions.
Une étude de WordStream datant d’avril 2017 a relevé que le taux de clic des résultats naturels sur Google a baissé en moyenne de 37% depuis 2015.
Source : word stream
Ce constat est loin d’être surprenant étant donné que les résultats « payants » sont de plus en plus mis en avant sur les pages de résultats de recherche au détriment des résultats organiques : Google Shopping, Google AdWords mais également les « réponses directes » proposées à l’aide de la position « zéro ».
Les résultats naturels sont donc moins visibles et il est indispensable de partir à la chasse au CTR sur vos annonces pour tenter de maintenir un certain trafic organique.
Pas de secret à ce sujet, l’optimisation des composantes de vos annonces reste prioritaire à savoir :
Il est loin le temps où les moteurs de recherche commençaient par analyser la densité d’utilisation des mots-clés dans les pages pour juger de la pertinence de celle-ci …
Balises <title>, URL , Balises <H1>, Balises <alt>, … vous connaissez ? Le discours n’a pas changé, il est toujours nécessaire de les optimiser mais leur impact sur le positionnement de la page dans les résultats de recherche a changé.
En faisant évoluer son algorithme, Google est devenu plus intelligent et prend (mieux) en considération davantage de facteurs de positionnement permettant de juger, à la fois de la pertinence et de la qualité d’une information.
L’un d’entre eux est le contenu, dont l’importance ne cesse de s’accroitre au fil du temps et des changements d’algorithmes.
Cette formule prédictive de Bill Gates datant de 1996 est bien connue des référenceurs et reflète l’importance du contenu en référencement naturel. Deux facteurs sont à prendre en considération lorsque l’on parle de contenu : la qualité et la quantité. Gare aux abus, Panda veille !
Ecrire du contenu sur une page web c’est avant tout traiter d’un sujet précis en utilisant une grande variété de termes et expressions autour de la thématique du sujet (et pas seulement un mot-clé répété à plusieurs reprises).
L’une des méthodologies liées au contenu est le « cocon sémantique », popularisé par le consultant SEO Laurent Bourrelly. Cette mécanique consiste à organiser ses pages et ses contenus en partant d’un sujet « général » (ex: chaussures), puis en descendant dans le site vers le plus « spécifique » (ex: bottines à talon). Tout ceci en prenant soin de lier toutes ces pages les unes avec les autres par le biais d’une stratégie de maillage interne très précise.
Adepte ou non de cette méthodologie, il est important de garder la notion de qualité au cœur de sa stratégie de contenu en évitant d’utiliser des techniques que Google ne digère pas (ou plus) :
Un contenu de qualité c’est avant tout un contenu unique, lisible et facile à comprendre, utilisant un univers sémantique varié autour de la thématique de la page.
L’une des erreurs est de vouloir écrire pour les moteurs de recherche au détriment des internautes : pensez expérience utilisateur ! Coté utilisateur, rien n’est plus désagréable que de lire un contenu uniquement écrit pour les moteurs de recherche : Google l’a bien compris et en a fait son cheval de bataille depuis quelques temps.
Pour vous aider dans la recherche de mots-clés et expressions variés, de multiples générateurs sont disponibles gratuitement ou non :
Lors de cette recherche, pensez « synergie » en utilisant les ressources et informations dont vous disposez sur vos autres leviers d’acquisition et de visibilité : SEA (AdWords & Bing Ads), Social Media, Analytics, … en consultant les performances de vos campagnes, vous allez forcement découvrir de nouvelles pistes intéressantes.
N’hésitez pas à utiliser l’outil de planification des mots-clés de Google AdWords ou même les « recherches liées à … » en bas d’une page de résultats de recherche Google :
D’après plusieurs études, plus le contenu d’une page est long et plus cette dernière a de chances de se positionner dans les meilleures positions (sans oublier la qualité bien évidemment).
Source : SerpIQ
Dans les agences SEO, il est coutume de conseiller un minimum de 300 mots par pages… loin des 2500 mots permettant d’atteindre le top 3 des positions dans le graphique ci-dessus. Bien évidemment, cela dépend de la thématique du site, de la concurrence sur les résultats de recherche, … et de plusieurs autres facteurs (temps, ressources, …).
Il est cependant indispensable, quelle que soit la longueur, de varier les typologies de contenus : textes, images, vidéos, … En plus d’être fortement appréciés par les internautes, cela permet d’aérer le contenu en évitant les blocs de textes illisibles sur un écran et de le rendre plus interactif (n’oubliez pas : Google voit tout, ou presque tout)
Annoncée l’année dernière par Google, l’arrivée de l’Index Mobile First est une évolution majeure qui risque de provoquer quelques bouleversements dans le monde du référencement naturel.
Tout d’abord, aujourd’hui plus de 60% des recherches sur Google proviennent d’un appareil mobile… et la progression continue ! Pour répondre à cette « nouvelle » tendance de recherche, Google a décidé de lancer l’Index Mobile First en 2017 … enfin en 2018 … !?
Le principe de l’Index Mobile First est d’utiliser la version mobile d’une page plutôt que celle du « Desktop » pour calculer la pertinence et le « potentiel de positionnement ». Véritable virage à 180° puisque jusqu’à maintenant, le calcul utilisait la version « desktop » et l’appliquait à la version mobile : de l’Index Desktop First à l’index Mobile First !
En clair, si un site n’est pas adapté aux mobiles ou qu’il propose un contenu moins important (qualité ET quantité) que sur desktop, cela aura des répercussions négatives sur son positionnement dans les résultats de recherche.
L’arrivée de l’Index Mobile First va avoir des effets sur le positionnement de chaque site sur les moteurs de recherche : d’un côté, la baisse de positionnement des sites qui n’auront pas fait le nécessaire, de l’autre la montée de ceux qui profiteront de la baisse des autres. Il faut donc s’y préparer d’autant plus si la version mobile diffère de la version desktop d’un site.
Recommandé par Google depuis plusieurs années, le responsive design est la solution la plus simple qui permet de proposer un affichage adapté du site quel que soit l’appareil utilisé pour la navigation.
D’autres solutions sont également possibles :
Dans le cas où votre site Mobile affiche un contenu différent du site Destop, il est nécessaire dès maintenant de le corriger afin de proposer le même contenu sur les deux versions.
Sans cette mise à jour de vos contenus, le risque de voir vos positions se dégrader est très élevé (pour ne pas dire irrémédiable) : cela est particulièrement valable pour les sites mobiles dédiés.
Design, affichage du contenu, parcours client, … le tout doit être pensé pour le mobile et pour assurer une navigation simple et efficace = mobile friendly ! L’outil de test d’optimisation mobile de Google peut vous aider.
Facteur de positionnement de plus en plus important sur Desktop depuis 2010, la vitesse de chargement des pages le sera encore davantage sur mobile en 2018.
Un site rapide est un site qui :
Trois raisons d’optimiser la vitesse de chargement de la version mobile de votre site dans les plus brefs délais !
Selon une étude de HubSpot, on passe en moyenne 145 minutes par jour sur un mobile et plus de 30% des personnes interrogées déclarent utiliser leur mobile comme outil de navigation principal sur Internet. Pour répondre à cette croissance des recherches sur mobile, Google a intégré la technologie AMP (Accelerated Mobile Pages) qui permet d’afficher les pages très rapidement sur mobile.
Selon Rudy Galfi, product manager du Projet AMP :
« … le temps moyen de chargement d’une page AMP est de 0,7 secondes, contre…22 secondes en moyenne pour une page mobile classique. »
Le premier bénéfice de l’utilisation de la technologie AMP est de proposer une réponse ultra rapide à son audience et donc d’améliorer l’expérience d’utilisateur, qui sont toujours plus pressés.
Le deuxième bénéfice est que le format AMP permet de gagner en visibilité grâce au carrousel AMP affiché en haut de la page de résultat sur mobile :
Et enfin, troisième bénéfice : le temps de chargement étant un facteur de positionnement important, l’utilisation de la technologie AMP pourrait vous permettre d’améliorer le positionnement organique de vos pages.
Le Netlinking ne devrait pas disparaître en 2018, rassurez-vous ! Mais il est plus important que jamais de mettre en place une stratégie visant à acquérir uniquement des liens de qualité. Le volume n’a plus aucun intérêt si ce n’est de réveiller Penguin !
D’après Google, « le meilleur moyen d’acquérir de nouveaux liens de qualité vers votre site internet consiste à publier un contenu unique et pertinent. Ce contenu utile aura alors plus de chance d’être partagé ou « linké » par d’autres sites afin de le proposer à ses lecteurs. ».
Hier prépondérant dans l’algorithme de Google, demain résiduel … le netlinking semble perdre en importance dans la stratégie SEO mais demeure encore pertinent notamment si celui-ci est « naturel ». Attention, la chasse a déjà commencé !
Nos conseils :
En conclusion, l’algorithme Google gagne rapidement en intelligence et favorise la pertinence dans les résultats de recherche, qu’ils soient organiques mais aussi sponsorisés.
Outre cette évolution de l’algorithme entreprise depuis quelques années et qui va se renforcer en 2018, le mobile continue de devenir un des aspects primordiaux à ne pas négliger sur cette nouvelle année (et celles à venir). La tendance est à une utilisation de plus en plus importante des appareils mobiles dans les habitudes de navigation sur Internet : l’adaptation est à la fois indispensable pour les moteurs de recherche mais aussi pour les sites Internet. Pertinence + mobile = SEO version 2018 !
Toute l'équipe SLAP digital se tient à votre disposition pour vous accompagner dans l'optimisation du SEO de votre site Internet.
Découvrez nos prestationsDécouvrez nos livres blancs spécialisés sur les divers thèmes du marketing digital et téléchargez les gratuitement.
Nos livres blancsArticle
Optimiser ses campagnes Google Ads : Le Guide ultime de la stratégie Feeder en 2 Étapes
Article
Tout comprendre sur le Google Consent Mode V2
Article
Révolutionnez l'Expérience Client grâce à l'IA et l'hyperpersonnalisation
Article
Le référencement vocal : comment optimiser votre site web pour la recherche vocale
Besoin d'un coup de main ?
Vous souhaitez nous faire part de vos projets ou de vos besoins d’accompagnement ?
N’hésitez pas à nous contacter par téléphone au 01 85 08 03 49 ou à remplir le formulaire. Nous vous contacterons rapidement pour en savoir plus. Venez nous challenger, nous en ferons autant !
Contactez-nous