Plusieurs référenceurs avaient observé des fluctuations dans leur trafic organique au début du mois de novembre. Lundi 2 décembre, Google a confirmé par une série de tweets une mise à jour intitulée « November 2019 Local Seach Update ».

 

Trafic organique

 

Une mise à jour appliquée à la recherche locale

 

Google a déclaré avoir appliqué le système « Neural Matching » (comprendre « correspondance neurale ») au domaine de la recherche locale. Ce système basé sur l’Intelligence Artificielle (I.A.) et introduit en 2018 par Google permet de mieux comprendre la relation entre les mots employés au sein d’une requête et le concept auquel ils se réfèrent.

En ce sens et d’après Google, Neural Matching offre une meilleure compréhension de la requête et notamment des intentions des internautes pour proposer des résultats locaux de plus en plus pertinents. Ceci serait faisable même si le nom et/ou la description de l’entreprise ne figure pas dans la recherche.

En marge de cette annonce, Danny Sullivan, responsable du compte Search Liaison de Google a affirmé que Neural Matching était déjà utilisé dans les résultats organiques depuis l’année dernière et qu’il était désormais appliqué aux autres formats locaux (local pack notamment). Par ailleurs, Google a confirmé un lancement simultané dans le monde entier ainsi que dans les différents langages pratiqués.

 

SEO local

 

Qu’est-ce que Neural Matching ?

 

Il faut savoir que Neural Matching, l’algorithme dévoilé en 2018 par Google couvre déjà 30% des recherches effectuées sur le moteur. Pour ce faire, Neural Matching traite la relation entre les mots utilisés dans une requête afin de les connecter à un concept.

De ce fait, Google est en mesure de proposer des résultats qu’il jugera pertinent, sans pour autant que le nom ou la description d’une entreprise, par exemple, ne soit employé dans la requête.

Ainsi, ce système, employé par Google, a pour but d’améliorer la pertinence des résultats proposés par le moteur de recherche par une meilleure compréhension des intentions de recherche des utilisateurs.

En savoir plus sur Neural Matching.

Si aucune modification est à prévoir, d’après Google, il est reste utile de contrôler si des changements ont eu lieu au niveau de son positionnement dans les SERP ou bien au niveau de son trafic organique concernant les résultats locaux.

 

Une fois que vous avez réussi à attirer les utilisateurs sur votre site, il va falloir chercher à les retenir pour qu’ils consultent votre contenu. À ce propos, si vous êtes actuellement en train de chercher à retenir les utilisateurs sur votre site, c’est une bonne nouvelle : cela signifie que vous avez réussi les deux premières étapes de votre projet, à savoir obtenir de la visibilité et générer du trafic.

En fonction du support utilisé (ordinateur, tablette ou mobile), de la motivation de l’internaute (réponse à une question, recherche d’un service, etc.) et de l’efficacité de votre site web, la durée de la navigation peut s’avérer extrêmement courte.

Il faut savoir que le temps moyen passé sur un site web est de 2 minutes et 17 secondes. Afin d’allonger au maximum ce temps de navigation, c’est sur la qualité de vos contenus qu’il va falloir travailler et cela n’est pas chose aisée !

 

Vous avez cinq secondes pour séduire

 

Cette règle est très simple : vous avez cinq secondes pour capter l’attention de l’utilisateur. Un utilisateur est un consommateur. Il va en effet consommer une somme d’informations abondante durant une journée. De plus, un utilisateur à la recherche d’une information sur le web préférera réitérer sa requête s’il n’accède pas rapidement à ce qu’il recherche sur un site web.

Les cinq premières secondes passées sur votre site doivent donc faire en sorte de donner à l’utilisateur, l’envie de découvrir votre site web et vos contenus. D’autant plus que ces premières secondes ne doivent pas être rongées par un temps de chargement trop encombrant.

En suivant cette règle, il falloir étudier votre cible pour savoir ce qu’elle recherche, ce qu’elle a envie de voir, mais également savoir comment éveiller sa curiosité. En ce sens, la stratégie de contenus développée sur le site internet va avoir une importance toute particulière.

 

Mettre en place un contenu original

 

Il peut être intéressant de mettre en place un benchmark afin d’observer les sites internet de la même thématique que le vôtre pour savoir s’il existe des similitudes particulières à votre domaine. Par ailleurs, en faisant ce travail, vous savez si un type de contenu est redondant chez vos concurrents, mais vous pouvez également piocher des bonnes idées.

En tous les cas, il faut être conscient que les utilisateurs assimilent énormément de contenus durant une journée. Il va donc falloir effectuer un travail de démarcation en vue de capter l’attention de l’utilisateur. Vos pages web ne doivent pas laisser indifférent.

Pour ce faire, il peut être intéressant de s’attacher à la façon de présenter son activité par exemple ou un sujet en particulier. Bien souvent, en communication, la façon de faire passer un message est aussi (voire plus) importante que le message en lui-même.

 

Conception site web

 

Adapter votre contenu à l’utilisateur

 

Lors de l’établissement d’une stratégie de contenus, il est important de connaître sa cible sur le bout des doigts. Cela sera particulièrement utile lors de la conception de votre contenu web. En effet, il est nécessaire de s’imaginer à la place d’un utilisateur lors de la conception de sa ligne éditoriale et de son contenu web.

Pourquoi l’utilisateur est arrivé sur cette page ? Que recherche-t-il ? Que puis-je lui apporter en termes de complément d’informations ? Sous quelle forme l’information lui sera le plus utile ? Il existe énormément de questions à se poser lors de la création de son contenu.

À ce niveau, il peut être intéressant de créer des liens entre les pages pour inviter les utilisateurs à naviguer sur le site. Construire un maillage interne pertinent peut vous permettre d’orienter les utilisateurs vers les contenus que vous souhaitez leur exposer en priorité. Ceci est essentiel dans la conception de son site internet.

 

Diversifier les types de contenus présents sur le site

 

Pour qu’un utilisateur ait la tentation de parcourir vos contenus, il va falloir faire en sorte de les varier. En effet, trop de texte sur une page peut-être dissuasif quand une image (une infographie notamment) ou une vidéo peut résumer le contenu en quelques secondes. C’est un élément dont il va falloir tenir compte si vous avez les moyens (matériels et humains) de développer des contenus variés (vidéos, infographies, photographies, podcasts, etc.).

Il est conseillé de trouver un juste équilibre entre les différents types de contenus présents sur votre site. En revanche, chaque contenu supplémentaire doit être pensé pour apporter une plus-value à votre page web. Jouer sur la complémentarité des contenus ne veut pas dire noyer les utilisateurs sous une masse d’informations. Il est donc important de faire attention à bien doser et toujours s’interroger sur l’intérêt que présente une vidéo par rapport à un texte par exemple.

 

Expérience utilisateur

 

Soigner l’expérience utilisateur de votre site

 

Enfin, la dernière étape concerne l’expérience utilisateur. Il n’existe pas de solution miracle à ce niveau-là. Toutefois, c’est l’addition de multiples éléments qui va faire que l’expérience passée par un utilisateur sur votre site web sera positive.

Nous pourrions citer plusieurs exemples d’objets qui vont favoriser l’expérience utilisateur sur votre site. Parmi eux, nous retrouvons l’optimisation du temps de chargement, l’ajout de sommaire, de barre de progression, la fluidité de la navigation ou encore la pertinence des liens entre les différents contenus.

Il ne faut jamais perdre de vue que l’utilisateur va constamment chercher à écourter son expérience (notamment, lorsqu’il navigue sur mobile). Des outils comme les barres de progression ou les sommaires vont permettre au lecteur/utilisateur de se situer durant son expérience et d’obtenir des points de repères.

En somme, conserver un utilisateur sur son site internet n’est pas l’étape la plus simple dans un projet web. Toutefois, il existe des moyens d’évaluation – notamment via Google Anaytics – qui vont vous permettre d’analyser l’interaction de l’utilisateur avec votre site web.

Ceci va vous permettre de déterminer le niveau de qualité de vos contenus. C’est en analysant l’interaction de votre cible avec vos contenus que vous allez pouvoir comprendre leurs attentes, déterminer si votre contenu est adapté, mais également si des ajustements sont nécessaires.

Cet article est le troisième de notre série sur l’histoire du référencement. Si vous n’avez pas encore lu les précédents, nous vous invitons à les consulter :

 

 

L’arrivée progressive des moteurs de recherche au cours des années 1990 a introduit la notion de référencement. Si plusieurs moteurs ont émergé sur une courte période, c’est le moteur Google qui a su sortir son épingle du jeu.

 

1995 : les débuts de Google

 

Comme nous avons pu le voir lors du dernier article de notre série, c’est en 1995 que Google a vu le jour. En effet, le projet est né de la rencontre entre Sergey Brin et Larry Page, deux étudiants de l’Université de Stanford. C’est dans un garage que les deux étudiants ont fait leur gamme pour mettre au point leur moteur de recherche basé sur le langage naturel. Ayant pour ambition de traiter un nombre conséquent d’informations, les deux étudiants ont choisi le nom symbolique de « Googol », expression qui désignait le chiffre 1 suivi de 100 zéros.

C’est finalement le nom de Google qui est resté. La rumeur dit qu’au moment d’enregistrer le nom de domaine, une faute de frappe aurait été commise donnant le nom de google.com au lieu de googol. Une autre version (plus vraisemblable ?) affirme que le nom de domaine était déjà réservé et les deux étudiants ont donc du se rabattre sur Google. C’est finalement grâce au financement d’Andy Bechtolsheim que la société Google Inc. voit le jour le 4 septembre 1998 .

 

Référencement naturel

 

Une ascension fulgurante

 

Par la suite, les associés prennent leur quartier en Californie au sein de la Moutain View : le siège social de l’entreprise situé au 1600 Amphitheatre Parkway sera nommé Googleplex. L’histoire de Google s’écrit peu à peu et le moteur devient partenaire de AOL avec Yahoo en 1999.

C’est à partir de là que le géant que l’on connait aujourd’hui va se lancer dans le développement de services et fonctionnalités :

 

  • En 2000, Google lance sa barre d’outils qui propose plusieurs fonctionnalités : PageRank, surligneur, etc.
  • En 2002, Google Actualités voit le jour ainsi que l’ancêtre de Google Shopping, anciennement Froogle jusqu’en mai 2012.
  • En 2003 est créé Google AdSense avec pour objectifs de développer un ciblage pertinent pour les publicités présentes sur les sites web.
  • En 2004, Google Maps fait également son apparition aux États-Unis avant sa diffusion en 2006 en France à la suite du rachat de la société Keyhole. Cette dernière est également à l’origine de Earth Viewer, plus connu sous le nom de Google Earth désormais .

 

Outre le moteur de recherche que l’on connaît, Google devient un véritable fournisseur de services en seulement quelques années.

 

Référencement Naturel Google

 

Une situation quasi monopolistique

 

Si Google a su s’imposer sur le marché mondial jusqu’à représenter plus de 90% des parts de marché des moteurs de recherche, c’est notamment grâce à sa puissance de frappe. En effet, selon des données relayées par Blog du Modérateur en 2018, 30 milliards de pages ont déjà été indexées par Google quand le moteur et ses robots crawlent 20 milliards de site quotidiennement.

Si Google s’est imposé, c’est aussi grâce à la puissance de ses nombreux algorithmes et notamment Panda et Penguin par exemple, destinés à l’évaluation des contenus d’un site pour le premier et à la qualité des liens pour le second.

De part son développement fulgurant, Google a également développé une situation quasi monopolistique sur le marché des moteurs de recherche. Une situation pas toujours rose pour le moteur dont les décisions n’ont pas toujours fait l’unanimité et ont parfois été controversées comme sur le sujet de la directive européenne concernant les droits d’auteur.

Dans le prochain épisode de cette série, nous nous pencherons sur l’évolution du métier de référenceur.

De puis son avènement durant les années 1990, le Web a connu maints rebondissements. Aujourd’hui, on ne crée plus un site internet comme il y a dix ans, voire cinq ans. En effet, l’arrivée et le perfectionnement des smartphones ont fait que le Web a du s’adapter.

Face à ces profondes transformations au sein de l’utilisation même du Web, Google a choisi de passer son Googlebot d’indexation en Googlebot Mobile First. La création de site internet est pensée prioritairement pour smartphone et à cela incombent plusieurs changements dans la manière de construire une page web.

 

Quelles sont les priorités d’un site web mobile ?

 

Pour bien saisir les priorités dans la création de site internet Mobile First, il est important de comprendre ce que l’utilisateur mobile recherche. Tout d’abord, il faut rappeler qu’un utilisateur mobile profite d’un confort de navigation qui est moindre par rapport à un utilisateur desktop. Très concrètement, cela peut s’expliquer par la taille restreinte de l’écran d’affichage, mais aussi des conditions de navigation (utilisation dans les transports en commun, en déplacement, etc.) et de l’urgence que va demander la requête.

Pour fournir un site web parfaitement optimisé pour les mobiles, il va donc falloir retenir certains critères dans sa ligne directrice :

 

  • Un webdesign responsive et épuré qui laisse place à l’information,
  • Une navigation rapide et intuitive,
  • La capacité à fournir une réponse à une interrogation de manière claire et concise,
  • Un maillage logique entre les pages internes,
  • La présence de boutons d’actions précis.

 

Vous l’aurez compris, tout doit être fait pour fournir une réponse précise à une question donnée pour proposer une expérience rapide et non contraignante.

 

Expérience utilisateur

 

Les conditions pour un site optimisé Mobile First

 

Aujourd’hui, la création de site internet et la conception des pages web est pensée d’abord sur mobile avant d’être réfléchie pour ordinateur. Qu’il s’agisse du travail de conception/rédaction, de la construction du webdesign, ou encore de la définition des facteurs techniques (du nom de domaine à l’outil d’édition du site), tout doit être fait pour fournir une expérience optimale sur mobile.

De ce point de vue, certains facteurs vont être à prioriser :

 

  • Optimiser au mieux le temps de chargement de la page,
  • Proposer un contenu textuel structuré et concis qui apporte une réponse claire à une question posée,
  • Mettre en place des objets de navigation et de conversion visibles et parfaitement accessibles.

 

Ainsi, à l’ère du Mobile First, c’est l’efficacité qui va primer sur les artifices. Le travail de l’expérience utilisateur devient indispensable, quand il n’était qu’une (forte) recommandation. Il est également l’un des critères sur lesquels Google mise pour répondre à son objectif d’organisation l’information sur le Web.

Plusieurs solutions techniques sont proposées pour mettre en place des contenus adaptés. De ce point de vue, AMP possède certains avantages vis-à-vis de Google. Par exemple, au niveau de Google Images, le « Swipe to visit », introduit ce mois-ci, permet de visiter une page web si cette dernière possède une version AMP. En somme, faire le nécessaire pour transformer son site est d’ores et déjà indispensable, que ce soit pour le confort des utilisateurs, mais aussi pour les différents acteurs du Web.

C’est par la voie d’un article publié sur le blog destiné aux Webmasters que Google a officialisé l’ajout d’un nouveau filtre dans le rapport de performance. Depuis la rentrée 2019, Google a réaffirmé son attachement aux résultats enrichis avec notamment le développement de son nouveau rapport dédié aux marqueurs de données par exemple.

 

Exemple rich product

Exemple de snippets de type Produit fourni par Google.

 

Cette fois-ci, c’est un nouveau filtre dédié aux résultats enrichis de type produits qui vient s’ajouter au rapport de performance de la Search Console.

« Les personnes viennent sur Google pour découvrir, rechercher et décider quels produits et quelles marques ils vont acheter.. Dans le but de fournir des information utiles à propos des produits pour les acheteurs, Google montre des résultats enrichis tels que des description de produit, le prix et la disponibilité dans les résultats de recherche. »

Google.

 

Filtre Products Results

Illustration du nouveau filtre fournie par Google.

 

Google estime que ce rapport doit permettre aux propriétaires de sites internet de « comprendre l’impact de ces résultats enrichis ». À ce titre, Google estime que ce nouveau filtre aidera à répondre à deux questions en particulier :

    • Combien d’utilisateurs du site proviennent d’une recherche avec résultats enrichis ?
    • Comment évolue le trafic à travers le temps et pour quelles requêtes d’achat le site ressort ?

Ce nouveau filtre ne sera ajouté que sur la Google Search Console des sites internet éligibles aux résultats enrichis de type produits. À l’image de ce que propose la Search Console, il sera possible d’observer le nombre d’impressions, le nombre de clicks, le CTR moyen, mais également la position moyenne.

 

Cet article est le second de notre série sur l’histoire du référencement. Nous vous invitons à consulter l’introduction de la série à propos de la naissance du web si cela n’est pas encore fait.

C’est au milieu des années 1990 que les premiers moteurs de recherche ont fait leur apparition. À ce moment-là, personne encore n’aurait pu deviner le bouleversement que Google apporterait sur le Web et dans des dimensions internationales. Ainsi, les moteurs de recherche sont apparus avec un objectif bien précis : organiser l’information sur le Web.

 

Qu’est-ce qu’un moteur de recherche ?

 

Est considéré comme moteur de recherche, un outil permettant à un utilisateur d’effectuer une recherche de ressources web (pages web, images, documents, etc.) à travers la possibilité renseigner des expressions clés, mais aussi de préciser le type de contenu visé par exemple. Le moteur de recherche a pour vocation d’organiser les ressources présentes sur web en un ensemble accessible et compréhensible pour faciliter l’accès à l’information.

Dans sa forme classique, un moteur de recherche est caractérisé par la prédominance d’une barre de recherche potentiellement agrémentée de fonctionnalités supplémentaires permettant de préciser sa recherche. La restitution des résultats est réalisée grâce au travail de robots d’exploration qui vont déterminer quelles pages web sont les plus pertinentes pour une requête donnée.

En somme, l’arrivée des moteurs de recherche va marquer la naissance du référencement.

 

Les premiers moteurs de recherche

 

C’est en 1990 qu’apparaît l’un des premiers moteurs de recherche : Archie. Ce moteur était encore bien loin des moteurs de recherche tels qu’on les identifie aujourd’hui. En effet, la plupart des premiers moteurs de recherche n’étaient en fait que des sortes d’annuaires. Pour effectuer une recherche d’information sur le Web, il était nécessaire de passer par ces annuaires et une fois qu’un site apportait satisfaction, il fallait le garder dans un coin de son carnet de notes !

Pour être visible, il faut savoir que les sites étaient classés par ordre alphabétique : la stratégie pour choisir un nom de domaine a rapidement été orientée. Parmi les premiers moteurs de recherche, il est possible de citer par exemple, Excite, Aliweb, avant l’arrivée d’Infoseek, Altavista, Webcrawler, Lycos ou Yahoo! dans un second temps. À partir de là, les annuaires faits-main laissent place aux robots d’exploration qui vont scanner des pages web pour mettre en place un classement par pertinence.

 

Référencement Google

 

L’hégémonie de Google

 

Il faut remonter à 1995 et à la rencontre entre Sergey Brin et Larry Page, deux étudiants de l’Université de Stanford pour retracer les origines du projet Google. Le moteur de recherche verra le jour en 1998 pour devenir l’une des organisations les plus puissantes dans le monde. Dès sa naissance, Google débarque avec un indicateur : le PageRank. Par la suite, AOL, Google et Yahoo! fondent des partenariats.

En 2000, Google se présente sous forme de barre d’outils présente en haut du navigateur et qui fournit des informations tels que le Page Rank ou encore un surligneur. La même année, l’entreprise de la Moutain View lance son service Google Adwords. Au fil des mises à jour d’algorithmes et des rachats, Google installe peu à peu son hégémonie sur le Web jusqu’à détenir plus de 90% des parts de marché dans le secteur du moteur de recherche en 2018 quand ses concurrents Bing et Yahoo ne représentent respectivement que 3,2% et 2,1% des parts.

Dans le prochain article de notre série, nous traiterons l’évolution du moteur de recherche Google et en quoi cela a orienté le travail de référencement naturel.

 

Depuis l’annonce par Google de l’ajout d’un badge pour désigner les sites lents, le géant de la Moutain View a invité très sérieusement les webmasters et autres professionnels du web à faire le nécessaire pour accélérer le Web. Pour réduire le temps de chargement de ses pages web, il va être nécessaire de bien comprendre les causes de ce délai de chargement en vue de mettre en place des actions efficaces.

 

Chargement d’une page web : comment ça marche ?

 

Pour comprendre le fonctionnement du chargement d’une page web, il est nécessaire de schématiser le procédé. À partir du moment où l’utilisateur clique sur un lien qui le redirige vers un site, le navigateur effectue une requête GET (pour récupérer) en direction du serveur. Si tout fonctionne correctement, le serveur (sur lequel est hébergé l’ensemble des ressources du site internet) va renvoyer une réponse HTML pour lui permettre d’afficher la page.

Une fois la réponse du serveur acquise, le navigateur faire en sorte de récupérer et télécharger l’ensemble des ressources de la page : le HTML dans un premier temps, le CSS, le Java Script, mais aussi l’ensemble des images et contenus présents sur la page. C’est l’ensemble de ce processus de récupération de données qui va déterminer le temps de chargement d’une page.

 

Les principales causes d’un ralentissement

 

Vous l’aurez compris, le temps de chargement d’une page web est déterminé par la qualité de la communication entre le navigateur et le serveur. Par ailleurs, l’ensemble des ressources présentes sur la page présentent un poids. Cela peut causer des ralentissements dans le chargement d’une page web. En effet, il faut savoir que plusieurs problèmes peuvent être causés en raison d’une mauvaise optimisation de votre page et de vos ressources :

    • La taille et le format des images : parmi les problèmes fréquemment rencontrés, le surpoids des fichiers image est l’un des plus récurrents.

 

    • Le poids des ressources de la page : un fichier optimisé est un fichier dont les ressources CSS et le HTML sont optimisées. Autrement dit, il est important de ne pas laisser traîner de CSS inutilisé dans la page, cela va alourdir son poids et ralentir son chargement.

 

    • L’exécution du JavaScript : lorsqu’une page web est en cours de chargement, les ressources vont être téléchargées en partant du haut de page jusqu’au bas. Les ressources en JavaScript sont lourdes et peuvent causer un ralentissement si elles sont placées en haut de page.

 

    • Le temps d’affichage du contenu principal : une mauvaise optimisation peut causer un ralentissement de l’affichage du contenu principal, ce qui procure de mauvaises performances de chargement.

 

    • Le délai avant interactivité : il s’agit du temps nécessaire pour que le contenu de la page soit disponible et utilisable.

 

    • La présence de plugins inutilisés : sur les CMS, certains plugins installés, mais non utilisés ou pas indispensables peuvent alourdir le poids de la page web et donc la ralentir.

Il existe des outils comme GT Metrix ou PageSpeed Insights (de Google) pour vous permettre d’évaluer le temps de chargement de vos pages et connaître les raisons principales qui causent le ralentissement de leur chargement.

 

Temps de chargement optimal

 

Quelles solutions mettre en place ?

 

Avec l’instauration du badge pointant les sites lents, la donne va changer. C’est pourquoi il va devenir indispensable de procéder à des actions permettant d’accélérer le temps de chargement de votre site web de façon globale. Attention, toutes les méthodes permettant de réduire le temps de chargement ne sont pas accessibles à n’importe quel utilisateur. Certaines manipulations font appel à une compétence technique avancée.

 

Les solutions relatives aux images :

 

Pour réduire le poids d’une image sur un serveur web, il va être nécessaire d’optimiser son fichier. Tout d’abord, utiliser un format compressé tel que le JPEG est fortement conseillé par rapport à un format PNG ou GIF. Par ailleurs, il va être important de dimensionner correctement son fichier : est-ce que l’image va être présente en fond de site ? Est-ce qu’elle va seulement s’intercaler au sein d’un texte ?

Il est essentiel de dimensionner son image le plus justement possible afin de ne pas alourdir le fichier et donc la page web. Il est également possible d’ajuster la résolution de l’image pour optimiser au maximum son fichier. Il faut savoir que pour une impression, la résolution optimale est de 300 ppi, pour un écran elle s’élève à 150 ppi alors que pour un visuel sur les réseaux sociaux, elle est de 72 ppi.

Enfin, certains logiciels comme Photoshop et certaines plateformes en ligne permettent la compression de fichiers JPEG avec une perte contrôlée de la qualité. De plus, des formats nouvelle génération émergent à l’image du JPEG2000 ou bien du WebP : investir sur ces nouveaux formats va vous permettre d’obtenir de larges gains de place.

 

Les solutions liées aux ressources non optimisées présentes sur une page :

 

Si l’optimisation de vos images n’a pas suffi à accélérer suffisamment le temps de chargement de vos pages, il va falloir aller chercher un peu plus loin. En effet, il va être nécessaire d’alléger le poids des pages web en optimisant tout ce qui va relever du CSS inutilisé ou mal optimisé.

En ce sens, nettoyer les balises de « style » directement implantées sur la page web en créant des classes à partir de la feuille de style (style.css) va permettre d’alléger votre fichier de page et de ne pas brouiller le téléchargement des ressources par du contenu inutile.

 

Les solutions liées à l’exécution du JavaScript :

 

Les ressources en JavaScript sont des ressources tout particulièrement lourdes au sein d’une page puisqu’elles concernent toute la partie destinée aux animations présentes sur le site. Ces ressources vont donc être plus lourdes à télécharger et vont donc mobiliser du temps. À ce niveau, il est fortement conseillé de regrouper l’ensemble de ses ressources JavaScript au sein d’un seul et même endroit pour limiter le nombre de requêtes et de scripts. Par ailleurs, concentrer le JavaScript en dehors de l’écran principal va permettre de ne pas bloquer l’affichage des ressources principales relevant du contenu principal de la page.

Il est recommandé de placer l’ensemble de ses requêtes JavaScript en bas de page. Le téléchargement de la page étant réalisé du haut vers le bas, cela va permettre de ne télécharger les ressources les plus lourdes en fin de page et donc de ne pas bloquer le rendu et le téléchargement des autres ressources qui vont être moins exigeantes.

 

Simplifier au maximum l’affichage de son contenu principal

 

Le temps de chargement de la page doit être un des facteurs qui va être pris en compte au moment de sa conception. En ce sens, l’objectif va être de faire en sorte que le contenu principal soit le plus rapidement accessible. Il est donc conseillé de déporter tout ce qui relève de l’animation dans les endroits non-visibles à l’arrivée sur le site. Ceci est tout particulièrement valable sur mobile, mais il ne faut pas pour autant négliger cet aspect sur un environnement desktop.

 

Optimisation site web

 

Quel outil faut-il privilégier ?

 

Certains outils permettent de favoriser la rapidité du temps de chargement. Si les Progressive Web Apps (PWA) ont été conçues pour favoriser l’expérience utilisateur grâce à une navigation rapide, Google a également proposé un outil appelé AMP (Accelerated Mobile Pages) permettant de créer une version ultra optimisée de sa page en termes de vitesse de chargement.

 

Progressive Web App : le tout-en-un

 

Créer une Progressive Web App revient à créer une plateforme web adaptée pour desktop, mais également téléchargeable en tant qu’application mobile. Ces PWA sont conçues pour minimiser le temps de chargement durant la navigation pour en augmenter la fluidité. L’application n’est plus téléchargeable par un store, mais directement dans le navigateur.

Les critères pour qu’un site internet soit considéré comme PWA peuvent être exigeants, c’est ce qui va demander une certaine compétence en développement web. Toutefois, les avantages procurés en termes de vitesse de chargement sont énormes.

 

AMP : un outil Google

 

Plus simple d’utilisation que la Progressive Web App, AMP possède l’avantage d’être un outil intégralement Google-friendly, ce qui lui procure certains avantages. Un site AMP peut-être accessible par un simple scroll via Google Images, par exemple, ce qui n’est pas le cas pour les sites n’utilisant pas cette technologie.

Cette dernière va permettre, à partir d’un contenu existant, de mettre en place une version allégée et minimaliste pour procurer une vitesse de chargement optimale. Ceci est tout particulièrement pratique pour les sites d’actualités dont le contenu principal va être le contenu de l’article et donc dans la majorité des cas, du contenu textuel rapidement téléchargeable.

 

La solution idéale est celle qui vous correspond

 

En définitive, la solution idéale n’existe pas. La solution qui sera considérée comme idéale pour vous ne le sera pas forcément celle d’une autre entreprise. Cela va dépendre de nombreux critères tels que la compétence technique à laquelle vous avez accès, la fréquence de votre publication ou bien de vos modifications, ou tout simplement sur le type de contenu que vous publiez.

Il peut-être utile d’essayer plusieurs méthodes avant de trouver chaussure à votre pied. Toutefois, avoir recours à un professionnel peut vous permettre de gagner du temps dans votre processus de prise de décision. En tous les cas, des actions visant à accélérer le chargement des sites web vont devoir être entreprises pour ne pas connaître une mauvaise surprise dans les mois à venir.

 

On y est ! Le Black Friday approche et si vous n’avez rien mis en place sur votre site internet pour surfer sur le phénomène, il faudra attendre l’année prochaine. Nous vous proposons 5 conseils pour faire en sorte que votre site web soit visible durant le Black Friday. Mais avant, qu’est-ce que le Black Friday ? D’où provient ce phénomène ?

Le Black Friday, date de lancement des cadeaux de Noël

Le Black Friday ou « vendredi noir », est un phénomène annuel qui provient des États-Unis et qui s’est popularisé en France durant les années 2010. Il désigne le premier vendredi qui suit Thanksgiving, le 4e jeudi de novembre aux États-Unis. Le Black Friday est un phénomène commercial devenu un rendez-vous inévitable sur le Web. En effet, c’est par la voie d’Internet que le Black Friday a transité jusqu’à investir le territoire français.

En promettant des chutes de prix et réductions exceptionnelles, le Black Friday serait également considéré comme l’événement commercial qui lance la course aux cadeaux de Noël. À ce titre, il est devenu l’une des dates clés du calendrier commercial. Réussir son Black Friday est un enjeu important et cela passe tout particulièrement par un site internet et un référencement au point.

Black Friday

 

Black Friday : problématique et conseils

En termes de SEO, pour maximiser sa visibilité, il est important de conceptualiser l’événement afin d’en dégager les principales caractéristiques pour définir la stratégie vers laquelle se tourner. Lorsqu’on parle de Black Friday, on parle d’un événement unique à l’échelle annuelle, mais récurrent sur le long terme. Également, il s’agit d’un phénomène qui touche tout particulièrement le domaine du e-commerce. Enfin, le Black Friday est un événement qui engendre un engouement particulier du point de vue des utilisateurs, mais aussi et surtout du point de vue des marques et sites e-commerce.

Campagnes sociales sponsorisées, campagnes de mailing, campagnes Ads : les marques misent un peu plus chaque année sur le Black Friday et la concurrence est rude, voire féroce. Il va donc falloir prendre un certain nombre de précautions pour mettre en place une stratégie efficace. Bien sûr, obtenir une haute visibilité durant le Black Friday n’est pas impossible, mais n’est pas accessible à tous. Toutefois, il va falloir être en mesure de déceler les opportunités en marge du Black Friday pour un événement commercial réussi.

Pour ce faire, voici nos 5 pistes à creuser pour vous permettre de mener votre campagne de l’année prochaine.

1/ Effectuer une étude de la concurrence

Si vous partez de 0, il peut être intéressant de temporiser et de regarder ce qu’il s’est fait l’année précédente du côté de chez vos concurrents ou bien sur d’autres sites de votre domaine d’activité. Date de démarrage de la campagne, contenu mis en place, procédés de mise en avant du contenu, récurrence de la publication : de nombreux éléments sont observables et il peut être intéressant de les mettre en perspective pour vous permettre de choisir la bonne stratégie.

Attention, ce qui se fait ailleurs n’est pas forcément une garantie de réussite. Il faudra bien rester attentif à cela, mais cela pourra vous être utile en guise d’observations. La campagne parfaite n’existe pas, attention à ne pas répéter les erreurs potentiellement commises par d’autres sites web.

2/ Ne pas s’y prendre au dernier moment

Ce conseil paraît évident, mais il est si important ! L’anticipation est la clé. Il pourra vous sembler étrange de vous concentrer sur le Black Friday de fin d’année alors que vous en êtes encore bien loin, mais cela est nécessaire. Obtenir des résultats grâce au référencement naturel demande du temps : il va donc falloir préparer Google à l’idée que vous souhaitez être visible sur votre mot-clé cible dans le cadre du Black Friday. Pour cela, il va être nécessaire de préparer ses pages web pour leur laisser le temps de gagner en autorité, en popularité et les rendre performantes pour le moment voulu.

Ainsi, ces pages vont servir à prendre de l’avance (si ce n’est rattraper le retard) vis-à-vis des concurrents qui feront de même pour être prêt le Jour J. À ce niveau, l’anticipation est la clé d’une campagne réussie.

3/ Créer une page web dédiée

Comme nous venons de le voir, il est important de travailler sa ou ses pages web destinées à l’événement, bien en amont. Toutefois, nous vous conseillons de créer une page (ou plusieurs) exclusivement destinée à cet événement. Il s’agit d’un événement à part entière, il est donc important de construire son contenu en fonction de l’événement et non pas reprendre et modifier vos pages catégories déjà définies.

Bien sûr, celles-ci pourront être habillées avant, pendant et après l’événement. Toutefois, mieux vaut se concentrer sur une URL précise pour présenter vos offres. Cela vous permettra de construire votre contenu sans restriction et avec pour seul objectif de bâtir une page faite pour drainer du trafic et performer pour augmenter vos conversions.

4/ Utiliser chaque année les mêmes pages

En créant une page dédiée, vous vous donnez également la possibilité de la réutiliser chaque année. Sur le long terme, il pourrait s’agir d’une stratégie gagnante. Grâce à son ancienneté, la page gagnera en autorité et cela vous permettra de ne pas recommencer le travail à 0 tous les ans, ou bien de ne pas bouleverser votre site pour l’événement.

S’il existe la possibilité d’activer ou désactiver la page, il est quand même conseillé de la laisser active, quitte à remplacer son contenu par du contenu plus pertinent pour la période donnée et laisser la page se référencer grâce à du contenu riche.

5/ Publier régulièrement et progressivement pour créer un engouement

Enfin, il est également recommandé de mettre en place une stratégie de contenus solide : il va falloir être capable de publier régulièrement, à partir de plusieurs mois avant le Black Friday pour être en mesure de se positionner correctement. Par ailleurs, en ce qui concerne la fréquence de publication, il est recommandé de mettre au point une stratégie ascendance. Autrement dit, il faudra accélérer la publication jusqu’à obtenir un rythme très soutenu avant l’événement en vue d’habituer les robots de Google à venir crawler vos pages le plus fréquemment possible.

De ce point de vue également, la concurrence sera rude. Il va donc falloir définir une stratégie de contenus à forte valeur ajoutée pour, à la fois, obtenir du trafic, mais aussi proposer du contenu pertinent vis-à-vis de Google.

En bref : miser sur la démarcation

Obtenir de la visibilité durant un événement tel que le Black Friday est extrêmement laborieux. Cela va demander énormément d’efforts, mais aussi de la malice. Il peut être intéressant, et ce, dès l’élaboration de la stratégie de positionnement de se démarquer dans l’approche de l’événement. Que ce soit en termes de ligne éditoriale ou bien de choix des mots-clés, il sera essentiel de bien connaître votre cible afin d’obtenir une visibilité stratégique et ne pas vous noyer dans la masse.

Aujourd’hui, nous démarrons une série d’articles qui retrace l’histoire du référencement naturel SEO depuis la naissance du Web, jusqu’à aujourd’hui.

Si la naissance du réseau international Internet est le fruit du travail effectué à partir de la création du réseau ARPANET aux États-Unis, durant les années 1960/1970, il faut savoir que le Web (World Wide Web) est apparu en 1989 à l’initiative du chercheur du CERN, Tim Berners-Lee.

 

Comment est apparu le Web ?

 

La naissance du Web est caractérisée par la première conceptualisation d’une page web avec présence de liens hypertextes. Selon le CERN, le projet avait pour objectif de faire en sorte « que des scientifiques travaillant dans des universités et instituts du monde entier puissent s’échanger des informations instantanément ». C’est ainsi que le premier site internet en hyperText a vu le jour sur le Web.

En revanche, il n’était pas encore question de HTML ou bien de CSS. C’est en 1994 que le World Wide Web Consortium, organisme de standardisation à but non-lucratif, est créé par Tim Berners-Lee. Ce dernier est destiné à faire évoluer les normes pour « promouvoir la compatibilité des technologies du World Wide Web » jusqu’à faire émerger des technologies utilisées, encore aujourd’hui dans la création de site internet, comme le HTML5.

 

NCSA Mosaic : le Web devient populaire

 

Comme vu précédemment, le Web, à son lancement, était seulement destiné à transmettre et afficher des pages web sous forme de documents textuels contenant seulement des liens hypertextes. Ceci était vrai pour le navigateur « WorldWideWeb ». En 1992, est développé un navigateur web à l’initiative du centre de recherches américain NCSA (National Center for Supercomputing Applications). Son nom est NCSA Mosaic.

Ce navigateur permettait de communiquer, en plus du contenu textuel et des liens hypertextes, des fichiers images (GIF ou XBM), ainsi que des formulaires interactifs. Cela représentait un réel bond en avant pour les utilisateurs en 1993. À partir de là et grâce à Mosaic, le Web a développé un réel intérêt en termes de services et d’interactivité. Ceci a largement contribué à la popularisation du Web dans le monde entier.

 

Pas encore question de référencement

 

Si l’apparition de navigateurs permet d’accéder et de naviguer entre des pages web, il n’est pas encore question de référencement. En effet, il faut attendre 1994 pour voir les premiers moteurs de recherche éclore. Attention, le moteur de recherche, tel qu’on l’entend aujourd’hui, n’adoptait pas réellement cette forme à leur création.

Il faut plutôt assimiler les moteurs de recherche à des annuaires qu’à la forme à laquelle on les connaît aujourd’hui.

Découvrez la suite de la série la semaine prochaine avec notamment l’arrivée des moteurs de recherche.

 

Cela fait maintenant plusieurs mois que Google a fait de la vitesse de chargement l’une de ses priorités. Passage du Googlebot en priorité mobile, mise en place du système AMP pour une meilleure optimisation du temps de chargement : le géant de la Mountain View est particulièrement actif pour faire en sorte que cela aille vite, voir très vite.

 

Favoriser les « expériences rapides »

« Nous avons tous visité des pages Web que nous pensions charger rapidement, mais nous avons été confrontés à une expérience qui aurait pu être meilleure. Nous pensons que le web peut faire mieux et nous souhaitons aider les utilisateurs à comprendre quand un site pourrait se charger lentement, tout en récompensant les sites qui apportent des expériences rapides. »

Blog officiel de Chromium.

C’est en partant de ce constat que Google a décidé l’introduction d’un système de badge. Ce dernier aura pour but de distinguer les sites rapides, des sites lents à l’avenir. Google n’a pas précisé quelle forme cet élément devrait prendre, mais assure que différentes options seront expérimentées pour « déterminer laquelle apporte le plus d’utilité pour ses utilisateurs ».

À ce titre, le créateur du navigateur affirme que ses premières phases de tests porteront sur certaines zones de Chrome, à savoir l’écran de chargement, la barre de progression du chargement, ou encore le menu contextuel des liens. Google déclare même que l’objectif de long terme est de récompenser les sites offrant une expérience de chargement rapide et encourage les développeurs à mettre en place des optimisations qui vont dans ce sens.

 

Vitesse de chargement

Exemple fourni par Google sur le blog de Chromium de ce qui pourrait être le futur affichage de la fenêtre de chargement.

 

Un véritable risque pour les sites lents ?

 

Google souhaite s’appuyer des critères rigoureux pour déterminer si un site est désigné comme lent ou rapide. Si la volonté de récompenser les sites les plus rapides est bien présente, c’est un véritable coup d’accélérateur que Google souhaite mettre en place au titre de l’expérience utilisateur.

S’il n’y a encore rien de définitif dans cette annonce, nous pouvons facilement deviner qu’un badge indiquant la lenteur du chargement pourrait être particulièrement dissuasif pour les utilisateurs. En effet, ceci pourrait entraîner un fort taux de rebond sur les sites concernés et automatiquement entraîner une baisse de trafic.

Google encourage donc les propriétaires de sites internet à mettre des actions en place et ce sans plus tarder dans le but de corriger les problèmes générant un temps de chargement trop lent.

« Nous avons vraiment hâte à l’idée de vous récompenser pour votre travail et apporter plus de transparence sur les performances d’un site internet à nos utilisateurs. Nous espérons que cet effort encouragera plus de sites sur le web ouvert à apporter les meilleures expériences possibles à tous les utilisateurs. »

Si le temps de chargement de votre site est trop élevé, il va donc falloir mettre en place des actions au risque de perdre des utilisateurs avant même leur entrée sur le site.

Pour évaluer la performance de son site :