Google a annoncé la semaine dernière l’ajout d’une fonctionnalité en bêta sur Google Images permettant l’ajout d’un badge. Ce dernier est destiné à mettre en avant des informations sur les licences pratiquées pour les images.

 

Licence Google Images

Capture d’écran illustrant le badge proposée par Google.

 

Une fonctionnalité d’ores-et-déjà disponible

 

Google a annoncé l’ajout d’un badge directement sur les vignettes des images de Google Images. Ce dernier permet de signifier que le site d’origine met à disposition des informations sur les licences pratiquées pour les images présentées. Cette fonctionnalité est accessible à tous et disponible dès maintenant.

Pour ce faire, Google recommande de s’assurer que ses pages et images soient bien :

  • accessibles sans connexion à un compte utilisateur,
  • accessibles à Googlebot (indexables),
  • qu’elles respectent les lignes directrices pour être visible,
  • et que tous les changements sur les pages soient indiqués dans le sitemap.

En somme, il est important que ses pages soient bien préparées et optimisées pour les moteurs de recherche afin de profiter de cette fonctionnalité.

 

Une fonctionnalité accessible grâce aux données structurées

 

L’ajout du badge dans les résultats de Google Images est possible à travers la configuration des métadonnées. Deux types de méta données sont éligibles aux yeux de Google pour l’ajout du badge :

  • les données structurées : directement dans le code de la page.
  • IPTC photo metadata : informations incorporées directement dans les métadonnées de l’image.

 

Licence Google Images

Capture d’écran des informations mises en avant directement dans la recherche d’images proposée par Google.

Une fois les métadonnées configurées, Google Images mettra en avant deux informations sur la page de résultats : un URL à destination d’une page de présentation de la politique d’utilisation de l’image, ainsi qu’un URL vers une page permettant d’obtenir des informations sur la manière d’accréditer l’image.

Ces informations devront être indiquées dans l’un des deux types de métadonnées. En ce qui concerne les données structurées de schema.org, les champs « license » et « acquireLicencePage » devront être indiqués pour chaque image (si les licences sont différentes).

 

Licence Google Images

Capture d’écran d’un exemple de balisage de données structurées proposé par Google.

 

Pour les métadonnées IPTC photo, les propriétés concernées sont « Web Statement of Rights » ainsi que « Licensor URL ».

En cas d’erreur, Google propose des ressources pouvant servir à corriger le trouble causé lors de la mise en place des données structurées.

Au mois de septembre dernier, Google avait annoncé une évolution au niveau du traitement des liens nofollow en 2 phases. Il devenait possible d’ajouter des attributs « ugc » (contenu généré par l’utilisateur), sponsored (sponsorisé) au lieu de nofollow. À partir du 1er Mars 2020, les liens no follow seront traités dans les phases de crawl et d’indexation.

 

Référencement Naturel Google

 

Rappel : que signifie nofollow ?

 

Le « nofollow » désigne un attribut qui peut être appliqué à des liens internes ou externes présents sur une page web. Il a été introduit par Google afin de lutter contre les spams, mais également afin de déclarer les liens sponsorisés ou autres liens destinés à augmenter la popularité et l’autorité d’une page web de façon artificielle.

Par définition, le lien « nofollow » s’oppose au lien « do follow ». Un lien en attribut do follow est un lien qui va permettre la diffusion du jus de lien (ou link juice), important pour augmenter l’autorité d’une page ou d’un site web. Dans une stratégie de netlinking, il va donc être important de prioriser la création de liens à l’attribut do follow. Toutefois, ce ne sont pas les plus simples à obtenir.

En ce qui concerne le lien nofollow, il n’est pas pris en compte par les robots et ne transmet donc aucune performance en termes d’autorité et de popularité. Ceci était vrai jusqu’à cette année.

 

Septembre 2019 : Google s’attaque au nofollow

 

Au mois de septembre dernier, Google a annoncé la création de deux nouveaux attributs : ugc (contenu généré par l’utilisateur) et sponsored (sponsorisé). Alors que le premier désigne les liens générés par les utilisateurs de forum ou les auteurs de commentaires de blog, le second désigne les articles sponsorisés.

Ces nouveaux attributs ont été créés pour se substituer à l’attribut nofollow. Ils peuvent donc être utilisés avec ou bien sans l’attribut nofollow. Toutefois, ils constituent un indice pour Google. À la différence du nofollow qui n’est pas pris en compte par les robots, ces nouveaux attributs peuvent être considérés et suivis par les robots. Malgré tout, ils ne permettent pas d’améliorer son positionnement dans les pages de résultats de recherche.

La mise en place de ces attributs était destinée à permettre à Google de mieux comprendre et « d’analyser de façon appropriée » les liens ainsi que leur utilisation.

 

Référencement naturel

 

L’attribut nofollow devient un indice pour Google

 

La seconde phase portée par le projet annoncé par Google au mois de septembre 2019 concernait l’attribut nofollow. Google annonçait alors qu’à partir du 1er Mars 2020, les liens en no-follow seraient concernés par une modification au niveau de leur traitement.

« Pour des fins de crawl et d’indexation, le nofollow deviendra un indice à partir du 1er Mars 2020. » Google.

Ainsi, les liens en nofollow seront considérés par les robots et non plus ignorés. Toutefois, il reste difficile d’évaluer l’impact SEO de ce changement.

 

Concrètement, qu’est-ce que ça change ?

 

Vous l’aurez compris, il est difficile d’estimer les changements que cela va apporter en termes de référencement. Toutefois, comme le rappelle Search Engine Journal, il sera important de bien anticiper ce changement en vérifiant sa politique d’utilisation des liens nofollow.

En effet, il se pourrait que des liens nofollow présents sur vos pages web pointent vers des pages que vous ne souhaitez pas indexer. La prise en compte du nofollow comme indice pour Google pourrait donc donner accès aux robots à ces contenus.

Afin de s’assurer que ce changement ne soit pas préjudiciable en termes de budget de crawl, il sera important de s’assurer de la non-indexation des pages concernées en introduisant une balise de type metas robots avec la valeur no-index dans la balise head de ces pages.

Google a annoncé l’ajout de deux nouvelle fonctionnalités pour son outil de changement d’adresse. Il sera désormais possible de tester 5 URL et de valider les redirections alors que la Search Console indiquera un message d’avertissement sur le nouveau et l’ancien domaine.

 

L’outil de changement d’adresse de la Search Console

 

L’outil de changement d’adresse de la Google Search Console avait fait son apparition sur la nouvelle interface au mois d’octobre dernier. Il s’agit d’un outil qui est destiné à informer Google du changement d’adresse pour que des dispositions soient prises afin que la nouvelle adresse prenne la place de l’ancienne dans les résultats de recherche.

En revanche, l’outil de changement d’adresse ne peut-être utilisé que lorsqu’il s’agit d’un domaine racine à migrer : il ne sera pas possible de l’utiliser pour effectuer un changement au niveau d’un sous-domaine ou bien d’un répertoire.

Enfin, l’outil de changement d’adresse est disponible dans les paramètres de la Google Search Console, accessibles dans la colonne de gauche de la plateforme.

 

Des nouveautés apportées à l’outil de changement d’adresse

 

Ce mardi et par l’intermédiaire du compte Twitter de Google Webmasters, Google a annoncé l’ajout de deux améliorations de l’outil de changement d’adresse.

La première concerne la validation des redirections 301 pour 5 URL de l’ancien nom de domaine. Il sera possible de tester ses redirections avant de les valider. Google proposera des recommandations en cas de problème comme une redirection non trouvée par exemple.

 

Outil de changement d'adresse de la Search Console

Capture d’écran de l’outil de validation de changement d’adresse de la Search Console proposée par Google.

La seconde amélioration concerne l’ajout d’un message d’alerte. Ce dernier se présente sur la Search Console du nom de domaine redirigé ainsi que du nouveau nom de domaine. Ce message indiquera « Ce site est actuellement en cours de migration vers [www.nouveaudomaine.com]. »

 

Outil de changement d'adresse de la Search Console

Capture d’écran de l’avertissement du changement d’adresse proposée par Google.

Enfin, Google propose une documentation pour comprendre l’outil, les cas dans lesquels il est utile, mais aussi les étapes à respecter pour une bonne migration de son nom de domaine.

Depuis 2018, la CNIL (Commission Nationale de l’Informatique et des Libertés) veille au bon respect du Règlement Général sur la Protection des Données en France. Ce dernier a pour objectif de renforcer la protection des données personnelles. Il limite fortement la collecte des données de navigation sur un site web.

 

Qu’est-ce que le RGPD ?

 

Le RGPD est un règlement général adopté par l’Union Européenne en 2016 et mis en vigueur en 2018. Il remplace la directive sur la protection des données personnelles qui datait de 1995. Le RGPD a pour objectif de mieux protéger les utilisateurs en limitant la récupération de données personnelles ainsi que leur traitement.

Le RGPD va influer fortement sur la récupération de cookies par exemple. Les cookies sont des fichiers texte qui contiennent des informations sur la navigation d’un internaute et sont accessibles pour les propriétaires de site. Ils visent à personnaliser l’expérience de l’utilisateur en fonction de ses données de navigation (sites web visités, achats réalisés en ligne, etc.).

La récupération de cookies sur un site web n’est pas interdite. Toutefois, elle est soumise au consentement des utilisateurs. Ce dernier se réserve le droit d’accepter la récupération de ces données, ou bien de la refuser. Dans ce cas, des dispositions légales doivent être prises sur l’ensemble des sites web afin de laisser le choix, de façon claire et évidente, à l’utilisateur de donner accès à ses données de navigation ou non.

 

Quelles sont les données à caractère personnel ?

 

Pour assurer une protection optimale de ses données personnelles, il faut tout d’abord comprendre ce qu’elles signifient et prendre connaissance des informations désignées sous cette appellation.

Pour la CNIL, « une donnée personnelle est toute information se rapportant à une personne physique identifiée ou identifiable. Mais, parce qu’elles concernent des personnes, celles-ci doivent en conserver la maîtrise. »

L’organisme précise également qu’une personne physique peut être identifiée directement (nom, prénom) ou indirectement (contact, adresse, numéro de sécurité sociale, plaque d’immatriculation, voix, image, etc.). Aussi, une personne physique peut être identifiée à partir d’une seule donnée ou bien à partir du croisement de ses informations.

Parmi les données à caractère personnel, sont considérés : le nom, une photo, une empreinte, une adresse postale, un adresse mail, un numéro de téléphone, un numéro de sécurité sociale, un matricule interne, une adresse IP, un identifiant de connexion informatique, un enregistrement vocal, et bien plus encore.

Quelles sont les recommandations à mettre en place dans le cadre du RGPD ?

 

Afin qu’un site internet entre en conformité avec le RGPD, il doit proposer un contenu dont l’accès n’est pas soumis à l’abonnement à une newsletter par exemple. Des mentions doivent être précisées en bas de votre formulaire de contact, un moyen de contact doit être présent que chacun puisse exercer ses droits. Enfin, il est obligatoire d’éditer une page qui présente les mentions légales permettant d’identifier l’éditeur du site.

Dans le cas où le site web dispose de cookies, il va falloir :

  • En informer les utilisateurs,
  • Mettre en place un dispositif d’obtention de leur consentement.

Ceci est indispensable en vue de pouvoir obtenir des statistiques au sujet de leur navigation et pouvoir les traiter par la suite pour adapter votre stratégie à votre cible.

Enfin, dans le cas d’un site marchand, les informations récoltées doivent être justifiées par le service client : la CNIL cite le fait de demander une date de naissance pour un service par particulier lors d’un anniversaire, par exemple.

De plus, vous devrez respecter plusieurs règles pour vous assurer de la conformité de votre procédé : sécuriser les données en ligne (protocole HTTPS, non conservation des données bancaires, sécurisation de la transaction, etc.), informer les clients (créer une charte) et donner la possibilité aux clients d’exercer leurs droits et contrôler la manière dont leurs données seront utilisées.

 

Est-ce que le RGPD est obligatoire ?

 

Le respect du règlement général sur la protection des données est indispensable. Toutefois, son caractère obligatoire ne le prémunit pas de pratiques irrespectueuses encore aujourd’hui.

En effet, une étude menée par des chercheurs de l’Université d’Aarhus, l’Université Catholique de Louvain et du Massachusetts Institute of technology a démontré que sur 10 000 sites internet visités, 90% ne respectent pas le RGPD.

Seuls 12,6% des sites présentent bien la possibilité de rejeter tous les cookies. En revanche, plus de 56% des sites web pré-cochent les cases de consentement, ce qui est illégal.

Par ailleurs, il faut savoir que le RGPD ne s’applique pas uniquement aux sites web : la téléprospection commerciale ou la prospection par courrier sont également visées par ce règlement. À ce sujet, la formation restreinte de la CNIL a prononcé une sanction de 500 000€ à l’encontre de Futura Internationale pour démarchage téléphonique illégal.

En définitive, si le RGPD est là pour encadrer et protéger les données des utilisateurs, la réalité des faits démontre qu’il faudra encore du temps pour éveiller les consciences et observer une application rigoureuse de ses recommandations.

En début de semaine, nous vous parlions du fait qu’une possible mise à jour de l’algorithme de Google ait pu être adoptée. Depuis, Google a statué sur le sujet.

 

Plusieurs SEO ont observé des variations de leur trafic organique

 

Lundi, des référenceurs du monde entier avaient fait savoir que leur trafic organique avait été impacté par un événement majeur durant le weekend du 8 et 9 février 2020. Depuis, ces observations étaient restées injustifiée s : Google n’avait pas communiqué à ce moment à sur le sujet.

Des variations de 10 à 15% avaient pu être observées par rapport au trafic habituel, comme le rapportait Blog du Modérateur. Face à ces mouvements, de nombreux professionnels ont alerté sur une possible mise à jour de l’algorithme de Google.

Cela avait déjà été le cas au mois de novembre avec une mise à jour qui avait été officialisée plusieurs semaines à la suite de l’événement.

 

Index de Google SERP

 

Google a parlé : aucune mise à jour du coeur de l’algorithme n’a eu lieu

 

C’est une nouvelle fois à travers la voix de Danny Sullivan, administrateur du compte Twitter Google SearchLiaison, que Google est monté au créneau à ce sujet. Un utilisateur du réseau social a interrogé Danny Sullivan sur une éventuelle mise à jour de l’algorithme.

En guise de réponse, Danny Sullivan s’est contenté d’affirmer une fois de plus que Google effectuait des mises à jour continuellement. Une réponse qui ne réfute pas l’idée de la mise à jour, mais bien celle d’une mise à jour du coeur de l’algorithme.

Pour justifier cette idée de mise à jour perpétuelle, Danny Sullivan a fait référence au tweet publié sur le compte Google SearchLiaison au mois de novembre.

Différencier les mises à jour quotidiennes des mises à jour du coeur de l’algorithme

 

Dans ce tweet, Google rappelait la différence entre les mises à jour du coeur de l’algorithme et les mises à jour quotidiennes. En effet, au sujet des mises à jour quotidiennes, Google estime qu’il n’est pas nécessaire de communiquer :

« Si nous ne communiquons pas à leur sujet, c’est parce qu’il n’y a pas de marche à suivre particulière ni de changements à mettre en place autre que de rester concentré sur la création de contenu de haute qualité. »

En revanche, pour ce qui est des mises à jour du coeur de l’algorithme, Google estime qu’elles sont souvent détectables et justifie de cette manière la communication à leur sujet :

« Nous communiquons à leur sujet quand il nous semble qu’une marche à suivre doit être indiquée aux propriétaires des contenus. Par exemple, quand notre mise à jour sur la vitesse de chargement a eu lieu, nous avons notifié des mois à l’avance et avons apporté des conseils à ce sujet. »

Nous pouvons donc conclure que Google n’a pas mis en oeuvre de mise à jour majeure, bien que des ajustements aient pu être réalisés durant le week-end. Quoiqu’il en soit, si vous avez observé des modifications dans votre trafic organique, nous ne pouvons vous conseiller que de veiller à ce que votre contenu respecte bien les critères de qualité de Google.

Le Duplicate Content est une pratique assimilée à du plagiat puisqu’il consiste à reprendre un contenu déjà existant en intégralité sur son site. Il peut être interne ou externe. Voici les risques qu’il incombe à utiliser du Duplicate Content sur son site web.

 

Création de contenu original

 

Qu’est-ce que le Duplicate content ?

 

De façon générale, le contenu dupliqué est assimilé à du plagiat. La pratique est donc proscrite. En termes de SEO, cela désigne le fait de reprendre un contenu présent sur une page web en vue de le publier sur une nouvelle page. Il concerne aussi bien le contenu des pages que les balises title ou meta-description. Également, le Duplicate Content peut-être considéré comme interne ou bien externe.

Duplicate content interne

Si le contenu dupliqué est considéré comme interne, ceci est une bonne nouvelle : vous allez pouvoir y remédier de manière relativement simple. En effet, le contenu dupliqué interne désigne une situation ou deux des pages de votre site présentent un contenu identique ou en partie similaire.

Ceci peut-être être le cas sur un site internet e-commerce où de nombreux produits apparaissent et seuls quelques éléments les différencient. Dans ce cas, vous avez la main sur le contenu de votre site web et êtes en mesure d’agir rapidement pour y remédier.

 

Duplicate content externe

 

Au contraire, le contenu dupliqué externe désigne une situation où l’une de vos pages web présente un contenu identique ou en partie similaire avec une page hébergée sur un autre site web. Cela peut-être accidentel par rapport à certains types de contenus comme la reprise de communiqué de presse ou de dépêches.

Toutefois, cela peut également être assimilé à du plagiat. Si vous êtes à l’origine de ce plagiat, il va falloir changer votre fusil d’épaule et produire un contenu propre à votre site web. Si l’auteur à l’initiative du plagiat est le propriétaire de l’autre site web, le contacter pour lui signifier ce désagrément constituera une première approche.

 

Création de contenu original

 

Que se passe-t-il lorsque Google détecte du contenu dupliqué ?

 

Le contenu dupliqué placé dans l’index secondaire

 

Tous les jours, des mises à jour de l’algorithme de Google sont effectuées pour mettre en place un outil de recherche toujours plus qualitatif et pertinent. Il n’est donc pas question pour lui de laisser deux contenus identiques présents sur le Web. En d’autres termes, Google n’aime pas le contenu dupliqué.

Lorsque deux contenus similaires sont détectés, Google va avoir une approche pragmatique. Le contenu qu’il va identifier comme original sera conservé. En revanche, le contenu considéré comme dupliqué sera classé dans un index secondaire et non pas supprimé. Dans tous les cas, l’index secondaire ne sera pas visible.

Pour qu’un contenu soit considéré comme original, Google établit des critères objectifs comme l’autorité d’une page grâce notamment aux liens en direction de la page, par exemple. Attention, Google ne pénalise pas le contenu dupliqué au sens strict du terme. Lorsque du Duplicate Content est détecté, celui-ci va être filtré et classé. C’est ce qui va faire que le contenu va être disponible ou non dans les SERP.

 

La balise canonique pour indiquer la source du contenu

 

Lorsqu’un contenu est présent sur deux sites ou deux pages différentes, il est possible d’indiquer à Google quel est le contenu d’origine. Pour ce faire, il va falloir, tout d’abord, faire preuve de bonne foi. En effet, il se peut que vous ayez repris une dépêche ou bien qu’un autre site internet ait repris un contenu qui vous appartient.

Pour indiquer son origine, il faut savoir que chaque page d’un site internet contient une balise link avec un attribut « rel » de type « canonical ». Cette balise va permettre d’indiquer aux robots de Google, lorsqu’ils parcourent la page, l’URL source du contenu de la page. Dans le cas d’une page sans duplicate content, l’URL indiquée devra être l’URL de la page.

En revanche, pour ce qui est d’un contenu dupliqué, la balise canonique de la page qui duplique devra indiquer l’URL de la page d’origine. Dans le cas d’un contenu dupliqué interne, cela évite que Google effectue le choix à votre place entre les deux pages. Pour ce qui est d’une duplication externe, il faudra indiquer l’URL du site d’où provient le contenu.

 

Index de Google SERP

 

Quels sont les risques du Duplicate content et comment les éviter ?

 

Non, le Duplicate Content n’entraîne pas de pénalité

 

Le Duplicate Content est régulièrement cité parmi les problèmes principaux et récurrents du référencement naturel. Toutefois, il faut savoir que la présence de contenu dupliqué sur un site web n’entraîne pas de pénalité de la part de Google.

Le principal risque engendré par du contenu dupliqué est la désindexation de la page considérée comme dupliquée ou bien le placement dans l’index secondaire, ce qui concrètement a le même effet. En revanche, si l’ensemble d’un site est dupliqué, les ennuis peuvent commencer.

Plusieurs vérifications et techniques permettent de se prémunir du contenu dupliqué pour son site web. Si vous êtes concerné par ce désagrément, il va falloir contrôler la totalité des pages de votre site web.

 

Contrôler les versions de ses pages

 

Il existe également la possibilité que le contenu dupliqué de votre site web soit présent de manière accidentelle. En effet, ceci peut-être dû à différents facteurs techniques. C’est pourquoi il est important de porter une attention toute particulière aux différentes versions de ses URL : « http » vs « https », avec « www » vs sans « www ».

À ce niveau, les redirections permanentes de type 301 permettent de pallier à ce problème. Une fois que vous avez défini votre URL de prédilection, toutes les autres versions devront être correctement redirigées. Toutefois, c’est en omettant certaines URL qu’arrive le contenu dupliqué. C’est pourquoi, il faudra être attentif à bien traiter chaque URL et ses différentes versions.

 

Vérifier si le contenu de ses pages existe ailleurs sur le Web

 

Enfin, il faut savoir qu’il existe des outils en ligne, parfois gratuits qui permettent de détecter le contenu dupliqué. En indiquant l’URL de votre page, l’outil vous permettra de savoir quel est le taux de duplication de votre page web afin de vous assurer que le contenu n’est pas déjà présent ailleurs.

Parmi ces outils, nous pouvons par exemple citer Copyscape qui indique si une page similaire à la votre existe ailleurs, Duplichecker ou encore l’outil présenté par Olivier Duffez sur le site Web Rank Info.

En définitive, si le duplicate content ne provoquera pas de pénalité de la part de Google, il en reste qu’il peut être très nocif pour votre référencement naturel. Prendre des dispositions sera essentiel afin de vous prémunir de ce type de désagrément.

Google a annoncé lundi la création d’un nouveau rapport sur la Search Console concernant les avis et leur affichage dans les extraits enrichis des pages de résultats.

 

Extraits d'avis

Le nouveau rapport présenté sous l’onglet « Améliorations » de la Search Console.

Après la remise en ligne de l’outil de suppression des pages de l’index fin janvier 2020, Google continue d’agrémenter la Search Console de nouveaux rapports. En effet, le géant de la Mountain View a annoncé, via son blog destiné aux webmasters, la création d’un rapport concernant les étoiles dans les extraits enrichis. Ce nouveau rapport sera disponible sous l’onglet « Améliorations » de la plateforme sous le nom « Extraits d’avis ». Il vient compléter le rapport sur les données structurées et les résultats enrichis.

Ce nouveau rapport, qui a pour but d’accompagner les propriétaires de site utilisant les étoiles dans leurs données structurées, permettra « d’observer s’il existe des erreurs, des avertissements, mais également des pages valides » selon Google. Par ailleurs, à l’image des autres rapports, ce dernier permettra de déclarer des corrections et de lancer un processus de validation directement depuis Search Console.

 

Extraits d'avis dans la Search Console

Capture d’écran du nouveau rapport proposée par Google.

 

Les résultats enrichis avec étoiles de notation intégrés au Rapport de Performance

 

En plus du rapport, il sera possible d’observer les performances de ses pages utilisant les étoiles de notation comme résultats enrichis au sein du rapport de performance de la Search Console. En effet, le filtre a été ajouté au rapport et ne dérogera pas à la règle : il permettra d’observer les impressions, le nombre de clics, et le taux de clics des pages avec avis dans la recherche.

 

Extraits enrichis Search Console

Capture d’écran du nouveau filtre dans le rapport de performance proposée par Google.

Enfin, Google rappelle qu’il sera possible d’évaluer son code de données structurées grâce à l’outil de test des résultats enrichis de Google. Il permettra d’identifier les problèmes ainsi que de les corriger.

EDIT 14/02/2020 : Selon Google, il n’y a pas eu de mise à jour majeure du coeur de son algorithme le week-end du 8-9 février 2020.

 

Des professionnels du SEO ont remarqué des variations dans leur trafic organique ces derniers jours. Toutefois, Google n’a pas communiqué à ce sujet.

 

Une mise à jour de Google non officielle ?

 

Moins d’un mois après la January 2020 Core Update, plusieurs SEO ont observé des variations de leur trafic organique. De Barry Schwartz, fondateur de Search Engine Roundtable à Lily Ray directrice de l’agence américaine Path Interactive, de nombreux SEO ont fait savoir que leur trafic organique avait été impacté par un événement durant le week-end.

Si tous les regards se sont portés sur Google, le géant de la Mountain View, n’a pas annoncé de mise à jour majeure de son algorithme ces derniers jours. Toutefois, tout porte à croire que la Recherche de Google ait bien été impactée par un événement de ce type. Comme le rapporte Blog du Modérateur, des variations de 10 à 15% en moyenne ont été observées par rapport au trafic organique habituel.

 

Que faire en cas de variations inhabituelles ?

 

Avant d’entamer la quelconque action de référencement pour remédier à une variation intempestive du trafic organique et de votre positionnement, il va tout d’abord falloir mettre en place un audit de votre site. Grâce aux différents outils de suivi, la première action va consister à vérifier que tout est en ordre sur votre site web.

Par la suite, il va être important de temporiser : attendre quelques heures ou quelques jours avant d’entreprendre une action vous permettra de vous prémunir d’une manipulation pénalisante pour votre site web. Il est important de s’assurer que cette variation n’est pas uniquement temporaire, auquel cas, il n’y aura qu’à attendre que tout se remette en place.

 

Que faire si une mise à jour a lieu et que votre site est pénalisé ?

 

Si une mise à jour de l’algorithme de Google impacte votre positionnement dans les résultats de recherche, il se peut que la mise en route de plusieurs améliorations soit nécessaire. En confrontant votre trafic habituel au trafic observé durant la période la plus récente, il va s’agir d’identifier quelles sont les pages qui ont été les plus touchées.

Si vous constatez au bout de plusieurs jours que tout ne revient pas en ordre, vous devrez vous saisir des Search Quality Guidelines de Google et y confronter vos pages. Toutes les bonnes pratiques y sont indiquées. Il faudra s’assurer que vos pages respectent bien ces critères de qualité.

 

Conclusion

 

Comme au mois de novembre dernier, il sera nécessaire d’attendre la confirmation de Google sur la mise en place ou non d’une mise à jour de l’algorithme. Toutefois, contrôler si votre site web a subi des variations ou non et identifier quelles sont les pages qui ont été touchées sera plus sage dans un premier temps.

Par ailleurs, mettre en place une veille sur l’actualité du référencement en suivant notre blog d’actualité digitale, par exemple, pourra être utile pour s’informer des dernières nouvelles concernant cette potentielle mise à jour.

 

À l’occasion de l’anniversaire de Google Maps, Google en a profité pour annoncer un nouveau logo et de nouvelles fonctionnalités. Pour ses 15 ans, l’outil créé en 2005 souhaite plus que jamais aider son milliard d’utilisateurs à explorer et voyager à travers le monde.

 

5 onglets faciles d’accès pour explorer

 

Google Maps propose désormais aux utilisateurs de l’application sur iOS et Android, 5 onglets à accès simplifié au sein d’une interface repensée. Les cinq onglets proposés sont :

  • Explorer : l’onglet Explorer permettra d’accéder à des informations de notation ou des avis à propos de plus de 200 millions de lieux dans le monde tels que des restaurants
  • locaux et autres attractions.
  • Trajets : cet onglet permettra d’optimiser son trajet en fonction de la circulation quotidienne, du temps de trajet ou encore du trafic mis à jour en direct. Il proposera des trajets alternatifs.
  • Sauvegardés : l’onglet Sauvegardés permettra de consulter les lieux sauvegardés par les utilisateurs afin de préparer un voyage par exemple et de vous proposer des recommandations.
  • Contribuer : l’onglet Contribuer donnera la possibilité de partager son expérience à propos d’un lieu, des détails à propos de l’adresse, des images ou encore des avis.
  • Mises à jour : enfin, l’onglet Updates offrira, en plus de la découverte et des recommandations, un chat pour poser ses questions directement aux entreprises enregistrées.

 

Google Maps

Affichage des 5 onglets sur la nouvelle interface de l’application.
Source : Blog de Google.

 

Un nouveau logo

 

Nouveau logo de Google Maps dévoilé par Google.

Nouveau logo de Google Maps dévoilé par Google.
Source : Blog de Google.

 

Pour l’occasion, Google Maps a même décidé de mettre à jour son logo. Ce dernier sera désormais composé d’une épingle de géolocalisation aux couleurs de Google et de la mention Google Maps.

Selon Google, ce logo est « basé sur un élément clé de Google Maps depuis le tout début – l’épingle – et représente le passage d’un outil qui permet de vous amener à votre destination à un outil pour vous aider à découvrir de nouveaux endroits et de nouvelles expériences. »

 

De nouvelles fonctionnalités pour l’application

 

Par le biais de son communiqué, Google confirme également que de nouvelles fonctionnalités ont été ajoutées en plus de la prédiction de trafic de l’année dernière. Parmi elles, seront disponibles :

  • La température extérieure : il sera possible d’accéder à la température du lieu de destination directement via Google Maps.
  • Accessibilité : l’outil permettra de savoir si certaines précautions doivent être prises lorsque vous vous déplacez en transport en commun. En effet, Maps indiquera si une assistance est proposée, si des sièges sont accessibles et si le transport propose un bouton stop ou une LED haute visibilité.
  • Section pour femmes : Google Maps indiquera si des sections pour femmes sont présentes ou non.
  • Sécurité à bord : Maps informera si le transport est équipé en moyens de sécurité ou si un agent de sécurité est présent par exemple.
  • Le nombre de transports disponibles : enfin, Maps indiquera le nombre de véhicules disponibles afin de connaître ses chances d’avoir une place assise ou non.

 

Aperçu Live View

Aperçu des nouvelles fonctionnalités de Live View.
Source : Blog de Google.

Enfin, Google a également affirmé que grâce aux images réelles de Live View, au machine learning et aux capteurs des smartphones, il se possible d’observer des informations à propos de lieux ou encore des directions grâce à la réalité augmentée.

Pour appliquer une stratégie de référencement naturel de manière efficace sur un site web, il faut être équipé des bons outils. Après avoir vu les meilleures extensions SEO pour WordPress dans un précédent article, nous nous attardons aujourd’hui sur les extensions de navigateur. En effet, les navigateurs web regorgent d’extensions qui sont plus ou moins pertinentes.

Nous en avons sélectionné 5, présentes sur Google Chrome et qui pourront être utiles pour travailler son SEO. Toutefois, même si ces extensions apportent une aide rapide, elles ne remplacent pas des outils à vocation professionnelle.

 

Majestic Backlink Analyzer

 

Majestic

Source : page de présentation de l’extension sur le Chrome Web Store.

 

Proposée par majestic.com, l’extension Majestic Backlink Analyzer est un parfait outil pour définir si un nom de domaine est populaire ou non. Grâce à l’analyse des backlinks d’une page web, Majestic va être en mesure de vous communiquer des métriques comme le Trust Flow (niveau de confiance) et le Citation Flow (nombre de liens présents).

Ces données sont particulièrement utiles pour mener une stratégie de netlinking. En effet, elles permettent de déterminer s’il est judicieux ou non d’obtenir un lien externe sur une page en particulier.

Enfin, il faut savoir que cette extension peut s’utiliser gratuitement, mais l’accès aux fonctionnalités reste limité. Pour bénéficier de l’accès élargi, il faudra posséder un compte sur majestic.com.

Installer Majestic Backlink Analyzer

 

SEO Minion

 

SEO Minion

Source : page de présentation de l’extension sur le Chrome Web Store.

 

SEO Minion est une extension de navigateur très complète en ce qui concerne le travail d’analyse SEO. De l’exploration du contenu d’une page à la vérification des liens rompus et en passant par l’analyse des balises de meta-données, SEO Minion propose une vision très élargie des pages web d’un site.

En effet, il va être possible de détecter si une redirection est présente sur une page, de quelle nature elle est, mais également d’observer l’aperçu de sa page dans un simulateur de SERP (pages de résultats de Google).

Enfin, il est également possible d’obtenir le positionnement de son site web dans les pages de résultats de Google en fonction de la localisation. Toutefois, cette fonctionnalité n’est pour l’instant disponible qu’à l’échelle internationale.

Installer SEO Minion

 

Mozbar from Moz

 

Mozbar

Source : page de présentation de l’extension sur le Chrome Web Store.

 

À l’image de Majestic, Moz est un outil SEO qui va permettre de travailler sa stratégie de Netlinking. Si elle propose des attributs généraux au sujet d’une page tels que les balises meta, la structure Hn ou encore des textes strong et ALT, la Mozbar va être intéressante pour analyser le profil d’un site web. D’autres données sur le statut HTTP ou le balisage des données structurées sont présentes. Toutefois, c’est en termes de Netlinking que l’outil va être particulièrement utile.

En créant un compte gratuit, il sera possible d’accéder à des métriques liées aux liens. Parmi elles, nous retrouvons l’autorité de page, l’autorité de domaine (souvent utilisée par d’autres outils SEO en tant que référence), le nombre de liens externes suivis, les domaines racines liés ou encore le nombre total de liens.

Enfin, un outil de surlignage va permettre de mettre en avant les liens présents sur une page en fonction de leur statut : suivi, non suivi, externe ou interne.

Installer Mozbar from Moz

 

SEO Quake

 

SEO Quake

Source : page de présentation de l’extension sur le Chrome Web Store.

 

SEO Quake est un outil très complet qui permet de réaliser un audit SEO d’une page web de manière très rapide. Lorsqu’une page est désignée pour être analysée, SEO Quake va fournir des informations basiques qui relèvent de la page en question : titre, meta mots-clés (même s’ils ne sont plus utilisés), meta description, le nombre de liens internes et externes ainsi que le serveur.

Par ailleurs, l’extension va proposer un diagnostic en analysant plusieurs facteurs pour déterminer si des erreurs ou des avertissements existent sur votre page : elle propose même des astuces et suppléments d’informations pour chaque facteur déterminant.

Aussi, SEO Quake propose d’analyser les liens internes et externes de la page, ainsi que les mots-clés présents à travers la notion de densité de mots-clés sur une page.

Enfin, l’outil « comparer les URL/Domaines » permet de comparer son site web à un site web de concurrent. Les données proposées sont le nombre de pages dans les différents index des moteurs de recherche, l’âge du site, le rang Semrush et le nombre de liens retours.

Installer SEO Quake

 

Check My Links

 

Check My Links

Source : page de présentation de l’extension sur le Chrome Web Store.

 

Check My Links, proposé par pagemodified.com, est un vérificateur de liens présents sur une page. En parcourant la page, Check My Links va détecter l’ensemble des liens de la page et les classer.

En effet, Check My Links est un outil qui, parmi tous les liens d’une page, va être capable de détecter des liens valides, des liens redirigés, des liens comportant des avertissements ainsi que des liens invalides.

Il est une très bonne alternative rapide et gratuite pour détecter les liens rompus présents sur une page afin de les éliminer en les remplaçant ou en les supprimant.

Installer Check My Links