Quelques semaines avoir fait le bilan sur sa lutte contre le spam, Google a dévoilé la façon dont les Spam Reports étaient utilisés. Selon le moteur de recherche, « les rapports de spam sont uniquement utilisés pour améliorer [ses] algorithmes de détection de spam ».

 

Google Spam Report

 

Pour rappel, les Spam Reports sont des rapports que peuvent créer et transmettre les utilisateurs pour signaler des pratiques malveillantes au moteur de recherche. Qu’il s’agisse de tentatives de fraudes, spams ou autres méthodes bannies, il est possible de faire prendre connaissance à Google de l’existence de ces pratiques.

 

En effet, les spams détectés par Google, le sont généralement grâce aux algorithmes de détection. Toutefois, ces derniers ne sont pas efficaces à 100%. Google s’en remet donc au travail de ses équipes pour analyser et détecter les spams et ainsi « améliorer les résultats de recherche ».

 

Google modifie ses guidelines et précise que peu de rapports donnent lieu à des actions manuelles

 

Selon Google, les actions manuelles émises en réponse à des Spams Reports ne sont qu’une « petite fraction » de l’ensemble des actions manuelles émises par le moteur de recherche. En effet, toujours selon lui, « la plupart des actions manuelles proviennent du travail que nos équipes internes effectuent régulièrement pour détecter le spam et améliorer les résultats de recherche. »

 

Ces rapports ont pour objectif de lever les zones d’ombre sur lesquelles les algorithmes de Google manquent de « couverture ». D’après le moteur, « il est beaucoup plus efficace pour nous de résoudre un problème sous-jacent avec nos systèmes de détection automatisés que de prendre des mesures manuelles sur une seule URL ou un seul site. » C’est en cela que les Spams Reports sont importants pour Google.

 

Par ailleurs, Google a annoncé avoir modifié ses guidelines à ce propos.

 

Google compte sur le contenu de qualité pour améliorer la recherche

 

Derrière ces rapports se trouve la volonté de Google d’automatiser au maximum la détection des spams. « Les rapports de spam sous forme agrégée nous aident à analyser les tendances et les modèles de contenu spam pour améliorer nos algorithmes », précise Gary Illyes.

 

De plus, Google assure que « l’une des meilleures approches pour garder le spam hors de la recherche consiste à s’appuyer sur du contenu de haute qualité créé par la communauté Web et sur notre capacité à le faire apparaître grâce au classement. »

 

Enfin, le moteur de la Mountain View affirme que les systèmes de détection de spam fonctionnent avec ses systèmes de classement. Les Rapports de Spam permettent donc à Google de travailler sur ces deux plans concernant le travail d’amélioration de leurs algorithmes.

 

Il est donc peu probable qu’un site web de mauvaise qualité subisse une pénalité à la suite d’un Spam Report. En revanche, il se pourrait que les pratiques de spam utilisées sur ce même site subisse les foudres du moteur de recherche une fois l’algorithme mis à jour. L’influence des Spam Reports se mesure ainsi sur le long terme.

Ces derniers jours, le moteur de recherche Bing a mis à jour ses consignes pour aider les référenceurs à comprendre ses critères de classement et la façon dont il interprète le contenu présent sur les pages web. Le moteur décline ainsi ses consignes au sein de 3 sections principales.

 

Ainsi, Bing propose de découvrir les critères indispensables de son algorithme dans les chapitres suivants :

 

  • Comment Bing trouve et indexe votre site
  • Comment Bing classe votre contenu
  • Abus et exemples de choses à éviter

 

Des attentes proches de celles de Google en matière de contenu

 

Qu’il s’agisse d’accéder ou de comprendre le contenu des pages d’un site web, Bing utilise globalement les mêmes critères que Google. Qu’il s’agisse de trouver les pages via un sitemap, ou bien d’interpréter différents types de contenu, il n’existe pas de différence marquante entre les deux moteurs de recherche. Cela s’explique, car ces mesures relèvent généralement du bon sens.

 

Ainsi, il sera toujours nécessaire de supprimer les erreurs 404 présentes sur son site web, de limiter l’utilisation du JavaScript (en minimisant le nombre de requêtes HTTP), de développer un contenu adapté à l’accessibilité (responsive design selon les appareils, mais également concernant l’accessibilité web de manière plus globale).

 

Bing privilégie également l’utilisation de balises H1 à H6 pour définir la structure d’une page web, et plus globalement d’un balisage HTML de son contenu pour le rendre compréhensible. À l’image de Google, Bing propose également la possibilité de baliser sémantiquement sa page pour « déclencher des fonctionnalités enrichies », même si cela ne constitue pas une garantie qu’elles apparaîtront.

 

Guidelines Bing : les critères de l’algorithme

 

Guidelines Bing

 

Dans ses guidelines, Bing explique également que le classement des pages est déterminé selon plusieurs critères parmi lesquels : la pertinence, la qualité et la crédibilité, l’engagement des utilisateurs, la fraîcheur des contenus, la géolocalisation de l’utilisateur ou encore le temps de chargement d’une page.

 

Pertinence

 

Concernant la pertinence, Bing affirme qu’elle « fait référence à la correspondance du contenu de la page de destination avec l’intention derrière la requête de recherche ». La pertinence d’une page se mesure par la présence de mots-clés directement dans la page, ainsi que « dans les liens renvoyant à la page ». Enfin, Bing affirme que les synonymes sont également pris en compte.

 

Qualité et crédibilité

 

Bing juge la qualité et la crédibilité d’une page web à travers la réputation de l’auteur, le niveau de discours et les références qui sont faites (ceci est un indice de qualité). Aussi, Bing se dit être en mesure de rétrograder les contenus présentant des injures ou encore des déclarations offensantes, par exemple. Enfin, l’exhaustivité du contenu et la transparence de la paternité sont deux autres critères permettant de juger de la qualité et la crédibilité du contenu d’une page web.

 

Engagement des utilisateurs

 

Concernant l’engagement des utilisateurs, « Bing considère également la façon dont les utilisateurs interagissent avec les résultats de recherche ». En effet, Bing dispose de ce type d’informations à partir des données récoltées durant l’expérience des utilisateurs dans les pages de recherche. Ces données apportent des réponses aux questions : « les utilisateurs ont-ils cliqué pour rechercher les résultats d’une requête donnée et dans l’affirmative, quels résultats ? Les utilisateurs ont-ils consacré du temps à ces résultats de recherche sur lesquels ils ont cliqué ou sont-ils revenus rapidement dans Bing ? L’utilisateur a-t-il ajusté ou reformulé sa requête ? »

 

Fraîcheur

 

Bing favorise le contenu frais, c’est-à-dire le contenu le plus récent possible et étant mis à jour régulièrement.

 

Géolocalisation

 

Pour restituer des résultats de recherche, Bing affirme que la géolocalisation de l’utilisateur est un critère qui compte. En effet, le moteur de recherche utilise l’emplacement géographique de l’utilisateur, la localisation de l’hébergement de la page, le langage du document ainsi que « l’emplacement des autres visiteurs de la page ».

 

Temps de chargement de la page

 

À l’image de Google, Bing considère le temps de chargement d’une page web comme un critère important pour évaluer l’expérience utilisateur d’une page. Bing traduit un expérience sur une page lente comme « une mauvaise expérience utilisateur et un résultat de recherche insatisfaisant ».

 

Bing sanctionne les pratiques de référencement de faible qualité

 

Sanctions Bing

 

Pour faire face aux comportements liés à certaines pratiques de référencement jugées abusives, Bing affirme que les sites concernés « peuvent encourir des pénalités de classement, ignorer le balisage du site et ne pas être sélectionnés pour l’indexation. » Cette liste semble peu exhaustive puisque « Microsoft peut prendre des mesures contre votre site pour toute pratique inappropriée ou trompeuse, même celles qui ne sont pas décrites ici. »

 

À l’image de Google, Bing propose également une assistance pour les personnes qui pensent que leur site a été pénalisé.

 

Les pratiques pénalisées par Bing

 

La dernière partie des guidelines est consacrée aux différentes techniques sanctionnables et sanctionnées par le moteur de recherche. Bing liste les éléments suivants :

 

    • cloaking,
    • Schémas de liens, achat de liens, spamming de liens,
    • Schémas de médias sociaux,
    • Contenu dupliqué,
    • Contenu plagié,
    • Bourrage de mots-clés ou pages contenant des mots-clés non-pertinents,
    • Contenu généré automatiquement,
    • Programme d’affiliation sans valeur ajoutée,
    • Comportement malveillant,
    • Balisage de données structurées trompeur.

 

Enfin, Bing précise que les utilisateurs ont également la possibilité de signaler un abus « en utilisant le lien de rétroaction dans le pied de page de bing.com après avoir effectué une recherche qui reproduit le problème ».

La semaine dernière, Google a annoncé de nouvelles mesures en ce qui concerne la confidentialité et la protection des données personnelles. Le géant américain en a profité pour prévenir que certaines données personnelles seront supprimées par défaut au bout de 18 mois.

 

Google a, semble-t-il, fait un nouveau pas en faveur de la protection et de la confidentialité des données des utilisateurs. C’est en tout cas ce que l’entreprise du Mountain View a annoncé par l’intermédiaire de son nouveau PDG Sundar Pichai via son blog. En effet, le moteur affirme que la création de nouveaux produits respecte trois principes fondamentaux pour Google :

 

  • assurer la sécurité de vos informations,
  • les traiter de manière responsable
  • et vous en permettre le contrôle.

 

Il a donc décidé de mettre en place de nouvelles pratiques en matière de conservation des données par défaut en vue de limiter cette dernière dans le temps et ainsi préserver l’intégrité des données personnelles des utilisateurs.

 

Conserver les informations aussi longtemps qu’elles sont utiles

 

Données personnelles utilisateurs

 

La décision de limiter la conservation des données personnelles pour une durée de 18 mois, découle d’une volonté de se contenter de données utiles pour l’expérience utilisateur uniquement.

 

« Nous pensons que les produits ne doivent conserver vos informations qu’aussi longtemps qu’elles vous sont utiles, que ce soit pour trouver vos destinations préférées dans Maps ou pour obtenir des recommandations sur les contenus à regarder sur YouTube. »

 

Pour cela, Google a introduit des contrôles de suppression automatique permettant de supprimer des données de façon automatique à partir de 3 mois et jusqu’à 18 mois après leur récolte. Les données concernées sont des données issues de « l’historique des positions, de la recherche, de la voix et des données d’activité YouTube ».

 

Qu’il s’agisse d’une nouvelle activation ou de la création d’un nouveau compte, la suppression automatique sera établie sur 18 mois par défaut. D’après Google, « cela signifie que vos données d’activité seront automatiquement et continuellement supprimées après 18 mois, plutôt que conservées jusqu’à ce que vous choisissiez de les supprimer. »

 

En revanche, sur YouTube, la suppression automatique sera prédéfinie sur 36 mois. Google justifie cette décision par le fait que « cela améliore les pratiques actuelles et garantit des recommandations pertinentes en fonction des vidéos déjà visionnées par le passé ». En revanche, Gmail, Google Drive et Google Photos ne seront pas concernées par cette décision.

 

Permettre un meilleur contrôle des données personnelles et de leur confidentialité

 

Confidentialité données personnelles

 

Afin d’offrir un meilleur contrôle des données personnelles aux utilisateurs, Google a annoncé de nouvelles mises à jour concernant ses outils. Ces mises à jour ont pour vocation de faciliter l’accès au contrôle de la confidentialité de ses données personnelles. Elles concernent :

 

    • l’ajout de la possibilité de contrôler son compte Google directement à partir de la recherche.

 

    • Un accès facilité au mode de navigation privée par un appui long sur la photo de profil de son compte Google.

 

    • l’ajout de nouvelles recommandations et de conseils guidés sur le contrôle de confidentialité du compte Google (Security Checkup).

 

Concernant la protection des données, Google rappelle que des protections automatiques sont disponibles sur chaque produit et que la navigation sécurisée « protège plus de 4 milliards d’appareils contre le phishing et les logiciels malveillants tous les jours ».

 

Google Play Protect est également évoqué : il « analyse vos applications avant, pendant et après le téléchargement pour assurer la sécurité de vos appareils ». Également, Google rappelle le lancement de Security Checkup il y a cinq ans et notamment la mise en place de Password Checkup, un « outil qui vérifie si les mots de passe enregistrés dans votre compte Google ont été compromis » comme un « élément central de Security Checkup ».

 

Google reste engagé et continue à travailler sur la confidentialité des données

 

Sécurité données personnelles

 

Afin de lutter en faveur de la confidentialité et la sécurité des données et en plus de proposer des données en open-source, Google affirme investir dans de nouvelles technologies et dans de nouveaux langages de programmation (Java, Go) « pour aider les développeurs utilisant le machine Learning en vue d’améliorer la protection de la vie privée ».

 

De plus, Google affirme avoir publié un cadre réglementaire et plaide « en faveur d’une réglementation des données sensibles dans le monde entier. »

 

À ce niveau, Google affirme que ses équipes restent mobilisées.

Ce jeudi, Google a annoncé le lancement d’un nouveau programme visant à soutenir les éditeurs de presse financièrement en vue de proposer « un contenu de haute qualité pour une nouvelle expérience de l’information ».

 

En effet, Google annoncé lancer un nouveau programme visant à aider « les éditeurs à monétiser leur contenu ». Ce programme devra permettre de proposer « une expérience de narration améliorée qui permet aux gens d’approfondir des histoires plus complexes, de rester informés et d’être exposés à un monde de questions et d’intérêts différents » selon Brad Bender, en charge de la gestion des produits chez Google.

 

D’après Google, ce programme vise à « aider le journalisme à prospérer à l’ère numérique ». Pour ce faire, des partenariats seront noués avec des éditeurs locaux et nationaux. De plus, Google devrait proposer un accès payant pour des contenus auxquels les utilisateurs n’auraient pu accéder jusqu’ici. En payant cet accès, il sera possible de consulter des articles payants publiés sur les sites éditeurs et qui nécessitent la souscription à un abonnement.

 

Ce programme devra permettre d’augmenter l’audience des sites de presse partenaires en vue d’offrir la possibilité à ces derniers de monétiser leurs contenus. Google justifie son lancement par le fait que « l’industrie de l’information est mise au défi financièrement » dans un contexte de « pandémie mondiale et de préoccupations croissantes concernant l’injustice raciale dans le monde ».

 

Si cette initiative ne sera lancée qu’en Allemagne, en Australie et au Brésil dans un premier temps, elle devrait voir le jour progressivement dans le monde par la suite.

Si vous naviguez régulièrement sur le Web, vous avez pu vous rendre compte que certaines adresses URL comprennent un préfixe « www » et d’autres non.

 

En effet, cette pratique n’a rien d’obligatoire et n’est pas plus pénalisante en matière de référencement. Du moins, ceci est vrai si la gestion de ces deux versions est effectuée en pleine conscience.

 

Pourquoi certaines URL contiennent le www ?

 

Nom de domaine avec ou sans www

 

Dès l’apparition du Web, le www – qui signifie World Wide Web – a été utilisé par les sites internet pour signifier qu’ils faisaient partie du Web. Pour rappel, le Web fait référence à l’ensemble des éléments qui vont être accessible via un navigateur web. C’est ce qui différencie le Web d’Internet.

 

Il est donc possible de voir des sites internet sous la forme https://www.nomdedomaine.fr ou bien https://nomdedomaine.fr. Ces deux URL ne présentent absolument aucune différence. D’un point de vue technique, la version avec www est en réalité un sous-domaine alors que la version www correspond au domaine racine.

 

La présence du www dans l’URL d’un site internet n’a rien d’obligatoire. Il s’agit en revanche d’un choix en termes de communication. En effet, certaines institutions préféreront utiliser la version avec www, car elle présente un meilleur aspect visuel.

 

Cela s’explique par le fait que ces institutions sont généralement amenées à communiquer l’adresse de leur site internet sur leurs supports de communication. De ce point de vue, le www apparaît comme plus parlant vis-à-vis des lecteurs.

 

Quel format d’URL choisir ?

 

Si la présence du www n’est pas considérée comme obligatoire, vers quelle forme se tourner pour la création d’un site internet ? Peu importe. En termes de référencement, Google interprète les deux types d’URL de la même manière.

 

Ce choix réside donc derrière une question de goût. Le format avec www peut être considéré comme plus esthétique et compréhensible sur un support de communication visuel. C’est donc votre service communication qui aura le dernier mot tout en ayant conscience qu’il n’y aura aucun impact, que ce soit en termes de configuration, comme d’interprétation.

 

Quelle recommandation en termes de référencement Google ?

 

référencement Google

 

Attention, si l’utilisation du www n’a rien d’obligatoire et que le format de votre URL importe peu vis-à-vis des moteurs, il est important de faire attention aux différentes versions accessibles de votre site web.

 

En effet, il existe différentes configurations dans lesquelles le format de votre URL va importer. Il est également recommandé de donner accès aux deux URL pour les utilisateurs souhaitant accéder à votre site web de manière directe et sans connaître le format de prédilection de votre URL.

 

Par ailleurs, une mauvaise gestion de ses versions peut engendrer du Duplicate Content (contenu dupliqué), ce qui est très moyennement apprécié par les moteurs de recherche, dont Google.

 

Les deux formats existent et renvoient chacun vers un site web différent

 

Cette configuration est absolument à éviter. En effet, cela signifie que vos deux adresses URL, avec et sans www, contiennent une copie de votre site web chacune. Il est important de veiller à ce que cette configuration ne soit pas déjà en place, sans que vous ayez conscience de son existence.

 

En effet, le fait d’avoir deux sites web similaires génère du contenu dupliqué, une pratique indirectement pénalisée par Google. Il n’existe pas de pénalité à proprement parler pour sanctionner le contenu dupliqué. Toutefois, cela peut influer sur l’indexation des pages de votre site web et entraîner une perte d’efficacité en termes de positionnement.

 

Les deux formats sont disponibles et l’accès à l’un des formats redirige vers l’autre

 

Dans ce cas, il existe deux possibilités. La première est que lorsqu’un format d’URL est saisi, une redirection vers le format de prédilection est effectuée. La seconde désigne la redirection d’un format vers l’adresse équivalente dans l’autre format.

 

En ce qui concerne la première possibilité, une unique redirection peut-être suffisante. Quant à la seconde, il peut être nécessaire de paramétrer le serveur afin de gérer les redirections. Il est à noter que les redirections d’un format d’URL à l’autre, sont possibles dans les deux sens : de la version www vers la version sans www comme de la version sans www vers la version www.

 

Comment déclarer sa préférence pour une version ?

 

Nom de domaine avec ou sans www

 

Afin de ne pas engendrer de désagrément en raison de versions mal configurées, il existent principalement trois solutions.

 

  • La première est la plus simple : l’outil Google Search Console permet d’indiquer sa préférence à Google. En effet, il vous permet de choisir entre la version avec ou sans www pour désigner la version de prédilection de votre site internet.

 

  • La deuxième solution consiste à effectuer une redirection permanente à partir de son fichier htaccess. Ce fichier est utilisé pour créer des redirections sur votre site web. Il s’agira donc d’indiquer à Google, via ce fichier, quelle version vous souhaitez rediriger vers celle que vous avez sélectionnée.

 

  • Enfin, la dernière solution consiste à passer par l’utilisation d’une extension si vous utilisez un CMS comme WordPress. Le principe est le même que pour une redirection permanente via un fichier htaccess. En revanche, l’interface reste plus facilement accessible.

 

Conclusion

 

Si le fait d’utiliser ou non le www dans son adresse URL n’a aucun impact sur votre référencement naturel, il faut néanmoins porter une attention particulière à la gestion des différentes versions de votre site internet.

 

Dans le cas d’une mauvaise utilisation, cela peut engendrer un problème de contenu dupliqué qui pourra devenir pénalisant pour le référencement de votre site web.

 

Ceci a pour mérite de rappeler une nouvelle fois, qu’il est indispensable d’attacher une importance à tous les détails pour optimiser son positionnement dans les pages de résultats des moteurs de recherche. Notre agence SEO à Toulouse est à même de répondre à ce type de problématique.

La rédaction web est un élément fondamental du web marketing. Non seulement ce type de rédaction s’adresse aux utilisateurs, mais il va en plus de cela s’adresser aux robots des moteurs de recherche. Il est donc important de produire un contenu optimal à tous points de vue.

 

Rédiger pour le Web ne s’improvise pas. La rédaction d’un article ou d’une page web a deux objectifs principaux :

 

    • tout d’abord celui de répondre aux attentes d’un internaute : ce contenu doit être suffisamment intéressant pour attirer l’œil de l’internaute et répondre à la question qu’il se pose. Ceci est un point essentiel concernant le contenu web.

 

    • mais il doit également répondre aux attentes des moteurs de recherche : que ce soit en termes de structuration ou bien dans le discours produit, le contenu web doit répondre aux attentes des robots des moteurs de recherche. En ce sens, il doit utiliser un champ sémantique bien précis et démontrer toute votre expertise dans votre secteur d’activité.

 

Rédaction web

 

Pour concevoir une rédaction parfaitement adaptée pour le Web, il va donc falloir suivre plusieurs étapes.

 

1/Trouver un bon sujet

 

La première étape pour une rédaction web réussie va être de trouver le bon sujet. Cela n’est pas anodin. Pour que votre rédaction web soit performante, il va tout d’abord falloir attirer l’utilisateur à travers le choix du sujet.

 

Ainsi, le choix du sujet peut se faire en fonction de plusieurs critères. Le sujet peut-être d’actualités en ce qui concerne le secteur d’activité que vous souhaitez traiter. Aussi, le sujet peut répondre à une question qu’un utilisateur se pose dans le cadre de son exercice. Votre article (ou page web) apparaîtra comme une solution à ses yeux.

 

Pour définir un bon sujet, il existe plusieurs possibilités :

 

    • Rechercher les questions que les internautes se posent à propos d’une thématique,
    • Répondre à une intention de recherche formulée par un internaute,
    • Étudier ce qui se fait chez la concurrence.

 

Ainsi, vous maximisez vos chances d’être lu (voire partagé) en traitant un sujet qui intéresse votre cible. Ceci est d’autant plus important que l’article publié pourra constituer une porte d’entrée vers votre site pour l’utilisateur. Ne le décevez pas.

 

Par ailleurs, pour gagner en productivité, nous vous conseillons d’établir une stratégie de long terme en déterminant les sujets à l’avance, lorsque cela est possible. Cela vous permet un meilleur contrôle sur votre planning de publication et vous permettra de ne pas chercher un sujet chaque fois que vous rédigerez.

 

2/Définir les expressions clés qui seront visées

 

Le choix du sujet de votre article ou de votre page n’est pas anodin. En effet, celui-ci doit être effectué en rapport avec votre stratégie de référencement naturel. C’est pourquoi, il est important que votre sujet soit lié aux mots-clés que vous visez. Dans le cadre d’une rédaction pour le Web, il va être nécessaire de cibler un mot-clé principal, voire un mot-clé secondaire que vous traiterez dans cette page.

 

Ceci est important puisque ce travail de ciblage va vous permettre de sélectionner une liste d’expressions clés issues du champ sémantique de votre mot-clé principal. Ce travail a pour but de permettre à Google d’assimiler correctement la thématique traitée sur votre page. Plus vous ajouterez de termes en lien avec votre mot-clé cible, plus Google sera à même de détecter que vous parlez bien de ce sujet.

 

Mots clés rédaction web

 

Il fut un temps ou la récurrence d’un mot-clé dans une page pouvait lui permettre de mieux se positionner. Aujourd’hui, ce n’est pas le cas. Il est important de diversifier son vocabulaire, utiliser des termes liés à votre thématique, voire utiliser des termes précis pour démontrer votre maîtrise du sujet. Ceci est important pour les moteurs, comme pour les internautes.

 

3/Établir un plan de rédaction

 

Une fois la thématique de votre article sélectionnée, et les mots-clés visés définis, il va falloir mettre en place un plan de rédaction. Pour cela, il faut savoir qu’un article doit répondre aux règles de rédaction classiques comme celle des 5W : what (quoi ?), why (pourquoi ?), when (quand ?), where (où?), who (qui ?) et how (comment ?).

 

Toutefois, dans le cadre d’une rédaction web, il va également falloir anticiper la manière dont les robots vont utiliser votre article. À ce niveau, il peut être intéressant de travailler ses titres en pensant aux featured snippets (encadrés présents dans les résultats de recherche pour certains types de requêtes). Ainsi, si votre objectif est d’acquérir de la visibilité en traitant un sujet connexe à votre activité, il se peut que l’intention de votre article ne soit pas commerciale mais bien informative.

 

Dans ce cas, il peut être intéressant de produire des titres compatibles avec une intention de recherche de type « how to » (« comment faire ») ou de définition, par exemple. En répondant à des questions précises, vous avez l’occasion de rédiger un contenu qui sera éligible à une mise en avant dans les featured snippets. Pour cela, il est important de formuler une question en y apportant une réponse concise. Cela peut-être anticipé et vous apporter un gain de visibilité sur certaines requêtes.

 

4/Rédiger de manière naturelle

 

L’étape rédactionnelle doit mettre en forme les préceptes que vous avez établi lors des différentes étapes. Une bonne rédaction web doit permettre d’inclure ces différents facteurs tout en proposant une lecture agréable. Pour cela, il peut être tentant de truffer ses phrases de mots-clés pour maximiser la performance SEO (Search Engine Optimization) de son texte. Toutefois, cela n’est pas recommandé.

 

En effet, ce type de pratique n’est pas forcément bien vue par Google puisqu’elle peut donner lieu à des phrases dénuées de sens. Il faut toujours retenir que la rédaction web, sur un site internet, s’adresse avant tout à l’utilisateur. Elle doit apporter une réponse à la question qui a poussé ce dernier à cliquer sur votre article, et ce, de façon totalement optimale.

 

Bien rédiger pour le Web

 

Il n’y a rien de pire comme indice pour Google qu’un internaute qui clique sur un lien avant de rapidement retourner en arrière. Cela dénote une mauvaise qualité de page et un contenu non-pertinent. Il est donc essentiel, une fois que l’utilisateur est sur votre page, de capter son attention par un contenu rédigé de façon naturelle et agréable à lire. Cela passe également par le soin apporté à votre site web en termes d’expérience utilisateur. Toutefois, cela n’exclut pas l’insertion de mots-clés dans votre page : tout est question d’équilibre et de pertinence.

 

5/Baliser son contenu

 

Une fois la rédaction terminée, la structure de votre texte va vous aider à définir un balisage pertinent. Le balisage HTML d’un article ou d’une page web a pour objectif de faciliter la lecture et la compréhension de la page par Google. En mettant en place ce balisage, vous indiquez quelle est la thématique globale de la page : c’est pourquoi, il est indispensable d’y ajouter des mots-clés.

 

En effet, la présence de mots-clés dans vos titres est un indice pour Google que nous pouvons interpréter comme un critère de classement. Structurer son contenu avec un h1 (« heading 1 » ou « en-tête 1 ») en titre principal, ainsi que des sous-titres (h2, h3, h4, etc.) va donc permettre à Google d’assimiler votre page à une thématique. Cela l’aide donc les moteurs comme Google à classer votre page web dans son index et à identifier à quel type de requête elle correspond. La rédaction web est aussi importante sur la forme que sur le fond.

 

Par ailleurs, certains conseils préconisent la création de paragraphes courts, un nombre de mots minimal, un nombre de paragraphes par partie : dans les faits, il n’en est rien. Cela ne constitue pas un critère pour Google, il s’agit simplement de conseils qui vous aideront à garder les utilisateurs sur votre site avec un contenu aéré et qui donne envie de le lire grâce au soin porté sur sa forme.

 

6/Diversifier les médias d’illustration

 

Pour soigner la forme, il est également important de varier les contenus présents sur la page. Cela représente une pause dans la lecture et permet d’aérer le texte présent visuellement. De plus, il ne faut pas sous-estimer le potentiel d’une image lorsqu’il s’agit de faire passer un message.

 

Rédaction web

 

Dans une page web ou un article, l’ajout d’un média a deux objectifs principaux :

 

        • tout d’abord, quel que soit le média choisi (image, son, vidéo, etc.), ce dernier permet d’illustrer un propos.
        • il est également possible d’utiliser des médias non-porteurs de sens, uniquement pour illustrer son article. Cela n’apporte pas de plus-value au contenu, mais ce type de média permet de soigner le format de sa page web.

 

Également, il est important de ne pas négliger l’ajout d’attribut de description de ses médias. Les informations indiquées sont interprétées par les moteurs de recherche, mais servent également à favoriser l’accessibilité sur le Web pour des personnes souffrant de malvoyance ou de problèmes auditifs par exemple.

 

Il est important de ne pas laisser l’accessibilité de côté, ce critère est indispensable à tous points de vue.

 

7/Partager le contenu

 

La dernière étape consiste à partager son article sur les réseaux sociaux. Pour ce faire, des réseaux comme Twitter ou Facebook proposent un modèle de données structurées qui permet de personnaliser ses publications. En effet, vous pouvez indiquer le titre et la description que vous souhaitez voir apparaître sur les cartes de publication.

 

Ceci permet de maîtriser au mieux la diffusion du contenu sur les réseaux sociaux. Vous pouvez également faciliter le partage du contenu en définissant un format de publication, notamment avec une phrase d’accompagnement pré-définie et spécifique en vue de la publication.

 

Enfin, certains outils permettent de mettre en avant des boutons qui permettront à votre lectorat de partager un extrait de votre page directement sur leurs réseaux. La diffusion de votre contenu est importante pour engranger le maximum de visibilité, mais également pour diversifier vos canaux d’acquisition et ne pas être dépendant d’un seul canal uniquement.

 

Conclusion

 

En bref, la rédaction web est une activité qui présente la particularité de s’adresser à la fois à des utilisateurs humains, mais également des robots. C’est ce qui rend cette activité spécifique. En effet, apporter une réponse à un utilisateur tout en produisant un contenu optimisé pour les moteurs de recherche demande de considérer de nombreux paramètres.

 

Qu’il s’agisse du fond, comme de la forme, bien rédiger pour le Web demande d’accorder une importance toute particulière aux détails. C’est ce qui fait qu’un texte pourra répondre à la fois aux besoins des utilisateurs, qu’aux critères des algorithmes des moteurs de recherche.

 

Toutefois, il est important de souligner que votre cible principale est un utilisateur humain. S’il est nécessaire de proposer un texte optimisé pour les robots, cela ne doit en rien primer sur la qualité du contenu à proposer pour les lecteurs humains.

Comme relayé par Abondance, Gary Illyes (Google) a fait savoir sur Twitter que la gestion des fichiers Sitemap XML, essentiels pour l’indexation des pages d’un site web, pourrait être intégrée directement en natif sur WordPress.

 

Un fichier sitemap est un fichier de type XML qui liste l’ensemble des URL des contenus destinés à être indexés par Google. Cette liste a pour objectif de mâcher le travail de Google en lui indiquant les pages web à faire figurer dans son index principalement. Cela permet également de mieux gérer le budget de crawl d’un site internet vis-à-vis de Google et ainsi limiter les délais d’indexation.

 

À ce jour, il existe deux solutions pour déclarer un fichier sitemap XML à Google sur un site internet. Ce fichier peut-être configuré de façon manuelle en listant l’ensemble des URL à indexer pour le moteur de recherche. Sinon, WordPress propose une multitude d’extensions SEO, comme la fameuse Yoast SEO, qui se chargent de générer automatiquement un fichier sitemap de votre site.

 

Sitemap WordPress

 

Aucune date avancée

 

La prise en charge des sitemaps comme fonctionnalité de base sur WordPress pourrait rendre l’utilisation d’extension inutile. En effet, selon Gary Illyes, la gestion des sitemaps pourrait être effectuée directement sur WordPress à l’avenir. Ce dernier a réagi à un tweet de Pascal Birchler annonçant le lancement de la dernière version (3.0) du plugin Core Sitemaps.

 

Toutefois, rien ne dit quand cette fonctionnalité deviendra active sur WordPress. Selon Abondance, celle-ci pourrait intervenir assez rapidement, il pourrait s’agir d’une « question de semaines ou de mois« .

Avoir un site internet au goût du jour est indispensable pour faire passer votre message commercial. Si le contenu présenté sur votre site web doit être travaillé, il est indispensable de mettre en place un webdesign adapté et efficace.

 

En effet, le webdesign d’un site internet répond à plusieurs objectifs au sein de la création de votre site web :

 

    • Inspirer confiance : tout d’abord, il est impératif de soigner son design, tout simplement, car un site web présentant une structure et une apparence vétustes pourra effrayer les visiteurs. Ces derniers pourraient fuire votre site web, en pensant que ce dernier n’est pas un site de confiance.

 

    • Proposer une expérience intuitive : le design du site internet va être un indicateur important pour guider un utilisateur durant sa navigation sur votre site web. Pour cela, il est important d’organiser les informations de façon fluide sans encombrer les espaces. De plus, le webdesign d’un site internet doit être pensé en fonction des habitudes des utilisateurs en termes de fonctionnalités, que ce soit sur mobile, comme sur ordinateur.

 

    • Favoriser la transmission de votre message communicationnel : le webdesign permet d’organiser et de hiérarchiser l’information présentée sur votre site web. De ce point de vue, il doit être cohérent et permettre de distinguer votre message communicationnel de la manière plus rapide possible. Le design du site n’est pas plus important que son contenu. Toutefois, un bon contenu présent sur un site web au design mal soigné pourra être mal assimilé.

 

En ce sens, la conception du design d’un site internet est réalisée en fonction de l’information à présenter, de la charte graphique imposée et des habitudes et comportements des utilisateurs.

 

Responsive design

 

Pour un webdesign efficace : développer une plateforme optimisée pour mobile

Un webdesign efficace est un webdesign que l’utilisateur va intégrer de manière spontanée. Il doit donc être accessible, facilement lisible et adaptable. C’est pourquoi, le design du site internet doit être crée en fonction des habitudes des utilisateurs, sur le support utilisé. Il est donc indispensable de mettre en place une plateforme adaptée sur mobile, tablette et sur les différents écrans d’ordinateur.

Il faut savoir que Google est également très attentif à cela puisque les sites web sont désormais parcourus en priorité via un user-agent Mobile-First. Par ailleurs, proposer une plateforme, dite, responsive design permet d’améliorer de façon assez nette l’expérience utilisateur proposée par le site. En effet, une taille de caractère adaptée, des blocs correctement dimensionnés et une navigation facilement accessible permettent grandement de fluidifier l’expérience passée sur votre site web.

 

Création site internet Toulouse

 

Nos conseils pour la définition d’un webdesign efficace

 

Mettre en place une plateforme web adaptée pour les différentes tailles d’écran est indispensable pour un webdesign réussi. Voici quelques conseils pour proposer une interface qui ne fera pas fuire vos visiteurs. Mieux encore, elle pourrait vous permettre de les convertir.

 

Faciliter l’accès à vos pages (menu de navigation)

 

Tout d’abord, un webdesign efficace doit permettre une navigation simple et intuitive sur votre site internet. À ce niveau, il est important d’avoir une arborescence bien construite afin de faciliter la mise en place de liens sur et entre vos différentes pages.

 

Par ailleurs, pour s’assurer que la navigation sur votre site soit la plus intuitive possible, le menu principal va jouer un rôle important. En effet, quel que soit le support utilisé, ce menu devra être accessible et lisible.

 

Sur mobile, il est conseillé de mettre en place un menu dit « hamburger » pour un rendu plus fluide et cohérent avec les attentes des utilisateurs.

 

Définir une structure claire

 

Par ailleurs, pour s’assurer que votre webdesign soit un véhicule efficace pour votre message communicationnel, le mot d’ordre est : la clarté. Il est important de penser ses pages web dans leur globalité afin de définir une structure logique, claire et cohérente.

 

Ce travail passe par la hiérarchisation des informations à mettre en avant. Chaque partie clairement définie du site web (et même de vos pages web) devra répondre à un objectif précis et une problématique identifiable.

 

La construction d’un site web en sections ou blocs permet de mettre en place une structure logique en fonction du contenu présenté.

 

Créer un site épuré

 

Afin de ne pas brouiller le message, créer un site web épuré permet de ne pas surcharger les pages et ainsi faciliter leur lecture. Pour cela, l’ajout de pictogrammes, de listes ou bien d’images permet de décharger vos contenus textuels. Ceci a pour intérêt de mieux capter l’attention du visiteur ainsi que de lui donner accès à un contenu concis et facilement assimilable.

 

En termes d’esthétique, la création d’un site web épuré permet de limiter les conflits d’adaptabilité entre les différentes versions du site web (entre la version smartphone et la version tablette, par exemple).

 

Cela a également le mérite de proposer une interface facile et agréable à parcourir pour l’utilisateur.

 

Ne pas oublier les boutons d’appel à action

 

À la mise en place du webdesign, il ne faut pour autant pas oublier l’essentiel : votre site web est fait pour vous apporter des contacts. C’est pourquoi, l’ajout de boutons d’appel à action va être fortement recommandé, si ce n’est obligatoire (lien vers une page importante, lien vers un formulaire, numéro de téléphone cliquable, actions en tout genre).

 

En effet, vos pages web répondent à un objectif et sont là pour apporter une réponse à l’utilisateur. Elles doivent donc lui permettent de naviguer et de réaliser les actions nécessaires pour lui de façon rapide et évidente. Les call-to-action vont donc devoir être soignés : boutons facilement accessibles, animés, colorés.

 

Le webdesign d’un site internet doit être pensé pour être pratique et fonctionnel. Il a pour but d’habiller votre message et d’accompagner sa transmission. En somme, il joue un rôle essentiel. Il constitue le premier contact entre vous et votre visiteur, il ne doit donc pas le décevoir.

Ce mardi, Google a publié son rapport 2019 sur la lutte contre le spam au sein de la recherche Google : pas moins de 25 milliards pages contenant du spam sont découvertes de façon quotidienne.

 

Google a mis en place une stratégie de lutte contre le spam à très grande échelle. Le rapport nous informe que malgré les 25 milliards de spams découverts chaque jour, et grâce aux efforts de Google « plus de 99 % des visites de sites effectuées à partir de nos résultats renvoient les internautes vers un contenu approprié ».

 

Google dénombre d’ailleurs le nombre de pages composant son index à plusieurs « centaines de milliards », un travail d’envergure donc pour le moteur de recherche le plus utilisé dans le monde.

 

Référencement naturel

 

Le spam n’a pas progressé en 2019

 

Selon Google, l’année 2018 avait montré une baisse de 80% du spam généré par les utilisateurs. La pratique n’aurait pas progressé en 2019. Si l’entreprise de la Mountain View affirme que 90% des liens spam ont pu être détectés, d’autres pratiques de création de liens artificiels présentent un impact inférieur à avant : « Plus de 90 % des liens spam ont été détectés par nos systèmes, tandis que des pratiques telles que les liens payants ou les échanges de liens ont perdu en efficacité. »

 

Toutefois, si le piratage de contenu n’a pas progressé, il n’a pas non plus reculé. Google indique que « son évolution est restée stable comparée aux années précédentes ». La lutte anti-spam est l’un des sujets principaux chez Google : « Nous avons poursuivi nos efforts de développement de solutions permettant de détecter ce type de spam et d’informer les webmasters ainsi que les plates-formes concernés le plus efficacement possible, afin de les aider à rétablir l’état d’origine de leurs sites. »

 

Référencement Naturel Google

 

Quelles sont les techniques de spam qui subsistent ?

 

Tout d’abord, Google affirme que ses « solutions de machine learning, alliées à des actions manuelles ayant fait leurs preuves, ont joué un rôle clé pour identifier les résultats associés à du spam et pour en empêcher la diffusion auprès des internautes. »

 

Ainsi, Google déclare avoir réussi à réduire de 60% l’impact sur les utilisateurs dans la recherche Google de sites « dont le contenu est généré automatiquement ou détourné ». Selon Google, ces sites sont reconnaissables, car ils utilisent « des boutons fictifs, des annonces intempestives, des redirections douteuses, des logiciels malveillants » et n’apportent aucun intérêt.

 

De plus, le moteur de recherche assure « améliorer ses techniques de détection du spam » pour « réduire des nuisances plus générales, telles que les escroqueries et les fraudes. » Ces spams cherchent à faire croire qu’ils représentent une « entité officielle » et qu’ils « font autorité ».

 

Référencement Google

 

82% des demandes des utilisateurs traitées avec succès

 

En plus des systèmes automatisés de lutte anti-spam mis en place par Google, la découverte de spams peut également être réalisée à partir des rapports de spam délivrés par les utilisateurs. Durant l’année 2018, 230 000 rapports de spams ont été émis par des utilisateurs de la recherche Google. À ce niveau, Google affirme être parvenu à « résoudre 82% des rapports traités ».

 

Par ailleurs, « plus de 90 millions de messages à l’attention des propriétaires de sites Web » ont été envoyés « pour leur signaler des problèmes potentiels susceptibles d’altérer l’apparence de leur site dans les résultats de recherche, et pour leur suggérer des améliorations possibles ». Parmi ces 90 millions de messages, « environ 4,3 millions portaient sur des actions manuelles ».

 

À ce niveau, le moteur de recherche affirme avoir mis en place de nombreuses initiatives visant à « améliorer la communication ». Parmi ces initiatives, « les messages de la nouvelle Search Console, le kit pour les sites WordPress ou la validation DNS automatique disponible dans la nouvelle Search Console » sont citées.

 

Enfin, Google rappelle que l’attribut no follow des liens a été reconsidéré avec l’ajout des attributs link rel= »sponsored » et rel= »ugc » et affirme que « ces nouveaux attributs « rel » ont été bien accueillis et qu’ils ont été adoptés par de nombreux webmasters à travers le monde. »

 

Si la lutte anti-spam est bien engagée du côté de Google, elle reste l’un des points d’envergure de son activité pour détecter les sites web ne respectant pas ses critères de qualité.

Lors de la création d’un site internet, la page « à propos » fait partie des inconditionnels à mettre en avant dans son menu de navigation. Toutefois, ce type de page est parfois considéré comme une page banale et sa rédaction peut apparaître comme une corvée pour certains.

 

Toutefois, la page « à propos » d’un site web présente un contenu essentiel qui doit vous permettre de donner envie aux utilisateurs de travailler avec vous. Il ne faut donc pas la négliger.

 

Nous allons voir aujourd’hui comment il est possible de tirer profit d’une page « à propos » bien construite. Que ce soit en termes de communication ou bien de référencement naturel, une page « à propos » présente de nombreux intérêts.

 

Construction page web

 

Page À propos : quelle est son utilité ?

 

Par défaut, une page « à propos » a pour objectif de présenter votre entreprise. Elle peut également s’intituler « qui sommes-nous ? », « notre entreprise », ou encore « l’agence », par exemple. Elle s’inscrit parmi les contenus principaux d’un site web avec la page d’accueil, la page de présentation de vos services, vos réalisations ou encore votre page de contact dans le cadre d’une arborescence classique de site web.

 

Cette page va donc être en mesure d’apporter des éléments de présentation vous concernant qui doivent donner l’envie de travailler avec vous. Une page « à propos » bien construite doit donner le sentiment que vous êtes le professionnel que l’internaute recherche.

 

Elle doit retranscrire votre vision d’entreprise ainsi que vos valeurs pour convaincre votre lectorat que vous êtes bien un expert dans votre secteur d’activité. En somme, elle est une forme de carte d’identité d’entreprise qui a pour but de donner envie de travailler avec vous. Ce type de page peut également servir dans le cadre d’une campagne de recrutement.

 

Créer une page « à propos » bien travaillée peut donc être bénéfique à différents points de vue.

 

Page À propos : quelles informations doivent y figurer ?

 

Pour bien comprendre comment créer une page « à propos » performante, il faut tout d’abord déterminer les cibles de cette communication. Généralement, les cibles de votre page « à propos » sont la cible globale définie au sein de votre stratégie, de potentiels futurs collaborateurs ainsi que les moteurs de recherche.

 

Il va donc falloir mettre en avant des informations qui s’adressent à ces différents publics. Il est donc intéressant de définir quel type d’information va être utile pour quel type de public.

 

Pour vos prospects

 

Lorsqu’un utilisateur faisant partie de votre cible stratégique visite votre site web, certaines informations vont être particulièrement intéressantes pour lui. Tout d’abord, définir votre entreprise de part sa taille, son histoire, son activité principale (et sa légitimité dans cette activité) ou encore son mode de fonctionnement va permettre à l’utilisateur de se faire une idée sur l’interlocuteur qu’il a en face et donc de se projeter en vue d’un éventuel projet commun.

 

Par ailleurs, des informations telles que le nombre de projets menés, vos références en termes de partenariats ou encore des avis de clients pourront également encourager l’utilisateur à faire le premier pas vers vous.

 

Cette page doit permettre à votre cible de cerner quel type d’entreprise est en face de lui et si son travail est reconnu ou non. Ceci est particulièrement important dans son processus de décision.

 

Pour vos potentiels collaborateurs

 

La page « à propos » peut également s’adresser à de potentiels futurs collaborateurs dans le cadre d’une campagne de recrutement. Même si ce n’est pas l’unique solution à mettre en place sur votre site internet pour du recrutement, la page « à propos » doit faire partie de vos contenus principaux.

 

Dans ce cadre, l’utilisateur, s’il ne connaît pas votre entreprise, va devoir être en mesure de cerner les valeurs de votre entreprise, son mode de fonctionnement (sans rentrer dans les détails internes à votre société) ainsi que son rayonnement. Cela va lui permettre de déterminer si votre entreprise est en parfaite adéquation avec sa recherche.

 

Ce travail est important afin d’attirer des profils qui correspondent le plus précisément à ce que vous recherchez et ainsi éviter les candidatures non adaptées pour le candidat et pour vous. À ce niveau, votre page devra être claire et sans ambiguïté.

 

Pour les moteurs de recherche

 

Enfin, la page « à propos » peut également être un atout en termes de référencement naturel (SEO). Toutefois, il va falloir savoir l’utiliser. Pour optimiser sa page « à propos » pour les moteurs de recherche, la première étape consiste à définir un mot-clé principal qui permet de traduire votre activité. Par exemple, vous pourriez choisir le mot-clé « entreprise de maçonnerie » si vous travaillez dans ce secteur d’activité.

 

Toutefois, le choix des mots-clés doit se faire de manière particulièrement réfléchie. Nous vous invitons à consulter notre article sur la définition des mots-clés d’une stratégie SEO.

 

C’est une fois le mot-clé ciblé défini que le travail d’optimisation va pouvoir être opéré. Il est indispensable de structurer sa page, créer un maillage interne vers ses différents contenus, mais également baliser de manière correcte sa page sans oublier les balises title et meta-description, mais pas que.

 

Construction page SEO

 

Et en termes de SEO ?

 

Vous l’aurez compris : une page « à propos » est particulièrement importante en termes de SEO. Non seulement son optimisation on-site est indispensable, mais il va également falloir mettre en place un contenu parfaitement adapté pour les moteurs de recherche.

 

En effet, il faut savoir que Google est particulièrement attentif aux critères E-A-T d’un site web. Ces critères ont pour objectif de montrer que vous possédez une expertise dans votre domaine d’activité, que vous faites autorité dans votre secteur et que vous êtes légitime (populaire).

 

Dans ce cadre, il est important de mettre en avant des éléments factuels qui permettent d’asseoir votre expertise aux yeux de Google tels que votre formation, votre parcours professionnel ainsi qu’une présentation de vous. Google doit être en mesure d’identifier l’auteur du contenu d’un site web pour évaluer la qualité et la pertinence du contenu présenté.

 

Ainsi, une page « à propos » optimisée pour le SEO sera à même de répondre aux attentes d’un utilisateur à la recherche d’une entreprise comme la vôtre. Le gain en termes de visibilité pour votre entreprise s’en fera ressentir.