Aller au contenu
Chef de projet SEO (référencement naturel)

Penser différemment le référencement naturel à Angers afin de cultiver ses positionnements

Le référencement naturel ou SEO pour Search Engine Optimization se caractérise par un ensemble de techniques d’optimisation afin de favoriser le positionnement de votre site Internet dans les moteurs de recherche. Des Google, Bing, Yahoo ! et autre Qwant sont régis par des algorithmes. Lorsqu'un internaute tape une expression-clé dans un champ de recherche (composée de 3.5 mots en moyenne), les moteurs hiérarchisent leurs résultats afin de répondre le plus précisément à l’intention de l’utilisateur. Si Google propose, c’est qu’il a exploré, puis indexé, puis classé. La question demeure : "Quels sont les facteurs qui déterminent ce référencement naturel ?". Y répondre, c’est comprendre comment un moteur de recherche fonctionne... Le référencement naturel est une politique d'acquisition client qui doit être intégrée dès la création de votre site Internet par votre prestataire ou agence web marketing. / Article actualisé le 17/06/2020 !

Référencement naturel Angers par Reynald Dal Barco

La loupe souligne la nécessité en référencement naturel d'analyser avec minutie l'ensemble de vos facteurs on-page, on-site et off-site.

Je vais intervenir sur les facteurs SEO suivants

Audit SEO complet

Auditons d'abord l'ensemble de votre site Internet. Audit technique, audit sémantique, audit structurel, audit concurrentiel, audit écosystème et audit netlinking, j'utiliserai pour l'audit SEO de votre site Internet les meilleurs tools SEO du marché pour mettre en évidence les facteurs bloquants, manquements ou pratiques obsolètes voire de sur-optimisations qui constituent les faiblesses de votre plate-forme web. Je vais par ailleurs vous interroger sur vos buyers personas, vos objectifs commerciaux, ambitions moteur et retours sur investissement. A ce stade, vous ne verrez sans doute plus le référencement naturel comme le commun des éditeurs de site Internet. Ce regard neuf sur vos pratiques digitales sera par ailleurs une excellente façon de vous mettre à jour.

Arborescence

Etat des lieux fait, compréhensions de votre modèle économique et des enjeux concurrentiels réalisées, nous savons maintenant quel chemin prendre. Nous allons définir notre plan rédactionnel suivant la définition des expressions-clés à travailler. Nous utiliserons, ici encore, des outils en ligne ou planificateurs de mots-clés afin de définir des tendances de search et volumétries de requêtes pour être sûrs de taper dans votre cœur de cible. Suivra la réalisation, sur mindmap, de votre nouvelle arborescence, votre maillage interne autrement dit, afin de définir la place de chaque mot-clé et le parcours utilisateur. Aussi rébarbative que puisse vous paraître le décorticage de "l'intention de l'utilisateur", cette étape est fondamentale pour que puissiez percer un marché.

Rédaction web

Maintenant que notre plan d'actions SEO est élaboré, que nous avons déterminé l'ensemble des mot-clés à traiter, je m’attellerais - ou nous nous attellerons - à vos continus écrits. Les contenus en ligne seront optimisés, là-encore avec l'aide d'outils sémantiques qui nous permettront de déterminer si les champ lexicaux ont été correctement travaillés. Pour la rédaction wed des nouveaux contenus et suivant la complexité ou la technicité de votre secteur d'activité et aisance rédactionnelle, nous détermineront qui les produira. Nous cultiverons les balises sémantiques de votre code, sans oublier l'une des difficultés du référencement naturel résumée par l'antagonisme SEO vs UX. Parlons donc dorénavant de SXO ! Prenez conscience que si le moteur classe, c'est l'internaute qui achète.

Optimisations des médias

Le référencement naturel est transversal ! Nous n'allons pas nous contenter d'optimiser notre rédaction web mais aussi l'ensemble des contenus annexes, qu'il s'agisse de vos photos, vidéo et autres documents. Comprenez encore le concept de recherche universelle qui s'applique à un Google images, YouTube voire un Facebook ! Au-delà des incompréhensions liées aux appellations des fichiers, environnements du média et autres gestions de potentiels contenus dupliqués tiers, nous prendrons en considération tout de suite l'externalisation de certains supports afin d'augmenter plus encore le maillage externe de votre site Internet et sa visibilité sur d'autres plates-formes telles que les réseaux sociaux.

VSEO & Local SEO

Dans un contexte de recherche universelle où la vidéo se démocratise au sein des stratégies de content marketing, l'ensemble des optimisations attenantes au référencement naturel touche naturellement le référencement vidéo (autrement dénommé VSEO) et le référencement local. Aux USA, les adolescents consultent beaucoup plus YouTube que Google, comme le cyber-acheteur qui ne manquera pas de consulter son smartphone pour scruter la concurrence alors qu'il se trouve dans votre boutique physique (stratégies "Drive to Store"). Il faut ainsi comprendre que votre référencement naturel est alimenté non seulement par vos actions on-site mais aussi off-site.

Netlinkink

Pour être aimé durablement par les moteurs ou atteindre les mots-clés très concurrentiels, les optimisations on-page et on-site ne suffiront pas. Il faut décliner une politique d'acquisition de liens, chercher des backlinks. Ce n'est certes pas une partie de plaisir tant les éditeurs deviennent retors. Annuaires qualitatifs, guest-blogging, brand content, réseaux sociaux (il se passe quelque chose au-delà du "Follow" vs "NoFollow"), ils restent quelques "vieilles" techniques payantes. Il faut être patient pour éviter les pénalités algorithmiques. Les notions d'autorité, de notoriété et de confiance sont, aujourd'hui, des éléments qui détermineront la légitimité de votre site Internet.

Mobile First Indexing

Qu'il s'agisse de refonte de plate-forme web ou d'optimisations des facteurs SEO existants, la web-performance dépasse, à l'heure du "mobile-first indexing", largement les considérations de mobilité (autrement dit le "responsive design") et de rapidité d'affichages de vos contenus. Parler de performances, c'est évoquer, avant tout, la facilité avec laquelle les robots d'exploration et d'indexation des moteurs de recherche pourront "visiter", "crawler" et ainsi "comprendre" les pages essentielles de votre site Internet. Je parle bien évidemment ici des notions d'optimisation de "budget de crawl".

Monitoring

Aussi utiles soient les études concurrentielles avant la configuration ou refonte de votre arborescence, il est nécessaire de constamment suivre l'évolution du nouveau positionnement de vos urls dans les résultats d'un Google. Là-encore, par expérience, les mauvaises pratiques sont courantes. Les moteurs de recherche géolocalisent de plus en plus les requêtes de l'internaute. Pour avoir un idée précise du ranking de vos mots-clés après optimisation SEO, l'utilisation d'outils de monitoring est obligatoire. Taper son mot-clé soi-disant travaillé dans un Firefox pour connaître son positionnement est trompeur... pour le moins... stupide.

Google Analytics

Optimiser son site Internet, plus encore ses contenus et pratiques digitales, n'a de sens qui si l'on suit l'évolution de ses acquisitions clients. L'un des services de suivi d'audience les plus démocratisés demeure Google Analytics (80% du marché mondial). Aussi complexe soit-il dans sa compréhension et configuration, Google Analytics est un formidable outil afin de déterminer si les options de développement choisies rencontrent leur succès escompté. Devant les impératifs clients, il m'est régulièrement arrivé encore de confronter leur logique avec les métriques G.G. Analytics... et de lutter aussi contre les erreurs d'interprétations.

Comprendre le fonctionnement de Google pour un référencement naturel "Google Friendly"

Vous aimez lire ? Ça tombe bien. Consultez cet article de vulgarisation comme une allégorie du jeu du chat et de la souris ! Temps de lecture : environ 10 minutes...

Google est une machine. Et pour parler à une machine, il faut maîtriser son langage. Le référencement naturel est néanmoins régi par des principes, des lois, des commandements, des nécessités souvent liées à des principes humains. Et toutes bonnes pratiques du webmastering doivent les appréhender. Pour qu’un site Internet, ou plutôt ses urls (ses pages ou articles donc), se positionnent favorablement dans un moteur de recherche, il faut que celui-ci cultive pertinence, popularité et confiance (quoique, la confiance s'applique beaucoup plus aujourd'hui au contenu). Il est aisé de comprendre la pertinence. Rapporté à ce que cherche l’internaute, le moteur proposera des résultats qui tentent de répondre le plus précisément à sa requête (à l'intention de l'internaute). Mais tous les sites Internet n’ont pas la même autorité ! Entre donc en piste la popularité ! Plus loin, ce n’est pas parce que vous êtes populaire, que vous cultivez la confiance de ceux qui vous écoutent ou lisent. Pertinence, popularité et confiance représentent ainsi le premier triptyque au classement des SERPs (acronyme de "Search Engine Results Page" / Pages de résultats). "Quels sont les champs concernés par ce trio ?" A première vue, rien de plus simple. D'abord le code informatique de votre site Internet (puisque c'est là que tout se passe), puis le traitement des contenus textes, photos et vidéos que vous proposés à votre trafic, et, enfin, le traitement du lien. "C’est quoi le lien ?" Un site Internet est constitué de différents pages articulées les unes aux autres ; un site Internet est encore lié au reste du web.

Avoir un code informatique propre pour Caffeine

Pour qu’un moteur comprenne ce que vous dite (je parlerai d’ailleurs essentiellement de celui de Mountain View puisqu'il totalise près de 95% du marché de la recherche en France), il faut faciliter son passage. Sa première visite sera dédiée à l’exploration. Une fois vos pages explorées, connues, il les enregistrera (phase d’indexation dans son environnement nommé Caffeine : "C'est quoi Caffeine ?"). Maintenant qu’il les connaît, il peut déterminer leur qualité par rapport au reste du web. A ce propos, en 2014, Google déclarait stocker plus de 130 000 milliards d'urls dans son index général (vulgairement, sa base de données). Nous sommes en 2020 !!! Exploration, indexation, classification, ces 3 actions ne peuvent se réaliser que si GoogleBot (le robot de Google) peut lire, comprendre, votre code informatique. Si celui-ci utilise des langages informatiques obsolètes ou difficilement compréhensibles, si ses architecture et grammaire sont mauvaises, si certaines balises informatiques qui le caractérisent sont absentes ou mal configurées (balises titles et méta-descriptions pour les plus vulgarisées), si votre code informatique est trop lourd en fonctionnalités,... il est aisé de comprendre que son passage, sa lecture, sa compréhension, lui demanderont beaucoup de ressources (d’efforts si vous l’humanisez). Si le temps de chargement de votre site web est difficile, votre référencement naturel est déjà mal embarqué pour le prochain filtre algorithmique Google Speed Update. Même si, de nos jours, le facteur "rapidité" n'est pas, véritablement, un "ranking factor". Mais il faut ménager la "perception de GoogleBot".

%
des résultats de recherche cliqués sont organiques.

Source : SEMRush / 2020

%
des utilisateurs d'un moteur ne cliquent pas sur la 2nde page.

Source : SEMRush / 2020

%
des commandes B2B débutent par le web.

Source : SEMRush / 2020

%
des connexions au web débutent avec un moteur de recherche.

Source : SEMRush / 2020

La rédaction web SEO : un vrai "main ranking factor"

Un code informatique n’est pas constitué seulement d’un squelette (langage HTML) sur lequel on appose des fonctionnalités (JavaScript, etc…), formes et couleurs (CSS pour Cascading Style Sheets), animation (JQuery, etc…) et des appels à une base de données (langage PHP schématiquement encore), mais aussi, et surtout, de contenus (texte, photo, vidéo, fichiers PDF, etc.). Ce que recherche l’internaute en définitive ! Il est communément admis que l’optimisation des contenus est l’un des "main ranking factors" au référencement naturel actuel. Ici, la rédaction web entre en jeu ! Une bonne rédaction web (donc SEO) dépend elle-même de différents facteurs. En premier lieu la compréhension par un Google du sujet dont vous parlez, donc, de la définition et surtout du traitement de votre mot-clé. Pendant longtemps, il suffisait de répéter un mot-clé (occurrences) dans un texte pour que Google vous comprenne. Les questions de densités brutes et pondérées suffisaient (TD-IDF). Aujourd'hui, le mot-clé tend à s’effacer, disparaître au profit de son environnement sémantique et de la faculté de votre site Internet à capter l'attention de l'utilisateur.

Du "E.A.T." dans la rédaction web

Puisque j'évoque la rédaction web et dans le giron d'un update de Google intervenu à l'été 2018 et destiné aux sites Internet YMYL ("Your Money / Your Life"), le moteur de recherche américain a introduit de nouveaux facteurs de pertinence spécialement dédiés à l'intention de ses Quality Raters ("C'est quoi un Quality Raters ?"). Google considère dorénavant la pertinence des auteurs d'articles web ! Celle-ci doit cumuler "Expertise", "Authority" et "Trust" (expertise, autorité et confiance). Comment cela se manifeste-t-il ? Comment un article web peut-il être labellisé "E.A.T." ?

De l’importance de cultiver, entre autres, le lexical

Ainsi, répéter un mot-clé dans son texte, vendre le discours de telle ou telle densité nécessaire, est dépassé (exit les notions de TD-IDF - enfin presque). Expliquons seulement que, dorénavant, pour que le rédacteur web soit jugé pertinent SEO par le moteur de recherche, il faut (faisons simple) qu’il cultive le champ sémantique de son mot-clé. L'expression "champ lexical" est, ceci dit en passant, bien plus appropriée mais on le sait, le mot "sémantique" est à la mode chez les SEO et souvent utilisé à tort et à travers. Plus votre texte est dense, explicatif, précis, complet, plus vous répondez à la requête de l’internaute, plus GoogleBot aime ça. Mieux !!! Plus Google a la possibilité d’aller chercher dans votre code et texte, via les rich snipets ou extraits enrichis notamment, des éléments sémantiques (lexicaux) collant à l’infinité de combinaisons d’une expression-clé, plus vous avez des chances de l’intéresser ! Plus loin, encore, un GoogleBot vectorise le texte. Il ne lit pas comme l’humain. Il calcule des ratios code / texte, monèmes / lexèmes, valeur topologique de vos occurrences, dissèque les cooccurrences et coefficients de signifiance et autres ngrams (merci à Cyril Arnaud d’avoir résumé le propos). Je vous invite encore à consulter l'article suivant : Qu’est-ce que le RankBrain ?

Ecrire pour le moteur, c'est écrire pour l’internaute

Qui classe vos articles ou pages dans les moteurs de recherche ? Le crawler (ou spider) ! Mais qui achète ? L’internaute ! Un GoogleBot doit trouver, dans votre code informatique, certaines portes d’entrée à la compréhension du mot-clé traité. Mais il faut aussi être engageant ! Une étude de rétro-ingénierie par SEMrush publiée à l’été 2017 a lancé un nouveau pavé dans la marre. Les métriques attenantes à la fréquentation de votre site détermineraient plus qu'on ne le croyait votre ranking (positionnement moteur). Un spécialiste du SEO me rétorquerait qu'on le savait déjà via les notions de pogosticking et dwell time. Mais pas à ce niveau ! Bien au-delà des métriques liées à l'engagement de l'internaute, Google propose des contenus qu'il "imagine" convenir à l'intention de recherche de l'internaute. Pour exemple, tapez "pantalon pour homme" dans son champ de recherche et le moteur vous propose majoritairement des boutiques en ligne (et non un traité social sur le "pantalon pour homme"). Où veux-je en venir ? Bah ! Google oriente votre recherche, uniformise le search et par extension, uniformise les contenus proposés (puisque les SEO optimisent dans "le sens de Google"). Il uniformise les résultats en se focalisant sur le comportement de l'internaute. Et sur notre exemple donné, l'internaute cherche en l'occurrence et majoritairement à acheter un pantalon et non un traité sociologique sur le pantalon. Capito ?

%
des recherches Google sont effectuées pour la première fois

Source : Vox / 2020

%
des consommateurs online basent leur décision d'achat sur les résultats de recherche

Source : Sqwawk / 2020

%
des utilisateurs quitteront la page si elle met plus de 3 secondes à être chargée

Source : Google / 2020

%
des utilisateurs de la génération Z préfèrent utiliser Google Images

Source : ViSense / 2020

Métriques d'usage : les indices qui tuent

Accès direct, taux de rebond, pages visitées, temps de lecture, canaux d’acquisition, etc., le comportement de vos internautes influerait-il la confiance d’un Google dans vos contenus ? Pas directement... D'où la nécessité néanmoins d’analyser votre trafic avec des plates-formes telles que Google Analytics pour comprendre si vos stratégies d'acquisition et de conversion fonctionnenent. Si l'application est un formidable outil d'analyse d'audience, elle facilite aussi la remontée d’informations sur votre site Internet en direction de votre moteur préféré - comme l'utilisation de son outil Google Search Console - le seul moyen de converser directement avec GoogleBot d'ailleurs. Cependant, ne pas les intégrer peut être perçu comme un mauvais indice de confiance pour Google. Effet de causalité ? Pour lui, vous cherchez à cacher quelque chose (ce qui me permet de caser la lexie cloaking). Plus que la notion de manipulation, le référencement naturel est devenu complexe à l'heure de l'intelligence artificielle. Le consultant SEO est aussi consultant Google Analytics. L'optimisation se confond à l'analyse web. L'un ne va sans l'autre.

Le cocon andorran

Merci d’être encore ici… Quand on évoque la notion de lien, l’éditeur de site Internet pense trop généralement au backlink (un site A faisant un lien vers un site B). Il occulte très souvent l’importance du lien dans la constitution de son arborescence (la façon dont sont liées les pages de son site web). Les sites traitant de différents sujets rencontrent souvent des difficultés pour se positionner dans les moteurs de recherche car ils architecturent mal leur information. "De quoi parles-tu vraiment" se dit GG ? La notion de siloing est ainsi déterminante. Le consultant SEO Laurent Bourrelly est encore allé plus loin.

De la nécessité d’une arborescence bien huilée travaillant l'intention de l'utilisateur

En conceptualisant la notion de cocon sémantique, l’Andorran a révélé aux spécialistes du référencement l’importance du glissement sémantique dans la pertinence moteur. Plus je traite un sujet via une arborescence profonde basée sur la hiérarchisation de mes ancres de liens (le lien surligné qui permet de naviguer de page en page), plus je traite de mots-clés, plus je dissèque l'intention de l'utilisateur, plus je réponds donc aux potentielles questions posées par l’internaute, plus je monte dans les résultats de recherche (questions de densité de sujets traités et de manières de les lier). Par la même, je cultive ma pertinence pour un Google... Par extension, l’inRank, conceptualisé par le personnel girondin d’OnCrawl, a ainsi dévoilé la notion de Page Importance, liée, elle, au positionnement d’une page dans un site Internet rapportée à l’importance que l’on cherche à lui donner dans les moteurs de recherche.

%
des sites Internet en ligne ont des problèmes de contenus dupliqués

Source : SEMrush / 2020

%
de l'algorithme de recherche de Google est basé sur des facteurs SEO off-pages

Source : Google / 2020

%
des sites en ligne rencontrent des problèmes qui affectent négativement leur vitesse de chargement

Source : SEMrush / 2020

%
des recherches Google sont effectuées sur mobile

Source : Statista / 2020

Aller plus loin dans le netlinking

Désolé, mais… Un bon code et un bon texte ne suffiront pas, même si des Matt Cutts – ancien responsable de Google Webspam et interlocuteur privilégié pour les SEOistes d’ici et d’ailleurs –  et autres dorénavant John Mueller vous expliquent qu’il est possible de se positionner favorablement dans un moteur sans backlinks. Bin, voyons ! Moi aussi, à mes débuts, je pensais que le "on-page" suffirait. Oui, ça peut marcher pour un certain référencement local (quoique, à la longue). En cultivant son FreshRank aussi... mais seulement sur des requêtes très peu concurrentielles. Le backlink (lien retour) représente un vote d’un site tiers vers le vôtre. Là-encore, les notions de pertinence et de confiance valident ou non l’intérêt du moteur de recherche. Chercher et trouver des backlinks participent à la construction de votre netlinking. Principe simple ! Plus une page reçoit des liens, des backlinks, des votes donc, plus elle est populaire, plus elle monte dans un Google (cette logique s'applique à votre maillage interne). Les notions de Trust Flow (indice labellisé Majestic critiqué par bon nombre de SEO), d’autorité de domaine et de Topical Trust Flow (indice sur la thématique du lien) se sont ainsi substituées dans l’inconscient collectif au traditionnel PageRank – indice créé par Larry Page (fondateur de Google aux côtés de Sergueï Brin) et connu, dorénavant et seulement, par le moteur de recherche pour quantifier la popularité d’une page web. C'est ici que l'injustice pointe. Google veut du lien mais il pénalise l'acquisition de liens dits "non naturels" - alors qu'il est difficile d'aller chercher les requêtes concurrentielles sans netlinking.

Le consultant SEO aime-t-il donc souffrir ?

On peut le croire. Facteurs impactant le code informatique, le contenu et le lien, ceux-ci devant cultiver pertinence, popularité et confiance, indices de Page Importance, de PageRank, d’inRank, de TrustRank, Topical Trust Flow,… Le référencement naturel possède ses codes, ses indices, ses règles, ses logiques, ses chercheurs. Le SEO est une science inexacte. Ne cherchez plus les numéros gagnants du loto SEO sur le Net pour espérer vous positionner facilement dans le triangle d’or d’un Google ! Il n'y a pas de recettes à suivre. Faire du référencement naturel est complexe pour cultiver sa visibilité dans les moteurs. Il faut chercher par soi-même. Et ce qui marche ici ne marchera pas nécessairement là. Et au risque de me répéter, rappelons que le comportement naturel, tant de l'internaute que de l'éditeur de site Internet, demeure le meilleur indice de confiance pour un moteur de recherche.

Monitorer pour alimenter l’audit SEO

Sans malice aucune, mes disponibilités cérébrales comme les vôtres sont limitées. N’espérez pas faire correctement du SEO sans l’appui d’outils de monitoring pour mettre en évidence tel ou tel indice. Il ne suffit pas d’observer un site en ligne. Vous comprenez aussi que faire du référencement naturel, c’est aussi, et avant tout, étudier la concurrence. Quels sont les manquements de vos concurrents auprès desquels votre site peut répondre ? Mon article traite avant tout des facteurs on-page et on-site. Difficile d’identifier par soi-même les facteurs off-site (link building) sans l’utilisation d’outils SaaS / tools SEO tels que des Majestic SEO - pour le plus connus d’entre eux sur l’audit netlinking. Oui, il faut de l’argent pour faire du référencement naturel. L’audit SEO s’exerce sur le code, sur le contenu, sur le lien et il engendre un vaste business car être premier dans Google, c’est fatalement vendre plus de produits et services.

Quand se soucier de son référencement naturel ?

Le référencement naturel fait partie des attributions d'une agence web ou d'un indépendant. Les questions de référencement naturel doivent être prises en considération au moment de la création de votre site Internet. A la lecture de cet article, vous avez intégré la complexité de la déclinaison d'optimisation en amont et en aval du lancement de votre site web. Malheureusement, la majeure partie des agences ou indépendants pensent le référencement naturel comme une sorte de verni que l'on applique à la fin. Ma comparaison est certes ridicule ; cet état de fait guide néanmoins la majeure partie des comportements. Le référencement naturel se travaille en amont et en aval de la conception web. Il se travaille surtout en continu...

%
des recherches Google comportent 1 seul mot

Source : Rand Fishkin / 2020

%
des recherches Google comportent 2 mots

Source : Rand Fishkin / 2020

%
des recherches Google comportent 3 mots

Source : Rand Fishkin / 2020

%
des recherches Google comportent 4 mots

Source : Rand Fishkin / 2020

Analyser le log pour révéler le crawl

Google veut des sites faciles à lire - pour lui, pour l'internaute. En même temps, il lutte constamment contre les pratiques frauduleuses, contre les pratiques qui vont à l'encontre de ses recommandations. Ainsi, un des rares moyens que puisse utiliser le SEO pour comprendre Google sans le froisser est l'analyse de logs. Késako ? Pour explorer et indexer des pages web, un moteur de recherche utilise un programme informatique, un robot donc, que les référenceurs nomment un bot. Le bot de Google s’appelle GoogleBot (je l'évoquais déjà plus haut). Celui de Bing, Bingbot (et ainsi de suite). GoogleBot est donc un crawler (un spider), un programme qui navigue, "nage", de site en site, de page en page. A chaque fois que GoogleBot passe, il laisse un trace (un log)... Le plus important dans le référencement naturel est de faciliter le passage des bots. Plus ils rencontrent des difficultés, moins vous leur donnez la possibilité de comprendre ce que vous racontez, plus ils vous dévaloriseront dans les résultats de recherche car Google dépense du Budget Crawl pour comprendre ce que vous dites ("C'est quoi le Budget Crawl ?"). Fatalement, le bot passe et repasse. Son orientation est influencée par vos facteurs bloquants, vos mauvaises pratiques sur le texte et le lien. Il crawle peut-être (c’est certain même) certaines pages plutôt que d’autres. Et sans doute des pages qui ne sont pas essentielles à votre business. Autre principe évident : "Plus le spider crawle une page, plus elle monte dans les SERPs ?" Pas si simple...

Panda, Pingouin et autres animaleries pénalisantes

Les bots ne font pas que naviguer. Ils pénalisent durant leurs visites les pratiques frauduleuses."Donner à Googlebot ce qu'il veut ne garantit pas la montée flèche dans ses SERPs." Un peu d’honnêteté et subtilité s’imposent même si Google demeure encore une machine à l’heure de l’intelligence artificielle. Il a ainsi inventé ce qu’on appelle les pénalités algorithmiques (ou manuelles si un collaborateur de Google - un Quality Raters - intervient physiquement). Les pénalités Google sont, schématiquement toujours, de deux ordres. Elles frappent les pratiques abusives cataloguées "spammy" sur le lien (pénalité dite Pingouin) et le contenu (pénalité dite Panda sur le duplicate content / contenu dupliqué ou contenu pauvre). Il y en a d’autres (Colibri, Google Fred, etc., etc.) Google ne communique pas toujours sur ce sujet. Ce sont généralement les consultants SEO qui, se rendant compte de chutes ou de montées dans leurs analytiques, interpellent les professionnels du web.

Référencement local & recherche vocale

En parlant de pénalités algorithmiques (les filtres Panda, Pingouin et autres fonctionnent dorénavant en continu), il est certain que Google cherche de plus en plus à affiner ses résultats touchant les requêtes locales. De ce côté, Opossum fut le nom donné par Google à sa mise à jour régissant le référencement local. Là-encore, pertinence du champ sémantique et popularité des liens déterminent votre position dans les moteurs. Pour vous remercier de votre lecture, sachez ainsi que les moteurs locaux (Pages jaunes et compagnie) sont incontournables, comme la gestion "aux petits oignons" de votre fiche Google My Business... Quant à la recherche vocale, toutes les statisticiens qui démontraient que l'internaute se tournait de plus en plus vers des "Siri"  font marche arrière (la recherche vocale se normalise). Sur le fonctionnement de la recherche vocale, Google reste de marbre. Avis aux amateurs ! Tout le travail de démystification reste à faire.

Je porte le "white hat"

Je n’en suis pas encore là. Je suis ce qu’on appelle un consultant SEO "white hat" - même si l'appellation est contradictoire puisque faire de l'optimisation, c'est déjà manipuler Google. J’applique donc les recommandations de Google, à la différence des "grey" et "black hat" proches du hacking. Google qui tient, pour rappel, plus de la régie publicitaire que de l’authentique service gratuit, sait qu'il est friable sur le lien. Etre white hat, c’est prendre son temps ; disons, ne pas brusquer les choses afin d’éviter le blacklistage, cramer un mot-clé concurrentiel. Les questions de temporalités ne sont pas à déconsidérer surtout si vous souhaitez développer rapidement votre business. Encore un sujet sur lequel il faudrait débattre. Le SEO réclame de la patience…

Le référencement naturel est une stratégie digitale qui se décline sur le long terme. Il doit être pensé dès la création de votre site.

Reynald Dal Barco

Vous cherchez un spécialiste du référencement naturel à Angers ? Vous avez trouvé ma bafouille intéressante et vous souhaitez en savoir plus ? Ne tardez plus ! Contactez-moi !

Faire défiler vers le haut