Chef de projet SEO (référencement naturel)

Penser différemment le référencement naturel à Angers afin de cultiver ses positionnements

Le référencement naturel ou SEO pour Search Engine Optimization se caractérise par un ensemble de techniques d’optimisation afin de favoriser le positionnement de votre site Internet dans les moteurs de recherche. Des Google, Bing, Yahoo ! et autre Qwant sont régis par des algorithmes. Lorsqu'un internaute tape une expression-clé dans un champ de recherche (composée de 3.5 mots en moyenne), les moteurs hiérarchisent leurs résultats afin de répondre le plus précisément à l’intention de l’utilisateur. Si Google propose, c’est qu’il a exploré, puis indexé, puis classé. La question demeure : "Quels sont les facteurs qui déterminent ce référencement naturel ?". Y répondre, c’est comprendre comment un moteur de recherche fonctionne... Le référencement naturel est une politique d'acquisition client qui doit être intégrée dès la création de votre site Internet par votre prestataire ou agence web marketing. / Actualisée le 11/10/2018 !

Référencement naturel Angers par Reynald Dal Barco

La loupe souligne la nécessité en référencement naturel d'analyser avec minutie l'ensemble de vos facteurs on-page, on-site et off-site.

Je vais intervenir sur les facteurs SEO suivants

Audit SEO complet

Auditons d'abord l'ensemble de votre site Internet. Audit technique, audit sémantique, audit structurel, audit concurrentiel et audit netlinking, j'utiliserai pour l'audit SEO des applications SaaS pour mettre en évidence les facteurs bloquants ou manquements qui constituent les faiblesses de votre plate-forme web. Je vais par ailleurs vous interroger sur vos buyers personas, vos objectifs commerciaux, ambitions moteur et retours sur investissement. A ce stade, vous ne verrez sans doute plus le référencement naturel comme le commun des éditeurs. Ce regard neuf sur vos pratiques digitales sera par ailleurs une excellente façon de vous mettre à jour.

Arborescence

Etat des lieux fait, compréhensions de votre modèle économique et des enjeux concurrentiels réalisées, nous savons maintenant quel chemin prendre. Nous allons définir notre plan rédactionnel suivant la définition des expressions-clés à travailler. Nous utiliserons, ici encore, des outils en ligne ou planificateurs de mots-clés afin de définir des tendances et volumétries de requêtes pour être sûrs de taper dans votre cœur de cible. Suivra la réalisation, sur mindmap, de votre nouvelle arborescence, votre maillage interne autrement dit, afin de définir la place de chaque mot-clé et le parcours utilisateur. Aussi rébarbative qu'elle soit, cette étape est fondamentale.

Rédaction web

Maintenant que notre plan d'action SEO est élaboré, que nous avons déterminé l'ensemble des mot-clés à traiter, je m’attellerais à vos continus écrits. Les contenus en ligne seront optimisés, là-encore avec l'aide d'outils sémantiques qui nous permettront de déterminer si les champ lexicaux ont été correctement travaillés. Pour la rédaction wed des nouveaux contenus et suivant la complexité ou la technicité de votre secteur d'activité et aisance rédactionnelle, nous détermineront qui les produira. Nous cultiverons les balises sémantiques de votre code, sans oublier l'une des difficultés du référencement résumée par l'antagonisme SEO vs UX. Parlons dorénavant de SXO !

Optimisations des médias

Le référencement naturel est transversal ! Nous n'allons pas nous contenter d'optimiser notre rédaction web mais aussi l'ensemble des contenus annexes, qu'il s'agisse de vos photos, vidéo et autres documents. Au-delà des appellations traditionnelles des fichiers et autres gestion de potentiels contenus dupliqués tiers, nous prendrons en considération tout de suite l'externalisation de certains supports afin d'augmenter plus encore le maillage externe de votre site Internet et sa visibilité sur d'autres plates-formes telles que les réseaux sociaux.

VSEO & Local SEO

L'ensemble des optimisations attenantes au référencement naturel touche aussi le référencement vidéo (autrement dénommé VSEO) et le référencement local. Certainement moins difficiles que l'optimisation en direction des SERPs généralistes, le VSEO et local SEO prennent une part de plus en plus grande dans la vie numérique. Aux USA, les adolescents consultent beaucoup plus YouTube que Google, comme le cyber-acheteur qui ne manquera pas de consulter son smartphone pour scruter la concurrence alors qu'il se trouve dans votre boutique physique.

Netlinkink

Pour être aimé durablement par les moteurs ou atteindre les mots-clés très concurrentiels, les optimisations on-page et on-site ne suffiront pas. Il faut décliner une politique d'acquisition de liens, chercher des backlinks (des liens provenant d'autres sites) et ce n'est pas une partie de plaisir tant les éditeurs deviennent retors. Annuaires qualitatifs, guest-blogging, brand content, réseaux sociaux (il se passe quelque chose au-delà du "Follow" vs "NoFollow"), ils restent quelques techniques payantes. Il faut être patient pour éviter les pénalités algorithmiques.

Responsive pour Mobile First

Mes partenaires et moi privilégions le content management system WordPress parce qu'il s'agit du CMS préféré de Google (si on sait le configurer). Pour la refonte ou création d'e-boutiques, évaluons les opportunités WooCommerce ou PrestaShop qu'il faut, là-encore, configurer correctement, notamment pour optimiser le crawl des robots et l'indexation des pages utiles. En tout état de cause, votre site sera responsive (adaptable à tous les écrans). Plus de la moitié des sites français en ligne ne le sont pas ! Google bascule son index général du Desktop-First vers le Mobile First courant 2018 ! En aparté, il sera intéressant de s'interroger sur le développement du format AMP (Accelerated Mobile Pages).

Monitoring

Aussi utiles soient les études des mots-clés et des volumétries de recherche avant la configuration ou refonte de votre arborescence, il est nécessaire de constamment suivre l'évolution du nouveau positionnement de vos urls dans les résultats d'un Google. Là-encore, et par expérience, les mauvaises pratiques sont courantes. Les moteurs de recherche géolocalisent de plus en plus les requêtes de l'internaute. Pour avoir un idée précise du ranking de vos mots-clés après optimisation SEO, l'utilisation d'outils de monitoring est fortement conseillée.

Google Analytics

Optimiser son site Internet, plus encore ses contenus et pratiques digitales n'a de sens qui si l'on suit leurs évolutions dans le temps. L'un des services de suivi d'audience les plus démocratisés demeure Google Analytics (80% du marché mondial). Suivis des audiences, des canaux d'acquisition et des comportements, Google Analytics, aussi complexe soit-il dans sa compréhension et configuration, est un formidable outil afin de déterminer si les options de développement choisies rencontrent leur succès escompté. Devant les impératifs clients, il m'est régulièrement arrivé de confronter leur logique avec les métriques GG Analytics.

Référencement naturel Angers

Ces facteurs concernent votre site Internet vitrine mais aussi votre e-boutique. Confiez-moi le référencement naturel de votre e-commerce afin d'améliorer votre pertinence dans les moteurs de recherche ! 

Comprendre le référencement naturel pour être Google Friendly

Vous aimez lire ? Ça tombe bien. Consultez cet article de vulgarisation comme une allégorie du jeu du chat et de la souris !

Cultivez vos réflexions sur le SEO et plus globalement le marketing digital en suivant les Digital Gods !

Le référencement naturel est régi par des principes qu’il faut intégrer pour appréhender les bonnes pratiques du webmastering. Pour qu’un site Internet, ou plutôt ses urls (ses pages ou articles donc), se positionnent favorablement dans un moteur de recherche, il faut que celui-ci cultive pertinence, popularité et confiance. Il est aisé de comprendre la pertinence. Rapporté à ce que cherche l’internaute, le moteur proposera des résultats qui tentent de répondre le plus précisément à sa requête. Mais tous les sites Internet n’ont pas la même autorité ! Entre donc en piste la popularité ! Plus loin, ce n’est pas parce que vous êtes populaire, que vous cultivez la confiance de ceux qui vous écoutent ou lisent. Pertinence, popularité et confiance représentent ainsi le premier triptyque au classement des SERPs (acronyme de "Search Engine Results Page" / Pages de résultats). "Quels sont les champs concernés par ce trio ?" A première vue, rien de plus simple. D'abord le code informatique de votre site Internet, puis le traitement des contenus textes, photos et vidéos que vous proposés à votre trafic, et, enfin, le traitement du lien. "C’est quoi le lien ?" Un site Internet est constitué de différents pages articulées les unes aux autres ; un site Internet est encore lié au reste du web.

Avoir un code informatique propre pour Caffeine

Pour qu’un moteur comprenne ce que vous dite (je parlerai d’ailleurs essentiellement de celui de Mountain View puisqu'il totalise près de 95% de marché en France), il faut faciliter son passage. Sa première visite sera dédiée à l’exploration. Une fois vos pages explorées, connues, il les enregistrera (phase d’indexation dans son environnement nommé Caffeine : "C'est quoi Caffeine ?"). Maintenant qu’il les connaît, il peut déterminer leur qualité par rapport au reste du web. A ce propos, en 2014, Google déclarait stocker plus de 130 000 milliards d'urls dans son index général (vulgairement, sa base de données). Nous sommes en 2018 !!! Exploration, indexation, classification, ces 3 actions ne peuvent se réaliser que si Google peut lire, comprendre, votre code informatique. Si celui-ci utilise des langages informatiques obsolètes ou difficilement compréhensibles, si ses architecture et grammaire sont mauvaises, si certaines balises informatiques qui le caractérisent sont absentes ou mal configurées (balises titles et méta-descriptions pour les plus vulgarisées), si votre code informatique est trop lourd en fonctionnalités,... il est aisé de comprendre que son passage, sa lecture, sa compréhension, lui demanderont beaucoup de ressources (d’efforts si vous l’humanisez). Si le temps de chargement de votre site web est difficile, votre référencement naturel est déjà mal embarqué pour le prochain filtre algorithmique Google Speed Update.

%
des résultats de recherche cliqués sont organiques.

Source : SEMRush

%
des utilisateurs d'un moteur ne cliquent pas sur la 2nde page.

Source : SEMRush

%
des commandes B2B débutent par le web.

Source : SEMRush

%
des connexions au web débutent avec un moteur de recherche.

Source : SEMRush

La rédaction web : autre "main ranking factor"

Un code informatique n’est pas constitué seulement d’un squelette (langage HTML) sur lequel on appose des fonctionnalités (JavaScript, etc…), formes et couleurs (CSS pour Cascading Style Sheets), animation (JQuery, etc…) et des appels à une base de données (langage PHP schématiquement encore), mais aussi, et surtout, de contenus (texte, photo, vidéo, fichiers PDF, etc.). Ce que recherche l’internaute en définitive ! Il est communément admis que l’optimisation des contenus est l’un des "main ranking factors" au référencement naturel actuel. Ici, la rédaction web entre en jeu ! Une bonne rédaction web dépend elle-même de différents facteurs. En premier lieu la compréhension par un Google du sujet dont vous parlez, donc, de la définition et surtout du traitement de votre mot-clé. Pendant longtemps, il suffisait de répéter un mot-clé (occurrences) dans un texte pour que Google vous comprenne. Les questions de densités brutes et pondérées suffisaient. Aujourd'hui, le mot-clé tend à s’effacer, disparaître au profit de son environnement sémantique et de la faculté de votre site Internet à capter l'attention de l'utilisateur.

Le "E.A.T." de la rédaction web

Puisque j'évoque la rédaction web et dans le giron d'un update de Google intervenu à l'été 2018 et destiné aux sites Internet YMYL ("Your Money / Your Life"), le moteur de recherche américain a introduit de nouveaux facteurs de pertinence spécialement dédiés à l'intention de ses Quality Raters ("C'est quoi un Quality Raters ?"). Google considère dorénavant la pertinence des auteurs d'articles web ! Celle-ci doit cumuler "Expertise", "Authority" et "Trust" (expertise, autorité et confiance). Comment cela se manifeste-t-il ? Comment un article web peut-il être labellisé "EAT" ?

De l’importance de cultiver son champ sémantique

Ainsi, répéter un mot-clé dans son texte, vendre le discours de telle ou telle densité nécessaire, est dépassé. Trop facile ! Expliquons seulement que, dorénavant, pour que le rédacteur web soit jugé pertinent par le moteur de recherche, il faut (faisons simple) qu’il cultive le champ sémantique de son mot-clé. Plus votre texte est dense, explicatif, précis, complet, plus vous répondez à la requête de l’internaute. Mieux !!! Plus Google a la possibilité d’aller chercher dans votre code et texte, via les rich snipets ou extraits enrichis notamment, des éléments sémantiques collant à l’infinité de combinaisons d’une expression-clé, plus vous avez des chances de l’intéresser ! Plus loin encore, un Google vectorise le texte. Il ne lit pas comme l’humain. Il calcule des ratios code / texte, monèmes / lexèmes, valeur topologique de vos occurrences, dissèque les cooccurrences et coefficients de signifiance et autres ngrams (merci à Cyril Arnaud d’avoir résumé le propos). Je vous invite encore à consulter l'article suivant : Qu’est-ce que le RankBrain ?

Ecrire pour le moteur et l’internaute

Qui classe vos articles ou pages dans les moteurs de recherche ? Le crawler (ou spider) ! Notion dont je reparlerai ultérieurement. Mais qui achète ? L’internaute ! Un Google doit trouver, dans votre code informatique, certaines portes d’entrée à la compréhension du mot-clé traité. Mais il faut aussi être engageant ! Une étude de rétro-ingénierie par SEMrush publiée à l’été 2017 a lancé un nouveau pavé dans la marre. Les métriques attenantes à la fréquentation de votre site détermineraient plus qu'on ne le croyait votre ranking (positionnement moteur). Un spécialiste du SEO me rétorquerait qu'on le savait déjà. Mais pas à ce niveau ! Pour appréhender cette étude, connectez-vous à mon compte LinkedIn !

Référencement Google Angers

Le référencement naturel réclame de la persévérance. Certains mots-clés peu concurrentiels vous permettront de truster rapidement les premières positions tandis que ceux très recherchés demanderont une longévité d'actions.

Métriques d'usage : les indices qui tuent

Accès direct, taux de rebond, pages visitées, temps de lecture, canaux d’acquisition, etc., le comportement de vos internautes influe la confiance d’un Google dans vos contenus. D'où la nécessité d’analyser votre trafic avec des plates-formes telles que Google Analytics. Si l'application est un formidable outil d'analyse d'audience, elle facilite aussi la remontée d’informations sur votre site Internet en direction de votre moteur préféré - comme l'utilisation de son outil Search Console. Cependant, ne pas les intégrer peut être perçu comme un mauvais indice de confiance pour Google. Effet de causalité ? Pour lui, vous cherchez à cacher quelque chose (ce qui me permet de caser le cloaking). Plus que la notion de manipulation, le référencement naturel est devenu complexe à l'heure de l'intelligence artificielle. Le consultant SEO est aussi consultant Google Analytics. L'optimisation se confond à l'analyse web. L'un ne va sans l'autre.

Le cocon andorran

Merci d’être encore ici… Quand on évoque la notion de lien, l’éditeur de site Internet pense trop généralement au backlink (un site A faisant un lien vers un site B). Il occulte très souvent l’importance du lien dans la constitution de son arborescence (la façon dont sont liées les pages de son site web). Les sites traitant de différents sujets rencontrent souvent des difficultés pour se positionner dans les moteurs de recherche car ils architecturent mal leur information. "De quoi parles-tu vraiment" se dit GG ? La notion de siloing est ainsi déterminante. Le consultant SEO Laurent Bourrelly est encore allé plus loin.

De la nécessité d’une arborescence bien huilée

En conceptualisant la notion de cocon sémantique, l’Andorran a révélé aux spécialistes du référencement l’importance du glissement sémantique dans la pertinence moteur. Plus je traite un sujet via une arborescence profonde basée sur la hiérarchisation de mes ancres de liens (le lien surligné qui permet de naviguer de page en page), plus je traite de mots-clés. Je réponds donc à beaucoup plus de potentielles questions posées par l’internaute, plus d'intentions qu’un site lambda. Par la même, je cultive ma pertinence pour un Google... Par extension, l’inRank, conceptualisé par le personnel girondin d’OnCrawl, a ainsi dévoilé la notion de Page Importance, liée, elle, au positionnement d’une page dans un site Internet rapportée à l’importance que l’on cherche à lui donner dans les moteurs de recherche.

Référencement naturel Maine-et-Loire

Sans le lien, pas de SEO, pas d'Internet !

Aller plus loin dans le netlinking

Désolé, mais… Un bon code et un bon texte ne suffiront pas, même si des Matt Cutts – ancien responsable de Google Webspam et interlocuteur privilégié pour les SEOistes d’ici et d’ailleurs –  et autres dorénavant John Mueller vous expliquent qu’il est possible de se positionner favorablement dans un moteur sans backlinks. Oui, ça peut marcher pour un certain référencement local. En cultivant son FreshRank aussi... mais seulement sur des requêtes très peu concurrentielles. Le backlink (lien retour) représente un vote d’un site tiers vers le vôtre. Là-encore, les notions de pertinence et de confiance valident ou non l’intérêt du moteur de recherche. Chercher et trouver des backlinks participent à la construction de votre netlinking. Principe simple ! Plus une page reçoit des liens, des backlinks, des votes donc, plus elle est populaire, plus elle monte dans un Google (cette logique s'applique à votre maillage interne). Les notions de Trust Flow (indice labellisé Majestic critiqué par bon nombre de SEO), d’autorité de domaine et de Topical Trust Flow (indice sur la thématique du lien) se sont ainsi substituées dans l’inconscient collectif au traditionnel PageRank – indice créé par Larry Page (fondateur de Google aux côtés de Sergueï Brin) et connu, dorénavant et seulement, par le moteur de recherche pour quantifier la popularité d’une page web. C'est ici que l'injustice pointe. Google veut du lien mais il pénalise l'acquisition de liens dits "non naturels" - alors qu'il est difficile d'aller chercher les requêtes concurrentielles sans netlinking.

Le consultant SEO aime-t-il donc souffrir ?

On peut le croire. Facteurs impactant le code informatique, le contenu et le lien, ceux-ci devant cultiver pertinence, popularité et confiance, indices de Page Importance, de PageRank, d’inRank, de TrustRank, Topical Trust Flow,… Le référencement naturel possède ses codes, ses indices, ses règles, ses logiques, ses chercheurs. Le SEO est une science inexacte. Ne cherchez plus les numéros gagnants du loto SEO sur le Net pour espérer vous positionner facilement dans le triangle d’or d’un Google ! Il n'y a pas de recettes à suivre. Faire du référencement naturel est complexe pour cultiver sa visibilité dans les moteurs. Il faut chercher par soi-même. Et ce qui marche ici ne marchera pas nécessairement là. Et au risque de me répéter, rappelons que le comportement naturel, tant de l'internaute que de l'éditeur de site Internet, demeure le meilleur indice de confiance pour un moteur de recherche.

Monitorer pour alimenter l’audit SEO

Sans malice aucune, mes disponibilités cérébrales comme les vôtres sont limitées. N’espérez pas faire correctement du SEO sans l’appui d’outils de monitoring pour mettre en évidence tel ou tel indice. Il ne suffit pas d’observer un site en ligne. Vous comprenez aussi que faire du référencement naturel, c’est aussi, et avant tout, étudier la concurrence. Quels sont les manquements de vos concurrents auprès desquels votre site peut répondre ? Mon article traite avant tout des facteurs on-page et on-site. Difficile d’identifier par soi-même les facteurs off-site (link building) sans l’utilisation d’outils SaaS tels que des Majestic SEO - pour le plus connus d’entre eux sur l’audit netlinking. Oui, il faut de l’argent pour faire du référencement naturel. L’audit SEO s’exerce sur le code, sur le contenu, sur le lien et il engendre un vaste business car être premier dans Google, c’est fatalement vendre plus de produits et services.

Quand se soucier de son référencement naturel ?

Le référencement naturel fait partie des attributions d'une agence web ou d'un indépendant. Les questions de référencement naturel doivent être prises en considération au moment de la création de votre site Internet. A la lecture de cet article, vous avez intégré la complexité de la déclinaison d'optimisation en amont et en aval du lancement de votre site web. Malheureusement, la majeure partie des agences ou indépendants pensent le référencement naturel comme une sorte de verni que l'on applique à la fin. Ma comparaison est certes ridicule ; cet état de fait guide néanmoins la majeure partie des comportements. Le référencement naturel se travaille en amont et en aval de la conception web. Il se travaille surtout en continu...

Spécialiste Google Angers

Faire du SEO, c'est faire de la data-analyse

Analyser le log pour révéler le crawl

Google veut des sites faciles à lire - pour lui, pour l'internaute. En même temps, il lutte constamment contre les pratiques frauduleuses, contre les pratiques qui vont à l'encontre de ses recommandations. Ainsi, un des rares moyens que puisse utiliser le SEO pour comprendre Google sans le froisser est l'analyse de logs. Késako ? Pour explorer et indexer des pages web, un moteur de recherche utilise un programme informatique, un robot donc, que les référenceurs nomment un bot. Le bot de Google s’appelle Googlebot. Celui de Bing, Bingbot (et ainsi de suite). Googlebot est donc un crawler (un spider), un programme qui navigue, "nage", de site en site, de page en page. A chaque fois que GoogleBot passe, il laisse un trace (un log)... Le plus important dans le référencement naturel est de faciliter le passage des bots. Plus ils rencontrent des difficultés, moins vous leur donnez la possibilité de comprendre ce que vous racontez, plus ils vous dévaloriseront dans les résultats de recherche car Google dépense énormément de Budget Crawl pour comprendre ce que vous dites ("C'est quoi le Budget Crawl ?"). Fatalement, le bot passe et repasse. Son orientation est influencée par vos facteurs bloquants, vos mauvaises pratiques sur le texte et le lien. Il crawle peut-être (c’est certain même) certaines pages plutôt que d’autres. Et sans doute des pages qui ne sont pas essentielles à votre business. Autre principe évident : "Plus le spider crawle une page, plus elle monte dans les SERPs."

Panda, Pingouin et autres animaleries pénalisantes

Les bots ne font pas que naviguer. Ils pénalisent durant leurs visites les pratiques frauduleuses."Donner à Googlebot ce qu'il veut ne garantit pas la montée flèche dans ses SERPs." Un peu d’honnêteté et subtilité s’imposent même si Google demeure encore une machine à l’heure de l’intelligence artificielle. Il a ainsi inventé ce qu’on appelle les pénalités algorithmiques (ou manuelles si un collaborateur de Google - un Quality Raters - intervient physiquement). Les pénalités Google sont, schématiquement toujours, de deux ordres. Elles frappent les pratiques abusives cataloguées "spammy" sur le lien (pénalité dite Pingouin) et le contenu (pénalité dite Panda sur le duplicate content / contenu dupliqué). Il y en a d’autres (Colibri, Google Fred, etc., etc.) Google ne communique pas toujours sur ce sujet. Ce sont généralement les consultants SEO qui, se rendant compte de chutes ou de montées dans leurs analytiques, interpellent les professionnels du web.

Référencement local & recherche vocale

En parlant de pénalités algorithmiques, il est certain que Google cherche de plus en plus à affiner ses résultats touchant les requêtes locales. De ce côté, Opossum fut le nom donné par Google à sa mise à jour régissant le référencement local. Là-encore, pertinence du champ sémantique et popularité des liens déterminent votre position dans les moteurs. Pour vous remercier de votre lecture, sachez ainsi que les moteurs locaux (Pages jaunes et compagnie) sont incontournables, comme votre présence et gestion des avis clients dans votre fiche Google My Business... Quant à la recherche vocale, toutes les statistiques démontrent que l'internaute se tourne de plus en plus vers des "Siri". Là, les secrets de Google restent entiers. Avis aux amateurs ! Tout le travail de démystification reste à faire.

Je porte le "white hat"

Je n’en suis pas encore là. Je suis ce qu’on appelle un consultant SEO "white hat" - même si l'appellation est contradictoire puisque faire de l'optimisation, c'est déjà manipuler Google. J’applique donc les recommandations de Google, à la différence des "grey" et "black hat" proches du hacking. Google qui tient, pour rappel, plus de la régie publicitaire que de l’authentique service gratuit, a une sainte horreur d’être manipulé. Etre white hat, c’est prendre son temps ; disons, ne pas brusquer les choses afin d’éviter le blacklistage, cramer un mot-clé ou, pire, un nom de domaine. Les questions de temporalités ne sont pas à déconsidérer surtout si vous souhaitez développer rapidement votre business. Encore un sujet sur lequel il faudrait débattre. Le SEO réclame de la patience…

Merci d’avoir tout lu ! Ce que j’aime le plus dans le référencement est sa propension à vous apprendre la vie en quelque sorte. Plus je creuse la question, plus je me rapproche de questionnements philosophiques... Plaire à Google, c'est un peu jouer au chat et à la souris. Il faut décliner les bonnes pratiques pour se faire comprendre des moteurs de recherche et en même temps, ne pas les sur-optimiser au risque de paraître douteux pour les algorithmes. Afin d'éviter la schizophrénie, faites appel à votre bon sens ! C’est le meilleur conseil que je puisse vous donner pour réussir votre référencement naturel… En définitif, soyez… naturel même si, dorénavant, vous savez qu'il n'y a pas grand chose d'honnête dans le référencement naturel.

Il n'existe pas de réelle formation universitaire en SEO. Il s'agit d'un domaine de compétences où l'on apprend sur le tas ou auprès de référents. Il faut lire beaucoup, écouter, faire preuve de patience.