Search Engine Optimization (SEO)

Qu'est ce que le Search Engine Optimization (SEO)?
Vous souhaitez connaitre la définition du mot Search Engine Optimization (SEO)?
quality templates

Search Engine Optimization (SEO)

L'optimisation des moteurs de recherche (SEO) est le processus qui affecte la visibilité en ligne d'un site Web ou d'une page Web dans les résultats non rémunérés d'un moteur de recherche Web, souvent appelés résultats "naturels", "organiques" ou "gagnés". En général, plus un site Web apparaît tôt dans la liste des résultats de recherche (ou mieux classé dans la page de résultats de recherche), plus il recevra de visiteurs des utilisateurs du moteur de recherche; ces visiteurs peuvent ensuite être convertis en clients. Le référencement peut cibler différents types de recherche, y compris la recherche d'images, la recherche de vidéos, la recherche académique, la recherche d'actualités et les moteurs de recherche verticaux spécifiques à une industrie. Le référencement diffère de l'optimisation des moteurs de recherche locaux en ce que ce dernier est axé sur l'optimisation de la présence en ligne d'une entreprise afin que ses pages Web soient affichées par les moteurs de recherche lorsqu'un utilisateur entre une recherche locale de ses produits ou services. Le premier est plutôt axé sur les recherches nationales ou internationales.


En tant que stratégie de marketing Internet, le référencement naturel prend en compte le fonctionnement des moteurs de recherche, les algorithmes programmés par l'ordinateur qui dictent le comportement des moteurs de recherche, ce que les gens recherchent, les termes de recherche réels ou les mots-clés saisis dans les moteurs de recherche, ainsi que les moteurs de recherche préférés par leur public cible. L’optimisation d’un site Web peut impliquer la modification de son contenu, l’ajout de contenu, l’utilisation de HTML et le codage associé, ce qui permet d’en augmenter la pertinence pour des mots clés spécifiques et d’éliminer les obstacles aux activités d’indexation des moteurs de recherche. Promouvoir un site pour augmenter le nombre de backlinks, ou liens entrants, est une autre tactique de référencement. En mai 2015, la recherche sur mobile avait dépassé la recherche sur le bureau. [3] En 2015, il a été signalé que Google développait et promouvait la recherche sur mobile en tant qu'élément clé des futurs produits. En réponse, de nombreuses marques commencent à adopter une approche différente de leurs stratégies de marketing Internet.

L'histoire du référencement naturel

Les webmasters et les fournisseurs de contenu ont commencé à optimiser les sites Web pour les moteurs de recherche au milieu des années 90, au moment où les premiers moteurs de recherche cataloguaient le premier Web. Initialement, tous les webmasters n'avaient besoin que de soumettre l'adresse d'une page ou d'une URL aux différents moteurs qui enverraient un "araignée" à "explorer" cette page, en extraire des liens vers d'autres pages et renvoyer des informations trouvées sur la page. être indexé. Le processus implique qu'une araignée de moteur de recherche télécharge une page et la stocke sur son propre serveur. Un deuxième programme, appelé indexeur, extrait des informations sur la page, telles que les mots qu’elle contient, leur emplacement et tout poids pour des mots spécifiques, ainsi que tous les liens contenus dans la page. Toutes ces informations sont ensuite placées dans un planificateur pour une analyse ultérieure.

Les propriétaires de sites Web ont reconnu la valeur d'un classement élevé et d'une visibilité élevée dans les résultats des moteurs de recherche, créant ainsi une opportunité pour les praticiens du SEO avec chapeau blanc et noir. Selon l'analyste du secteur, Danny Sullivan, l'expression "optimisation des moteurs de recherche" a probablement été utilisée en 1997. Selon Sullivan, Bruce Clay est l'un des premiers à populariser ce terme. Le 2 mai 2007, Jason Gambert a tenté de définir le terme «référencement» dans une marque de commerce en convainquant le Bureau des marques en Arizona que celui-ci est un «processus» impliquant la manipulation de mots clés et non un «service marketing».

Les premières versions des algorithmes de recherche reposaient sur des informations fournies par le webmaster, telles que les balises méta de mots clés ou les fichiers d'index dans des moteurs tels que ALIWEB. Les balises méta fournissent un guide pour le contenu de chaque page. L'utilisation de métadonnées pour indexer les pages s'est toutefois révélée peu fiable, car le choix des mots clés par le webmaster dans la balise méta pourrait potentiellement être une représentation inexacte du contenu réel du site. Des données inexactes, incomplètes et incohérentes dans les balises méta pouvaient et devaient amener les pages à se classer pour les recherches non pertinentes. [douteux - discuter] Les fournisseurs de contenu Web ont également manipulé certains attributs dans la source HTML d'une page pour tenter de bien se positionner. moteurs de recherche. En 1997, les concepteurs de moteurs de recherche ont reconnu que les webmasters s'efforçaient de bien figurer dans leur moteur de recherche et que certains d'entre eux manipulaient même leur classement dans les résultats de recherche en bourrant des pages avec des mots clés excessifs ou non pertinents. Les premiers moteurs de recherche, tels que Altavista et Infoseek, ont ajusté leurs algorithmes pour empêcher les webmasters de manipuler les classements.

En s’appuyant tellement sur des facteurs tels que la densité des mots clés qui étaient sous le contrôle exclusif d’un webmaster, les premiers moteurs de recherche ont été victimes d’abus et de manipulations de classement. Pour fournir de meilleurs résultats à leurs utilisateurs, les moteurs de recherche ont dû s’adapter pour que leurs pages de résultats affichent les résultats de recherche les plus pertinents, plutôt que des pages sans rapport contenant de nombreux mots-clés de webmasters peu scrupuleux. Cela impliquait de passer d'une forte dépendance à la densité de termes à un processus plus global d'évaluation des signaux sémantiques. Étant donné que le succès et la popularité d'un moteur de recherche dépendent de sa capacité à produire les résultats les plus pertinents pour une recherche donnée, des résultats de qualité médiocre ou non pertinents pourraient inciter les utilisateurs à rechercher d'autres sources de recherche. Les moteurs de recherche ont réagi en développant des algorithmes de classement plus complexes, en tenant compte de facteurs supplémentaires plus difficiles à manipuler par les webmasters. En 2005, une conférence annuelle, AIRWeb, La recherche de l'information contradictoire sur le Web a été créée pour réunir des praticiens et des chercheurs intéressés par l'optimisation des moteurs de recherche et les sujets connexes.

Les entreprises qui utilisent des techniques excessivement agressives peuvent exclure les sites Web de leurs clients des résultats de recherche. En 2005, le Wall Street Journal a fait état d'une société, Traffic Power, qui aurait utilisé des techniques à haut risque et omis de divulguer ces risques à ses clients. Le magazine Wired a rapporté que la même société avait poursuivi le blogueur et référencement SEO Aaron Wall pour avoir écrit sur l'interdiction. Matt Cutts, de Google, a confirmé par la suite que Google avait effectivement interdit à Traffic Power et à certains de ses clients.

Certains moteurs de recherche ont également fait appel à l'industrie du référencement. Ils parrainent et invitent fréquemment à des conférences, des webchats et des séminaires sur le référencement. Les principaux moteurs de recherche fournissent des informations et des directives pour vous aider à optimiser votre site Web. Google dispose d'un programme Sitemaps pour aider les webmasters à savoir si Google rencontre des problèmes d'indexation de leur site Web et fournit également des données sur le trafic de Google au site Web. Les outils pour les webmasters de Bing permettent aux webmasters de soumettre un plan du site et des flux Web, de déterminer le "taux d'analyse" et de suivre l'état de l'index des pages Web.

Relation avec Google
En 1998, Larry Page et Sergey Brin, deux étudiants aux cycles supérieurs de l’Université de Stanford, ont mis au point «Backrub», un moteur de recherche reposant sur un algorithme mathématique pour évaluer l’importance des pages Web. Le nombre calculé par l'algorithme, PageRank, est fonction de la quantité et de la streng.


les méthodes de référencements naturel

Se faire indexer

Les principaux moteurs de recherche, tels que Google, Bing et Yahoo !, utilisent des robots pour rechercher des pages pour leurs résultats de recherche algorithmiques. Les pages liées à partir d'autres pages indexées dans les moteurs de recherche n'ont pas besoin d'être soumises car elles sont automatiquement trouvées. Le Yahoo! Directory et DMOZ, deux annuaires majeurs fermés respectivement en 2014 et 2017, nécessitaient tous deux une soumission manuelle et une révision éditoriale humaine. Google propose la console de recherche Google, pour laquelle un fichier Sitemap XML peut être créé et soumis gratuitement afin de garantir la recherche de toutes les pages, en particulier des pages non détectables en suivant automatiquement les liens, en plus de leur console de soumission d'URL. ] Yahoo! Auparavant, elle exploitait un service de soumission payant qui garantissait l'exploration à un coût par clic; toutefois, cette pratique a été abandonnée en 2009.

Les robots des moteurs de recherche peuvent examiner un certain nombre de facteurs lors de l'exploration d'un site. Toutes les pages ne sont pas indexées par les moteurs de recherche. La distance des pages par rapport au répertoire racine d'un site peut également être un facteur déterminant du point de savoir si les pages sont explorées ou non.

Aujourd'hui, la plupart des internautes effectuent des recherches sur Google à l'aide d'un appareil mobile. En novembre 2016, Google a annoncé un changement majeur dans la manière d'explorer les sites Web et a commencé à faire de leur index une première sur mobile, ce qui signifie que la version mobile de votre site Web devient le point de départ de ce que Google inclut dans son index.


Prévenir l'exploration des robots

Norme d'exclusion de robots

Pour éviter la présence de contenu indésirable dans les index de recherche, les webmasters peuvent demander aux spiders de ne pas analyser certains fichiers ou répertoires dans le fichier robots.txt standard situé dans le répertoire racine du domaine. De plus, une page peut être explicitement exclue de la base de données d'un moteur de recherche en utilisant une balise méta spécifique aux robots (généralement <meta name = "robots" content = "noindex">). Lorsqu'un moteur de recherche visite un site, le fichier robots.txt situé dans le répertoire racine est le premier fichier analysé. Le fichier robots.txt est ensuite analysé et indiquera au robot quelles pages ne doivent pas être explorées. Comme un robot de moteur de recherche peut conserver une copie en cache de ce fichier, il peut parfois analyser des pages qu'un webmaster ne souhaite pas analyser. Les pages dont l’exploration est généralement empêchée incluent les pages spécifiques à la connexion, telles que les paniers et le contenu spécifique à l’utilisateur, telles que les résultats de recherche issus de recherches internes. En mars 2007, Google a averti les webmasters qu'ils devaient interdire l'indexation des résultats de recherche internes car ces pages étaient considérées comme du spam de recherche.

Une notoriété croissante grace au SEO (référencement naturel)

Une variété de méthodes peut augmenter la visibilité d'une page Web dans les résultats de la recherche. Les liens croisés entre les pages d'un même site Web pour fournir davantage de liens vers des pages importantes peuvent améliorer sa visibilité. L'écriture de contenu incluant des mots clés fréquemment recherchés, afin d'être pertinente pour une grande variété de requêtes de recherche, aura tendance à augmenter le trafic. La mise à jour du contenu de manière à ce que les moteurs de recherche reviennent fréquemment dans le passé peut donner un poids supplémentaire à un site. L'ajout de mots clés pertinents aux métadonnées d'une page Web, notamment la balise de titre et la méta description, aura tendance à améliorer la pertinence des listes de recherche d'un site, augmentant ainsi le trafic. La canonisation d'URL de pages Web accessibles via plusieurs URL, à l'aide de l'élément de lien canonique ou via des redirections 301, permet de s'assurer que les liens vers les différentes versions de l'URL comptent pour le score de popularité de la page.

Techniques du chapeau blanc contre le chapeau noir
Les techniques de référencement peuvent être classées en deux grandes catégories: les techniques recommandées par les moteurs de recherche dans le cadre d’une bonne conception ("chapeau blanc") et les techniques que les moteurs de recherche n’approuvent pas ("chapeau noir"). Les moteurs de recherche tentent de minimiser l’effet de ces derniers, notamment le spamdexing. Les commentateurs de l'industrie ont classé ces méthodes, et les praticiens qui les utilisent, soit en tant que SEO blanc ou SEO noir. [49] Les chapeaux blancs ont tendance à produire des résultats qui durent longtemps, alors que les chapeaux noirs prévoient que leurs sites pourront éventuellement être interdits de manière temporaire ou permanente une fois que les moteurs de recherche auront découvert ce qu'ils faisaient.

Une technique de référencement est considérée comme un chapeau blanc si elle est conforme aux directives des moteurs de recherche et ne comporte aucune déception. Comme les instructions du moteur de recherche ne sont pas écrites comme une série de règles ou de commandements, il est important de noter cette distinction. White Hat SEO ne consiste pas seulement à suivre des directives, mais à faire en sorte que le contenu indexé par un moteur de recherche, puis classé, soit identique à celui qu'un utilisateur verra. Les conseils de chapeau blanc se résument généralement à la création de contenu pour les utilisateurs, et non aux moteurs de recherche, puis pour rendre ce contenu facilement accessible aux algorithmes "d'araignées" en ligne, plutôt que d'essayer de détourner l'algorithme de son objectif. White Hat SEO est à bien des égards semblable au développement Web qui favorise l'accessibilité, même si les deux ne sont pas identiques.

Black Hat SEO tente d'améliorer les classements d'une manière qui soit désapprouvée par les moteurs de recherche ou qui implique une supercherie. Une technique de chapeau noir utilise un texte qui est masqué, sous forme de texte coloré similaire à l’arrière-plan, dans un div invisible ou placé hors écran. Une autre méthode donne une page différente selon que la page est demandée par un visiteur humain ou par un moteur de recherche, technique connue sous le nom de cloaking. Une autre catégorie parfois utilisée est celle du chapeau gris. Cela se situe entre les approches Black Hat et White Hat, où les méthodes utilisées évitent que le site ne soit pénalisé, mais n'agissent pas de manière à produire le meilleur contenu possible pour les utilisateurs. Gray Hat SEO est entièrement concentré sur l'amélioration du classement des moteurs de recherche.

Les moteurs de recherche peuvent pénaliser les sites qu’ils découvrent en utilisant des méthodes de type chapeau noir, soit en réduisant leur classement, soit en supprimant leurs listes de leurs bases de données. Ces pénalités peuvent être appliquées soit automatiquement par les algorithmes des moteurs de recherche, soit par une révision manuelle du site. Un exemple en a été le retrait par Google, en février 2006, de BMW Allemagne et de Ricoh Allemagne pour utilisation de pratiques trompeuses. Cependant, les deux sociétés se sont rapidement excusées, ont corrigé les pages incriminées et ont été restaurées sur la liste de Google.

Le référencement naturel somme stratégie marketing

Le référencement n’est pas une stratégie appropriée pour tous les sites Web, et d’autres stratégies de marketing Internet peuvent être plus efficaces, comme la publicité payée via des campagnes de paiement au clic (PPC), en fonction des objectifs de l’exploitant du site. Le marketing par moteur de recherche (SEM) consiste à concevoir, exécuter et optimiser des campagnes publicitaires dans les moteurs de recherche. Sa différence par rapport au référencement est plus simplement décrite comme la différence entre le classement de priorité payé et non payé dans les résultats de recherche. Son but concerne plus l’importance que la pertinence; Les développeurs de sites Web doivent accorder une importance primordiale à la visibilité de SEM, tout en tenant compte de la visibilité, car la plupart d'entre eux accèdent aux listes principales de leur recherche. Une campagne de marketing Internet réussie peut également dépendre de la création de pages Web de haute qualité pour susciter l'engagement et la persuasion, de la mise en place de programmes d'analyse permettant aux propriétaires de sites de mesurer les résultats et de l'amélioration du taux de conversion d'un site. En novembre 2015, Google a publié une version complète de 160 pages de ses lignes directrices sur l'évaluation de la qualité de la recherche au public, ce qui témoigne d'un changement d'orientation de leurs priorités vers "l'utilité" et la recherche sur mobile. Au cours des dernières années, le marché de la téléphonie mobile a explosé, dépassant l'utilisation des ordinateurs de bureau, comme l'indiquait StatCounter en octobre 2016, qui a analysé 2,5 millions de sites Web et où 51,3% des pages ont été chargées sur un appareil mobile. Google a été l'une des sociétés qui a tiré parti de la popularité de l'utilisation du mobile en encourageant les sites Web à utiliser leur console de recherche Google, le Mobile-Friendly Test, qui permet aux entreprises d'adapter leur site aux résultats des moteurs de recherche et à sa convivialité. est.

Le référencement peut générer un retour sur investissement adéquat. Toutefois, les moteurs de recherche ne sont pas rémunérés pour le trafic de recherche organique, leurs algorithmes changent et rien ne garantit une référence continue. En raison de ce manque de garantie et de certitude, une entreprise qui s'appuie fortement sur le trafic des moteurs de recherche peut subir des pertes importantes si les moteurs de recherche cessent d'envoyer des visiteurs. Les moteurs de recherche peuvent modifier leurs algorithmes, ce qui peut avoir un impact sur l'emplacement d'un site Web, entraînant une grave perte de trafic. Selon le PDG de Google, Eric Schmidt, Google a procédé à plus de 500 modifications d'algorithme en 2010, soit près de 1,5 par jour. Il est considéré comme une pratique commerciale judicieuse pour les exploitants de sites Web de se libérer de la dépendance vis-à-vis du trafic des moteurs de recherche. Outre l'accessibilité en termes de robots Web (voir ci-dessus), l'accessibilité Web des utilisateurs est devenue de plus en plus importante pour le référencement.

Marchés internationaux

Les techniques d'optimisation sont fortement adaptées aux moteurs de recherche dominants du marché cible. Les parts de marché des moteurs de recherche varient d'un marché à l'autre, tout comme la concurrence. En 2003, Danny Sullivan a déclaré que Google représentait environ 75% de toutes les recherches. En dehors des États-Unis, la part de Google est souvent plus importante et Google reste le principal moteur de recherche dans le monde en 2007. En 2006, Google détenait une part de marché de 85% à 90% en Allemagne. À l'époque, il y avait des centaines de sociétés de référencement aux États-Unis, mais il n'y en avait que cinq environ en Allemagne. En juin 2008, la part de marché de Google au Royaume-Uni était proche de 90% selon Hitwise. Cette part de marché est réalisée dans un certain nombre de pays.

En 2009, Google n'était pas le premier moteur de recherche sur quelques grands marchés. Dans la plupart des cas, lorsque Google n’est pas leader sur un marché donné, il est en retard sur un acteur local. Les exemples les plus remarquables sont la Chine, le Japon, la Corée du Sud, la Russie et la République tchèque, où se trouvent respectivement Baidu, Yahoo! Le Japon, Naver, Yandex et Seznam sont les leaders du marché.

Une optimisation de la recherche réussie pour les marchés internationaux peut nécessiter une traduction professionnelle des pages Web, l’enregistrement d’un nom de domaine avec un domaine de premier niveau sur le marché cible et un hébergement Web fournissant une adresse IP locale. Autrement, les éléments fondamentaux de l'optimisation de la recherche sont essentiellement les mêmes, quelle que soit la langue utilisée.

Jurisprudence

Le 17 octobre 2002, SearchKing a intenté un recours contre le moteur de recherche Google auprès du tribunal de district des États-Unis, dans le district ouest de l'Oklahoma. SearchKing affirmait que la tactique de Google visant à empêcher le spam-spam constituait une ingérence délictuelle dans les relations contractuelles. Le 27 mai 2003, le tribunal a accueilli la requête de Google visant à ce que sa plainte soit rejetée, car SearchKing "n'avait pas formulé de revendication susceptible de permettre une réparation".

En mars 2006, KinderStart a intenté une action en justice contre Google concernant le classement des moteurs de recherche. Le site Web de KinderStart a été supprimé de l'index de Google avant le procès et le trafic sur le site a diminué de 70%. Le 16 mars 2007, le tribunal américain du district nord de la Californie (division San Jose) a rejeté la plainte de KinderStart sans autorisation, et a partiellement fait droit à la requête de Google visant à obtenir des sanctions au titre de la règle 11 contre l'avocat de KinderStart, l'obligeant à payer les dépenses.

La façon la plus simple de recevoir des leads qualifiés

Inscrivez vous gratuitement

L'inscription est gratuite et sans obligation d'achat.
En remplissant le formulaire d'inscription, vous accédez gratuitement à l'intégralité des leads, rendez-vous et contacts disponibles.

Accédez à la place de marché

Des milliers de leads qualifiés disponibles
Tous les jours les plus grandes agences de génération de lead mettent en vente en temps réel les prospects fraichement générés.

Sélectionnez vos prospects

Les leads sélectionnés vous seront livré après paiement.
Vous pouvez filtrer les leads disponibles en untilisant des dixaines de filtres pour obtenir les prospects que vous ciblez.

Contactez vos clients potentiels

Téléchargez ou utiliser le CRM intégré
Vos leads sont disponible dans votre espace client. Vous pouvez les contacter en utilisant le puissant CRM intégré ou en les téléchargeant en CSV, XXLS ou PDF.
Image

Ce que les utilisateurs d'Bigaffiliation disent

Bigaffiliation me permet d'économiser près de 40% sur mes couts marketing en me proposant directement des leads qualifiés.
Bigaffiliation me permet de fournir à mes commerciaux des prospects qualifiés sans interruption. Très heureux!
0
Leads vendus
0
Vendeurs sur ce secteur
0
%
Des acheteurs satisfaits

Les statistiques parlent!

Bigaffiliation permet à tous les acheteurs de noter la qualité de chaque lead acheté afin de pouvoir donner une note aux vendeurs. Les statistiques sont donc calculéées en fonction de votre avis!