Un site internet permet à une entreprise de faire connaître ses produits et ses services à grande échelle. En étant présent sur Internet, vous améliorez votre performance commerciale, vous attirez une nouvelle clientèle, tant au Canada qu'ailleurs dans le monde.

Ultimatum Media & Google en référencement

Ultimatum Média

BLOG


 
Webmaster - 08/ june / 2010

Google…VS. référencement…

Voulez-vous savoir comment Google se prépare à transformer votre vie?

Vous pourriez penser qu’après une bonne décennie de domination sur le marché des moteurs de recherche, Google s’apprête à prendre une pause. Après tout, elle détient un impressionnant 65% des parts du marché et elle est la seule compagnie dont le nom est synonyme de rechercher. Mais tout comme Google n’est pas prêt à s’asseoir sur ses lauriers, ses compétiteurs ne s’apprêtent pas non plus à concéder leur défaite. Pendant des années, ce monolithe de Silicon Valley a utilisé son algorithme mystérieux et apparemment omniscient pour ‘organiser l’information du monde’, comme le décrit son énoncé de mission. Mais depuis cinq ans, une multitude de compagnies veulent remettre en question cette assomption centrale de Google : qu’un seul moteur de recherche, par des prodiges technologiques et des raffinements constants, puisse satisfaire toutes les demandes possibles. Facebook a déclenché un des premiers assauts en proposant que certaines personnes préfèrent obtenir de l’information de leurs amis plutôt que d’une formule anonyme. L’habilité de Twitter à analyser un flot constant de mises à jour a pour sa part introduit le concept de recherche en temps réel; c’est-à-dire écouter la dernière conversation au moment même où elle se déroule. Yelp, quant à lui, aide les gens à se trouver des restaurants, des nettoyeurs et des gardiennes d’enfants en se servant de la foule d’utilisateurs pour ordonner ses classements. Aucun de ces derniers venus ne représente en lui-même une menace redoutable. Mais ensemble, ils tendent à prédire un avenir plus ouvert et plus anarchique pour la recherche en ligne. Un avenir qui n’est plus dominé par un moteur de recherche, mais qui incorpore un ensemble de services à la carte.

Toutefois, la menace la plus dangereuse pour Google se situe à 850 milles au nord: Bing. Avec un nom qui évoque la découverte, le prénom d’un chanteur connu, ou le cabaret de danseuses de Tony Soprano, le moteur de recherche de Microsoft, retravaillé, rebaptisé et lancé en juin l’année passée, a reçu d’étonnants éloges: Le The Wall Street Journal l’a considéré ‘plus invitant que Google’. La nouvelle présentation, agrémentée d’une campagne publicitaire de 100 millions de dollars, a fait grimper la part de Microsoft sur le marché états-unien des moteurs de recherche de 8% à environ 11%. Ce chiffre doublera, et même plus, lorsque les organismes de réglementation auront approuvé une entente qui fera de Bing le fournisseur de recherche pour Yahoo.

L’équipe de Bing se concentre sur des cas isolés où les algorithmes de Google n’apportent pas toujours les résultats escomptés. Par exemple, même si Google se débrouille bien pour ses recherches publiques sur la Toile, elle n’a aucun accès en temps réel à l’univers complexe et en flux constant des horaires et des tarifs de vols aériens. Microsoft a donc acheté Farecast - un site Web qui accumule les données de prix sur une période de temps et utilise ces informations pour prédire quand le prix des billets augmentera ou baissera. Bing absorbe ensuite ces résultats. Microsoft a fait des acquisitions semblables dans le secteur de la santé, des références et du magasinage, là où il considérait que l’algorithme de Google s’avérait insuffisant.

Même les Bingers admettent que, lorsqu’il s’agit de simplement prendre un terme pour lancer une recherche et ensuite obtenir des résultats pertinents, Google détient encore plusieurs longueurs d’avance. Mais ils pensent aussi que s’ils peuvent exceller dans certains secteurs, les gens s’habitueront à utiliser des moteurs différents selon leurs types de recherche. « L’algorithme est extrêmement important dans la recherche, mais ce n’est pas le seul facteur. », dit Brian MacDonald, le vice-président du noyau de recherche pour Microsoft. « Vous achetez une auto pour plusieurs raisons. Pas seulement en fonction des performances du moteur. »

Webmaster - 14/ june / 2010

Google…VS. référencement…suite 1

La réponse de Google peut se résumer à quatre mots: mike siwek lawyer mi.

Amit Singhal tape ces mots qui ne font en apparence aucun sens sur son moteur de recherche. Cet homme doux d’une quarantaine d’années est un Google Fellow, un titre honorifique qui lui a été accordé il y a quatre ans pour récompenser son remaniement du moteur de recherche en 2001. Il appuie sur la clé ‘Entrée’. En un laps de temps équivalent à quelques battements d’ailes d’un oiseau-mouche, une page de liens apparaît. Le résultat de tête réfère à un avocat nommé Michael Siwek, de Grand Rapids au Michigan. C’est une recherche plutôt banale - du genre que les serveurs de Google reçoivent par milliards chaque jour - mais ne vous y laissez pas tromper, elle est très compliquée. En tapant ces mêmes mots sur Bing, par exemple, le premier résultat obtenu portera sur un repêchage de la Ligue Nationale de Football incluant le demi de sûreté Lawyer Milloy. Après plusieurs pages de résultats, vous n’obtiendrez toujours aucune référence directe à Siwek.

Cette comparaison démontre la puissance, et même l’intelligence de l’algorithme de Google, aiguisé par des ajustements répétés. Il possède cette habileté apparemment magique d’interpréter les requêtes des chercheurs, peu importe à quel point elles sont maladroites ou mal épelées. Google parle de cette habileté comme étant une qualité de recherche. Et durant plusieurs années, la compagnie a jalousement protégé le processus par lequel il rend des résultats si précis. Mais maintenant, je suis assis avec Singhal, dans l’édifice 43 de ce géant de la recherche, où l’équipe du noyau de recherche travaille. Car Google me donne cette opportunité sans précédent de voir comment elle arrive à cette qualité de recherche. On peut clairement lire entre les lignes: Vous pensez peut-être que l’algorithme n’est rien de plus qu’un moteur, mais attendez seulement de jeter un coup sous le capot pour voir ce que cet engin peut vraiment faire.

L’histoire de l’algorithme de Google commence avec PageRank, ce système inventé en 1997 par le cofondateur Larry Page, alors qu’il étudiait à l’Université de Stanford. L’éclair de génie, maintenant légendaire de Page, a été de classer les pages en fonction du nombre et de l’importance des liens qui pointaient vers eux. En d’autres mots, d’utiliser l’intelligence collective de la Toile pour déterminer les sites les plus pertinents. C’était un concept à la fois simple et puissant et - alors que Google devenait rapidement le moteur de recherche le plus populaire sur la Toile - Page et son cofondateur Sergey Brin ont admis que PageRank était l’innovation fondamentale de leur compagnie.

Mais ce n’est pas tout. Manber affirme que « les gens tiennent à PageRank parce qu’ils le reconnaissent. Mais plusieurs autres facteurs ont amélioré la pertinence. » Parmi ceux-ci on trouve l’exploitation de certains signaux, des indices contextuels utiles au moteur de recherche qui servent à classer des millions de résultats possibles pour chaque demande, afin de s’assurer que les plus utiles remontent à la surface, en tête des résultats.

La recherche virtuelle est un processus contenant de multiples étapes. Premièrement, Google parcourt la Toile pour rassembler le contenu de tous les sites accessibles. Cette information est ensuite découpée pour former un index (organisé par mots, tout comme l’index d’un livre), une façon de trouver n’importe quelle page en se basant sur son contenu. À chaque fois que l’utilisateur dactylographie sa demande, l’index est fouillé pour trouver des pages pertinentes. Il retourne alors une liste qui se dénombre habituellement en centaines, milliers ou millions de résultats. La partie la plus délicate est le processus de mise en ordre - afin de déterminer le rang des résultats, et lesquels se retrouveront en tête de liste.

C’est là où entrent en jeu les signaux contextuels. Tous les moteurs de recherche les utilisent, mais aucun n’en utilise autant et avec autant de flair que Google. PageRank lui-même est un signal, un attribut d’une page Web (dans ce cas, il s’agit de son importance par rapport au reste de la Toile) qui peut être utilisé pour aider à évaluer sa pertinence. Quelques-uns de ces signaux semblent maintenant évidents. Au début, l’algorithme de Google accordait beaucoup d’importance au titre d’une page Web. C’était clairement un signal important pour en déterminer la pertinence. Une autre technique clé exploitait le texte conducteur, c’est-à-dire les mots qui composent l’hyperlien qui relie les pages les unes aux autres. Selon Scott Hassan, un architecte de la première heure pour Google, qui a travaillé avec Page et Brin à Stanford: « En amorçant une recherche, la bonne page apparaissait, même si cette page n’incluait forcément les mots que vous recherchiez. C’était plutôt cool. » Plus tard, les signaux comprenaient des attributs comme la fraîcheur (pour certaines demandes, les pages créées récemment peuvent s’avérer plus précieuses que d’autres plus anciennes) et la location (Google connaît les coordonnées géographiques approximatives des chercheurs et donne préférence aux résultats locaux). Le moteur de recherche utilise actuellement plus de 200 signaux (200 signals ) pour l’aider à classer ses résultats.

Les ingénieurs de Google ont découvert que certains de leurs signaux les plus importants peuvent venir de l’intérieur même de Google. On a vanté PageRank parce qu’il avait institué une certaine mesure de populisme dans le moteur de recherche : le poids démocratique de millions de gens qui décident où ils veulent aller sur la Toile. Mais Singhal note que les ingénieurs de l’édifice 43 s’inspirent d’une autre démocratie - celles des centaines de millions de chercheurs qui utilisent Google. L’information générée par leurs recherches - les résultats sur lesquels ils cliquent, les mots qu’ils remplacent dans la boîte de recherche lorsqu’ils ne sont pas satisfaits, la correspondance des recherches avec la location physique des chercheurs - finit par devenir une ressource irremplaçable pour découvrir de nouveaux signaux et améliorer la pertinence des résultats. L’exemple le plus direct de ce procédé est ce que Google appelle sa recherche personnalisée - une caractéristique utilisant l’historique des recherches d’une personne et sa location comme signaux afin de déterminer quels résultats seront les plus aptes à être considérés utiles. Plus généralement, Google s’est servi de son immense masse d’informations pour fortifier son algorithme avec une base de connaissance merveilleusement approfondie qui l’aide à interpréter l’intention complexe des demandes difficiles à déchiffrer.

Webmaster - 15/ june / 2010

Google…VS. référencement…suite 2


Prenez par exemple la manière dont le moteur de Google repère les synonymes. Selon Singhal : « Nous avons découvert très tôt un truc marrant. Les gens changent les mots de leurs requêtes. Alors, ils tapent ‘images de chiens’, et ensuite ils tapent ‘images de chiots’. Et cela nous a dit que peut-être ‘chiens’ et ‘chiots’ étaient des termes interchangeables. Nous avons aussi appris que lorsque l’eau bout, c’est de l’eau chaude. Nous avons réappris la signification des mots d’un point de vue humain, et cela nous a beaucoup fait avancer. »

Mais il y avait des obstacles. Le système des synonymes de Google comprenait qu’un chien ressemblait à un chiot et que l’eau bouillante était chaude. Mais il concluait aussi qu’un chien chaud (hot dog) devait ressembler à un chiot bouillant! Le problème a été résolu à la fin de 2002 par une percée fondée sur les theories du philosophe Ludwig Wittgenstein voulant que les mots soient définis par leur contexte. À mesure que Google parcourait la Toile et accumulait des milliards de pages et de documents, il analysait quels mots se trouvaient à proximité les uns des autres. Les ‘hot dogs’ se retrouvaient alors davantage dans des recherches qui contenaient également les mots ‘pain’ et ‘moutarde’ ou encore ‘partie de baseball’, que dans des résultats qui parlaient de chiots ébouillantés. Cela a aidé l’algorithme à comprendre la signification de ‘hot dog’ et de millions d’autres expressions. Toujours selon Singhal : « Aujourd’hui, si vous tapez ‘bio de Gandhi’, nous savons que ‘bio’ veut dire ‘biographie’. Mais si vous tapez ‘guerre bio’, cela signifie ‘biologique’.

Pendant son histoire, Google a conçu des manières d’ajouter plus de signaux, tout en évitant de changer les habitudes d’utilisation des chercheurs. Tous les deux ans environ, il s’effectue un changement majeur dans le système - équivalent un peu à une nouvelle version du système d’opérations informatique Windows. C’est une étape importante à Mountain View, mais on en parle peu publiquement. « Notre travail consiste fondamentalement à changer les moteurs d’un avion qui vole à 1000 kilomètres/heure à 30 000 pieds au-dessus de la Terre, affirme Singhal. En 2001, pour se plier à la croissance rapide de la Toile, Singhal a complètement révisé l’algorithme original de Page et Brin, permettant ainsi au système d’incorporer rapidement de nouveaux signaux. (Un des premiers signaux du nouveau système pouvait différencier les pages commerciales des autres, donnant de meilleurs résultats aux chercheurs qui désiraient faire des achats.) La même année, un ingénieur nommé Krishna Bharat s’est aperçu que les liens provenant d’autorités reconnues devraient avoir priorité. Il a conçu un signal puissant conférant plus de crédibilité aux références venant de sites experts. (C’est devenu le premier brevet de Google.) Le changement le plus récent, nommé Caféine, a renouvelé l’ensemble du système d’indexage afin de rendre encore plus facile l’ajout de signaux pour les ingénieurs.

La créativité de Google à encourager ces percées technologiques est reconnue. Chaque année, l’entreprise tient une exposition de démonstration interne qui s’appelle CSI ( Crazy Search Ideas = Folles Idées de Recherche) pour tenter d’encourager des approches inédites, mais productives. En grande partie, le processus d’amélioration est un travail sans fin, qui se fraye un chemin parmi de mauvais résultats pour identifier ce qui ne fonctionne pas. Une de ces recherches avortées est entrée dans la légende: quelque part en 2001, Singhal s’est rendu compte des médiocres résultats quand les gens tapaient le nom ‘audrey fino’ dans leur recherche. Google s’obstinait a répondre avec des sites italiens faisant l’éloge de l’actrice Audrey Hepburn. (fino signifie ‘fine’ en Italien). « Nous nous sommes rendu compte que c’était en fait un nom de personne. Mais le système n’était pas assez intelligent. »

L’échec Audrey Fino a conduit Singhal vers une quête échelonnée sur plusieurs années pour améliorer la façon dont le système gère les noms propres - qui composent 8% de l’ensemble des recherches. Pour résoudre cette énigme, il a dû maîtriser l’art obscur de la fragmentation bigrammaticale (bi-gram breakage ). Il s’agit de séparer une expression faite de mots multiples en unités autonomes. Par exemple, ‘new york’ représente deux mots qui vont ensemble (un bi-gram) pour désigner cette grande ville des États-Unis. Par contre, ‘new york times’ se réfère à un journal. Et tout change encore plus en tapant ‘new york times square’ car il s’agit d’un quartier renommé de New York. Les humains font ces distinctions instantanément, mais Google ne possède pas une salle secrète remplie de fonctionnaires bureaucrates comme dans le film ‘Brazil’. Il s’appuie sur des algorithmes.

La recherche sur Mike Siwek illustre comment Google travaille. Quand Singhal tape une commande pour exposer un niveau de code derrière chaque résultat de recherche, le signal déterminant le classement des liens privilégiés apparaît clairement : un bi-gram qui identifie un nom propre, un synonyme, une location géographique. « Il faut déconstruire cette recherche du point de vue d’un ingénieur. Aha! Nous pouvons fragmenter cela ici. Nous réalisons alors que le mot ‘lawyer’ relié à Siwek n’est pas un nom propre, ni une ville du Michigan, mais désigne en anglais la profession d’avocat.

C’est la réalisation, acquise de dure lutte par le moteur de recherche de Google et glanée de l’information générée par des milliards de recherche, qu’un rocher est un rocher. C’est aussi une pierre ou une roche. Et même si on l’épelle ‘rohce’ c’est encore une roche. Mais si on met ‘petite’ devant ‘roche’ (Little Rock en anglais) cela devient la capitale de l’État de l’Arkansas. Et Arkansas n’est pas une arche, à moins que Noé ne rôde autour. Selon Singhal, « Le Saint Graal de la recherche est de comprendre ce que veut l’utilisateur. À ce moment, la correspondance ne se fait plus au niveau des mots, mais au niveau de la signification. »

Et Google continue sur sa lancée. Récemment, l’ingénieur de recherche Maureen Heymans a découvert un problème avec ‘Cindy Louise Greenslade’. L’algorithme savait qu’il devait rechercher une personne - dans le cas présent une psychologue de Garden Frove en Californie - mais il n’a pas pu placer le site Web de Greenslade parmi les dix premiers résultats. Heymans s’est aperçu qu’en résumé, Google avait relégué la pertinence de la bonne réponse parce que Greenslade utilisait seulement l’initiale de son deuxième prénom, et non son deuxième prénom au complet (Louise) comme dans la recherche. Selon Heymans : « Nous devions le rendre encore plus intelligent. » Elle a donc ajouté un signal qui recherche les initiales du second prénom. Maintenant, le site de Greenslade se trouve parmi les cinq premiers résultats.

Webmaster - 16/ june / 2010

Google…VS. référencement…suite 3

À tout moment, des douzaines de modifications similaires passent au crible d’un système d’essai bien rodé. Google emploie des centaines de personnes à travers le monde qui, sur leur ordinateur à la maison, évaluent les résultats de requêtes variées. Elles jugent si les ajustements renvoient des meilleurs ou moins bons résultats qu’auparavant. Google dispose cependant aussi d’une armée de vérificateurs encore plus considérable - ses milliards d’utilisateurs, dont virtuellement tous participent sans le savoir à un contrôle de qualité constant. À chaque fois que les ingénieurs veulent évaluer un ajustement, ils enclenchent le nouvel algorithme sur un infime pourcentage d’utilisateurs pris au hasard. Ils laissent alors le reste des chercheurs constituer un gigantesque groupe témoin. Tant de modifications doivent être mesurées que Google s’est défait du principe scientifique traditionnel voulant qu’une seule expérience doive être tentée à la fois. Selon l’ingénieur en recherche de qualité Patrick Riley: « Durant la plupart des recherches sur Google, nous contrôlons simultanément plusieurs groupes expérimentaux. » Mais il se ravise ensuite: « Essentiellement, toutes les recherches sont impliquées dans un test ou un autre ». En d’autres mots, vous servez de cobaye à peu près à chaque fois que vous faites une recherche sur Google.

Cette flexibilité - l’habileté d’ajouter des signaux, d’ajuster le code sous-jacent, et d’évaluer instantanément les résultats - est la raison pour laquelle les Googlers disent qu’ils pourront se mesurer à toute compétition, qu’elle provienne de Bing, Twitter ou Facebook. Même que pendant les six derniers mois, Google a effectué plus de 200 améliorations, dont certaines semblent imiter - parfois améliorer - l’offre de ses rivaux. (Google prétend que ce n’est qu’une coïncidence et indique qu’il ajoute en tout temps de nouvelles caractéristiques depuis plusieurs années.) Une d’entre elles est la recherche en temps réel, attendue avec impatience depuis que Page a émis l’opinion, il y a quelques mois, que Google devrait parcourir l’ensemble de la Toile chaque seconde. Lorsqu’une personne questionne sur un sujet d’actualité, parmi les dix premiers résultats, Google identifie les résultats les plus récents dans une petite ‘boîte’. On y trouve une barre de défilement composée d’articles tout frais provenant de bureaux de nouvelles ou de blogues. Une fois de plus, Google utilise ses signaux pour s’assurer que les blogues les plus pertinents trouvent leur chemin dans ces résultats mis à jour. « Nous considérons ce qui a été retransmis d’autres sources, combien de personnes suivent l’individu, et si le blogue a été produit manuellement ou par un robot, dit Singhal, nous savons comment procéder, car nous travaillons là-dessus depuis dix ans. »

En plus de la recherche en temps réel, Google a présenté de nouvelles caractéristiques, comprenant un service qui s’appelle Goggles qui traite les images captées par les téléphones cellulaires des utilisateurs comme étant des requêtes. Tout cela fait partie de la stratégie de la compagnie de recherche pour assurer une présence à tout moment et à tout endroit. Avec une caméra et un système de reconnaissance de la voix, un téléphone intelligent devient des yeux et des oreilles. Si les bons signaux sont découverts, tout peut devenir matière à information.

La puissance informatique massive de Google et sa bande passante accordent à cette entreprise un avantage indéniable. Certains observateurs prétendent que cet avantage empêche toute compétition de la part des derniers venus. Mais Manber répond que ce n’est pas seulement l’infrastructure qui fait de Google un leader : « Par-dessus tout, l’ingrédient clé de notre succès est que nous avons engagé les bons ouvriers. »

En tenant compte de cette condition, on comprend que Qi Lu fait partie de cette élite. « J’ai énormément de respect pour cet homme. » affirme Manber, qui a travaillé avec cet ingénieur informatique de 48 ans avec Yahoo. Mais Lu s’est joint à Microsoft l’année passée pour prendre en charge l’équipe Bing. Lorsqu’on lui demande quelle est sa mission, Lu, un homme de taille modeste vêtu d’un blue-jean et d’un maillot à l’effigie de Bing, réfléchit avant de répondre doucement et sur un ton mesuré : « Il est extrêmement important de se rappeler qu’il s’agit d’une mission à long terme. » Il a le même regard je-ne-pars-d’ici, qu’on reconnaît chez Uma Thurman dans le film Kill Bill.

En fait, la compagnie qui avait gagné la guerre des moteurs de recherche pendant la dernière décennie adopte une philosophie ‘la vengeance est un plat qui se mange froid’ devant la situation présente. Elle semble posséder cette bizarre certitude qu’à un moment donné, les gens voudront plus que ce que l’algorithme de Google peut offrir. Selon le chef du noyau du développement de la recherche de Microsoft, Harry Shum: « Si nous n’arrivons pas à un changement de paradigme, il sera très, très ardu de rivaliser avec les meneurs actuels. Mais nous sommes d’avis que cette transformation profonde des perceptions et des valeurs se produira bientôt. »

Pourtant, même si ce changement se produit, l’algorithme de Google sera sans doute en mesure de l’absorber lui aussi. Voilà pourquoi Google est un compétiteur redoutable: il a bâti une machine assez flexible pour incorporer toute approche pouvant la menacer - tout en apportant des résultats de haute qualité que ses compétiteurs ne peuvent pas reproduire. N’importe qui peut inventer une nouvelle manière d’acheter des billets d’avion. Mais seul Google sait où trouver Mike Siwek.

 

Webmaster - 17/ june / 2010

Google…VS. référencement…suite 4

Avant de déménager un ancien site Web à un nouveau site, il est excessivement important de considérer la position actuelle de l’ancien site dans l’organisme du moteur de recherche. Si la stratégie correcte n’est pas adoptée, la position de l’ancien site sur le marché de la recherche pourrait se trouver dramatiquement compromise. Il est crucial de bien comprendre deux aspects spécifiques de l’ancien site avant d’élaborer une stratégie:

1) La saturation existante du listage: il s’agit du nombre de pages mises en liste, compilées et indexées à l’intérieur de chaque moteur de recherche. Le listage de chaque page produira un niveau d’affluence des visiteurs, associée à différents groupes de mots-clés et de termes de recherche. Il est essentiel de s’assurer que les pages existantes conservent leur adresse URL, ou que les anciennes adresses URL soient directement appliquées au nouveau site. On s’assure que chaque page correspond directement à sa nouvelle version.

2) La popularité existante des liens: il s’agit du nombre de pages qui forment des liens à sens unique vers l’ancien site ou à l’endroit où l’ancien site a été directement référencé par un autre site à l’aide d’un hyperlien. Cela comprend des sites web, des répertoires, des sites média de socialisation, des sites d’articles, de nouvelles, de revues, etc., faits par des tiers. Ces liens constituent la base de la popularité des sites, et de son classement dans les résultats de recherche. Il est essentiel de s’assurer que tous les liens demeurent actifs et pointent vers la même page active, qu’elle soit récente ou ancienne.

Ces deux aspects sont directement reliés à la présence et à la performance existantes des anciens sites sur le moteur de recherche. Si une stratégie de déménagement et de maintien de ces liens n’est pas implantée avant le transfert du serveur de noms du domaine (DNS) vers un nouveau site, il se peut que le nouveau site souffre d’une diminution critique au niveau du rang de page, du rang de confiance et de la saturation du listage. Un délai allant jusqu’à 6 mois pourrait s’avérer nécessaire pour remédier à ce genre de situation. Et malheureusement, un pourcentage de liens vers le site sera définitivement perdu.

Deux stratégies principales peuvent être utilisées pour prévenir cela afin de maintenir la présence des sites en ligne.

1) Utiliser les adresses URL, les titres et les métadonnées existantes


Le contenu, les pages titres et les métadonnées peuvent être améliorés ou ajustés, mais la pertinence de chaque page devra être conservée. Pour créer la plupart des mises à niveau sur un nouveau site, ce sera la manière la plus pratique de procéder et cela épargnera beaucoup de temps. Comme le site et ses pages sembleront les mêmes pour les moteurs de recherche, à l’exception des mises à niveau (par exemple, les adresses URL des pages seront identiques, mais la taille des fichiers et le contenu des pages seront différents), le rang de page, la popularité des liens et le degré de saturation des liens seront maintenus et transférés au nouveau site. Les moteurs de recherche noteront une différence dans la taille des pages, la taille des fichiers et le nom de fichiers, etc. Cela devrait améliorer l’intérêt des moteurs de recherche, car ils croiront que le contenu a été mis à niveau. Et comme tout le site a été ainsi renouvelé, cela augmentera les visites des robots de recherche et les références vers le site devraient s’en trouver augmentées. Cela devrait signifier que toute nouvelle page sera repérée et indexée assez rapidement.

2) Utiliser la redirection 301


Toutes les vieilles pages du site web sont indexées et appliquées à leurs pages correspondantes sur le nouveau site en utilisant une redirection 301 (une redirection permanente) et un module de réécriture des adresses URL appelé ‘mod_rewrite’. Dans la plupart des cas, chaque page aura le rang de son ancienne page correspondante transférée à cette nouvelle page. Mais ce ne sera pas toujours le cas et cela prendra du temps. Assez souvent, le rang au niveau des résultats des moteurs de recherche sera initialement rétrogradé, alors que l’ensemble du site semblera nouveau, et se mettra ensuite à augmenter après le transfert du rang de page. Quelques pages perdront leur rang et leur popularité. Il est difficile d’en prévoir la raison. Les liens arrivants provenant d’un site tiers seront appliqués aux nouvelles pages en en utilisant cette stratégie. Les rangs de page associés seront transférés à la page, mais cela ne sera fera pas instantanément. Cela peut prendre entre 1 et 3 mois, dépendant de l’importance des liens entre les sites. Lorsque possible, cela vaut la peine de communiquer avec les partenaires de liens et les sites répertoires pour changer les adresses URL associées. Cela peut être ardu et prendre beaucoup de temps. Il est donc parfois plus profitable, au niveau du temps et des coûts, de continuer l’actuelle stratégie de commercialisation de la recherche en utilisant les nouvelles adresses URL.

Afin d’aider la promotion de l’indexage de nouvelles pages, il sera essentiel de créer régulièrement des plans de site XML (à tous les mois ou lorsque le site ajoute un nouveau contenu) et de les soumettre directement aux moteurs de recherche, ce qui leur donnera un guide complet de l’entière structure des pages du site.

Quelques indices pour améliorer le classement de page sur Google.

Webmaster - 17/ june / 2010

Le classement de page est une valeur numérique assignée par Google pour indiquer l’importance du site web. Ce rang de page dépend de la qualité et du volume des liens arrivants et sortants. Il est important, car ce rang de page est un des facteurs qui déterminent une bonne position au niveau des résultats de recherche. Mais ce facteur n’est pas le seul. Il faut également comprendre que ce rang de page varie d’une page à l’autre. Google assigne une valeur numérique allant de 0 jusqu’à 10, où 10 est la valeur la plus élevée. Google met à jour ce classement tous les trois mois.
Le contenu et l’usage de mots-clés jouent un rôle important. Lorsque de bons mots-clés sont employés, les moteurs de recherche retraceront à coup sûr votre site et l’afficheront lorsqu’une personne cherchera de l’information, pour que vous puissiez obtenir une affluence sur votre site. La meilleure manière d’améliorer votre classement est de construire des liens de retour (backlinks).


Quelques façons d’améliorer votre classement:


1. La soumission d’articles: Écrivez des articles et publiez-les sur des répertoires d’articles comme ‘ezines articles’, ‘go articles’ etc. En faisant cela, lorsque vous placez vos liens, pour plus de références, dans la biographie de l’auteur, vous devenez alors plus visible sur la Toile, car vous produisez des liens de retour provenant du site ayant produit votre article. Toutefois, ne soumettez pas le même article à plusieurs répertoires d’articles différents parce qu’il sera considéré comme un duplicata. Il est préférable de lui donner une tournure différente, afin que les articles soient différents les uns des autres.


2. Les blogues: Créez votre propre blogue et mettez régulièrement le contenu à jour. Publiez des commentaires sur des blogues ‘dofollow’ pertinents à votre site et qui jouissent d’un classement élevé sur les moteurs de recherche. Vos commentaires sur ces blogues ‘dofollow’ mettra de l’eau dans votre moulin à liens, et de cette manière vous augmenterez votre rang de page.


3. Les liens réciproques: En échangeant vos liens avec des sites pertinents et des sites à forte affluence, vous augmenterez la circulation sur votre site grâce à ces liens de référence directs provenant de vos partenaires.


4. L’affichage dans les forums: Participez à des forums ‘dofollow’ pertinents. Vous y placerez alors votre signature, ce qui augmentera les liens de retour. Si vos interventions dans ce forum sont bonnes, davantage de personnes viendront visiter votre site et vous en bénéficierez.
5. La mise en signet sociale: La mise en signet sociale est une des façons d’améliorer votre classement. Vous avez plusieurs sites de mise en signet sociale à votre disposition. Vous pouvez vous afficher sur les plus populaires, comme ‘digg’, ’stumble upon’, etc. Le fait d’écrire dans ces sites permet non seulement d’augmenter vos liens de retour, mais aussi de marquer votre site.


Plusieurs avantages découleront de l’amélioration de votre rang de page.


· Les compagnies voudront faire de la publicité sur votre page si elle jouit d’un classement élevé, car c’est une manière efficace d’attirer à leur tour plus de visiteurs.
· Les gens considèrent les sites avec un bon rang de page comme étant plus fiables et d’une qualité supérieure.
· Ces sites à classement élevé peuvent attirer davantage des visiteurs.
N’utilisez aucun moyen à l’éthique douteuse pour améliorer votre positionnement. Car si le moteur de recherche le découvre, votre site sera pénalisé. Le moteur de recherche de Google utilise plusieurs méthodes pour déterminer quelles pages devraient parvenir au sommet de leurs résultats de recherche. Parmi elles le rang de page est un facteur important. Toutefois, l’algorithme du rang de page est tenu rigoureusement secret. L’utilisation des liens de retour aide à améliorer le classement. Je propose seulement ici quelques façons, mais il en existe plusieurs autres pour améliorer votre rang de page. Partagez votre opinion avec nous.


Malheureusement, nous ne pouvons pas offrir de conseils spécifiques sur le classement ou le rang de sites individuels dans les résultats des recherches sur la Toile. En général, la meilleure manière d’améliorer le rang de votre site est d’inclure un contenu unique qui ciblera votre clientèle. Voici quelques indices qui pourront faciliter la découverte de votre page par une recherche concentrée sur l’Internet:


· Réfléchissez sérieusement aux mots-clés utilisés par votre audience lorsqu’elle recherchera un contenu semblable aux vôtre. Utilisez ces termes pour structurer la construction du texte et des pages de votre site Web.
· Les utilisateurs sont plus susceptibles de cliquer sur un lien si le titre correspond à leur recherche. Choisissez pour vos titres de page des termes correspondant au contenu de vos documents.
· Utilisez une métabalise ‘descriptive’ et écrivez cette description avec soin et précision. Après le titre, cette description devient l’appât le plus important pour les utilisateurs. Assurez-vous que le titre du document et sa description attirent l’attention de l’utilisateur tout en correspondant au contenu de votre site.


· Utilisez une métabalise ‘mots-clés’ pour énumérer ces mots-clés pour chaque page de votre site. Utilisez des listes distinctes de mots-clés reliées à chaque page spécifique. N’utilisez pas un ensemble global de mots-clés pour tout le site.


· Conservez le texte et les liens pertinents en langage hypertexte HTML. L’encodage de votre texte à l’intérieur de graphiques ou de cartes-images peut empêcher les moteurs de recherche de trouver le texte ou de suivre les liens allant vers d’autres pages sur votre site.


· L’ajout d’un plan de site HTML ou XML, accompagné d’un lien vers votre page d’accueil, peut aider à s’assurer que toutes vos pages sont scrutées par notre inforobot.


· Utilisez la commande ALT avec tous vos graphiques, ce qui améliorera la visibilité du contenu textuel de votre page pour les recherches. Cela rendra aussi votre page plus accessible pour les fureteurs qui utilisent seulement le texte et pour les visiteurs souffrant d’une déficience visuelle.
· Communiquez avec les webmestres de sites semblables et autres fournisseurs de contenu pertinent afin d’augmenter le nombre de liens vers votre site. Veuillez noter que les liens de sites similaires au vôtre, ou de sites dont les visiteurs pourraient être intéressés au vôtre, améliorera votre classement au niveau des moteurs de recherche. Toutefois, la construction d’une ‘ferme de liens’ pour créer des liens entre des pages sans rapport les unes aux autres, afin d’augmenter le comptage des liens de page, n’aidera aucunement votre site. L’utilisation des ces ‘fermes de liens’ contrevient aux directives de Yahoo! pour les sites (Site Guidelines ) et n’améliorera pas votre rang de page.


Pour en savoir plus long sur le sujet, veuillez suivre ce lien pour lire nos directives concernant les sites : Site Guidelines .
Pour obtenir plus d’information sur les moyens d’améliorer la qualité et le référencement de votre site Web, veuillez consulter la catégorie ‘Search Engine Optimization’ dans le répertoire Yahoo! Yahoo! Directory .
Des sites comme le Webmaster World proposent des forums de discussion qui peuvent offrir de précieux indices et conseils sur les principes de la recherche informatique. Veuillez toutefois noter que les sites dans la catégorie Search Engine Optimization des répertoires Yahoo! sont administrés par des tiers indépendants, et ne sont ni sous la tutelle, ni sous la supervision de Yahoo.

Qu’est-ce que PageRank?

Webmaster - 18/ june / 2010

PageRank est l’algorithme utilisé par le moteur de recherche Google, formulé à l’origine par Sergey Brin et Larry Page dans leur article The Anatomy of a Large-Scale Hypertextual Web Search Engine. (Note du traducteur: si on en croit le reste du texte, il s’agirait plutôt d’un des algorithmes utilisés par Google. Il y en a d’autres.)
Il est basé sur la prémisse, prévalant dans les milieux académiques, que l’importance d’un article de recherche peut être évalué en fonction du nombre de citations sur ce travail qui proviennent d’autres articles de recherche. Brin et Page ont simplement transféré cette prémisse à son équivalent informatique: l’importance d’une page Web peut être jaugée par le nombre d’hyperliens dirigés vers elle qui proviennent d’autres sites Web.
Et quel est cet algorithme?

Il peut sembler redoutable aux non-mathématiciens, mais l’algorithme de PageRank est en fait élégamment simple et se calcule comme suit:


· PR(A) = (1-d) + d (PR(T1)/C(T1) + … + PR(Tn)/C(Tn))
PR(A) est le PageRank d’une page A


PR(T1) est le PageRank d’une page T1


C(T1) est le nombre de liens sortants en provenance de la page T1
d est le facteur d’amortissement (damping) dont la portée 0 < d < 1, est habituellement calibrée à 0.85


Le PageRank d’une page Web est donc calculé en tant que somme des rangs de page de tous les liens de pages Web reliées à elle (ses liens arrivants), divisé par le nombre de liens sur chacune de ces pages (ses liens sortants).
(Note du traducteur: Je préfère l’expression ‘liens arrivants’ à ‘liens entrants’ pour traduire ‘incoming links’, car ‘liens entrants’ est souvent utilisé pour traduire ‘backlinks’, comme une recherche sur Google le confirmera facilement.)
Et qu’est-ce que cela veut dire?
Du point de vue d’un gestionnaire de moteur de recherche, cela signifie qu’il existe deux façons pour PageRank d’influencer la position de votre page sur Google:
· Le nombre de liens arrivants. Évidemment, plus ils sont nombreux, mieux c’est. Mais l’algorithme nous révèle autre chose: aucun lien arrivant ne peut provoquer un effet négatif sur le PageRank de la page vers laquelle il pointe. Au pire, il n’aura simplement aucun effet.

· Le nombre de liens sortants sur la page qui pointe à votre page. Moins ils sont nombreux, mieux c’est. Intéressant n’est-ce pas? Cela signifie qu’entre deux pages reliées à vous et bénéficiant d’un PageRank équivalent, dont l’une aura, par exemple, une page avec 5 liens sortants et l’autre avec 10, vous obtiendrez deux fois plus d’augmentation de PageRank de la page contenant seulement 5 liens sortants.
À ce point, nous devons prendre un moment de recul pour déterminer l’importance de PageRank face à la position de votre page sur les résultats de recherche de Google.


Notre prochaine observation sur l’algorithme de PageRank est qu’il n’a absolument rien à voir avec la pertinence des termes de recherche demandés. Il est simplement une seule partie (bien qu’importante) de l’algorithme complet de Google pour déterminer le rang de pertinence.
Une bonne façon de voir PageRank est peut-être de le considérer comme un facteur multiplicateur, appliqué aux résultats de recherche de Google après que tous les autres calculs auront été complétés. L’algorithme de Google analyse d’abord la pertinence des pages dans son index par rapport aux termes demandés, et ensuite multiplie cette pertinence par PageRank pour produire une liste finale. Plus votre PageRank est élevé, plus votre classement dans les résultats le sera aussi, mais il reste quand même plusieurs autres facteurs reliés au positionnement des mots sur la page et qui doivent d’abord être considérés.


Mais alors, à quoi bon ce calculateur PageRank - si aucun lien arrivant ne peut nuire, je devrais certainement en obtenir le plus possible, peu importe le nombre de liens sortants sur sa page?


Pas tout à fait. L’algorithme de PageRank a été équilibré très habilement. Tout comme la conservation de l’énergie en physique s’équilibre avec chaque réaction, PageRank est aussi conservé avec chaque calcul. Par exemple, si une page avec un point de départ PageRank de 4 possède deux liens sortants, nous savons que le montant de PageRank par lequel il passe est également divisé entre tous ses liens sortants. En ce cas, 4 / 2 = 2 unités de PageRank qui passent à 2 pages séparées, et 2 + 2 = 4, donc le total de PageRank est préservé!


Note: Il est possible de trouver des scénarios où vous trouverez que le total de PageRank n’est pas conservé après un calcul. PageRank en lui-même est censé représenter une probabilité de distribution (probability distribution ) avec le PageRank individuel d’une page, qui représente la possibilité qu’un chercheur ‘navigue au hasard’ et tombe alors sur cette page. J’ai discuté plus profondément de ce concept sur le lien suivant (here ).
Sur une échelle bien plus large, en supposant que l’index de Google contient un milliard de pages, avec chacune un index de 1, le total PageRank sur toutes les pages équivaut à un milliard. De plus, à chaque fois que nous recalculons PageRank, peu importe les changements PageRank qui arrivent entre les pages individuelles, le total PageRank sur l’ensemble du milliard de pages totalisera toujours un milliard.


Premièrement, cela veut dire que même si nous ne pouvons pas changer le total PageRank sur l’ensemble des pages, nous pouvons influencer la distribution PageRank entre les pages individuelles, en reliant stratégiquement les pages à l’intérieur de notre site. Par exemple, nous pouvons souhaiter que la plupart de nos visiteurs accèdent à notre site par la page d’accueil. Nous voudrions alors que notre page d’accueil obtienne un PageRank plus élevé par rapport aux autres pages de notre site. Nous devrions aussi nous rappeler que l’ensemble PageRank d’une page est partagé et divisé également entre chacun des liens sortants d’une page. Nous voudrions donc conserver autant d’indices de PageRank combinés que possible à l’intérieur de notre propre site sans le partager avec d’autres sites externes, perdant ainsi son bénéfice. Cela signifie que nous voudrions que toute page avec beaucoup de liens externes (à savoir des liens avec les sites web d’autres personnes) ait un PageRank plus bas par rapport aux autres pages à l’intérieur de notre site pour minimiser le taux de PageRank ‘perdu’ au profit des autres sites. N’oubliez pas que, comme il a déjà été dit, ce PageRank est simplement un facteur multiplicateur appliqué après que les autres calculs de Google sur la pertinence aient été effectués. Nous voudrions alors que nos pages qui sont plus riches en mots-clés aient aussi un meilleur score sur PageRank.


Deuxièmement, si nous assumons que chaque nouvelle page sur l’index de Google commence sa vie avec un PageRank de 1, il existe une façon d’augmenter le PageRank combiné des pages de notre site - en augmentant le nombre de pages! Un site avec 10 pages commencera sa vie avec un indice PageRank combiné de 10, qui est ensuite redistribué à travers ses hyperliens. Un site avec 12 pages commencera donc avec un indice PageRank de 12. Nous pouvons donc améliorer le PageRank de l’ensemble de notre site en créant de nouveaux contenus (c’est-à-dire davantage de pages), et ensuite en contrôlant la distribution de cet indice PageRank combiné par l’implantation stratégique de liens internes entre les pages de notre site.


Et c’est là le but du ‘PageRank Calculator‘ - de créer un modèle à échelle réduite du site en incluant les liens entre les pages, pour voir l’effet que ce modèle aura sur la distribution PageRank.


Comment fonctionne le PageRank Calculator?


Au fond, c’est très simple. Commencez par taper le nombre de pages inter reliées que vous désirez analyser et frappez la clé ‘Submit’. J’ai limité ce nombre à seulement vingt pages pour ne pas trop surtaxer les ressources du serveur. Mais même là, nous pourrions obtenir une indication raisonnable pour savoir comment les liens stratégiques peuvent affecter la distribution PageRank.


Ensuite, pour faciliter toute référence future une fois les calculs effectués, fournissez une étiquette pour chaque page (par exemple, page d’accueil, page de liens, page contactez-nous, etc) et tapez ‘Submit’ une autre fois.


Finalement, utilisez les boîtes à liste pour choisir quelle page sera reliée à telle page, et cela pour chaque page. Vous pouvez utiliser les touches ‘CTRL’ et ‘SHIFT’ pour surligner des sélections multiples.


Vous pouvez aussi utiliser cet écran pour changer les indices PageRank initiaux de chaque page. Par exemple, si une de vos pages est censée représenter Yahoo, vous pouvez souhaiter élever son indice PageRank initial à, disons, 3. Toutefois, à dire vrai, partir avec PageRank n’a aucun rapport avec sa valeur calculée finale. En d’autres mots, même si une page partait avec un indice PageRank de 100, après plusieurs itérations de l’équation (voir ci-dessous), le calcul final de PageRank convergera vers la même valeur qu’elle aurait obtenue si elle était partie avec un indice PageRank de seulement 1!


Finalement, vous pouvez vous amuser avec le facteur d’amortissement ‘d’, dont la valeur par défaut est 0.85, telle qu’elle a été attribuée dans le travail de recherche de Brin et Page.


Pourquoi y a-t-il 20 lignes de résultats?


Avez-vous déjà entendu parler du ‘Google Dance’? Vous pouvez en voir la démonstration en consultant les différents ensembles de résultats produits sur www.google.com, www2.google.com et www3.google.com. Si vous étudiez attentivement ces résultats, vous pourrez constater qu’ils changent imperceptiblement de jour en jour, et en particulier durant la période où Google met son index à jour, une fois par mois.
Une des explications pour cette ‘danse’ apparente est que Google ne se contente pas simplement de calculer une fois le PageRank pour chaque page. Après avoir calculé le PageRank une première fois, il remettra les PageRanks résultantes dans l’algorithme de PageRank et calculera à nouveau. Google répètera ce processus d’itération plusieurs fois avant que les résultats se stabilisent à leurs ‘véritables’ valeurs. Une fois complétés, les résultats apparaîtront sur le domaine ‘officiel’ www.google.com


(N.B.: Pendant que Google met son index à jour, ces mises à jour se produisent à différents moments sur les sites variés de ses centres d’information. Pour une explication plus approfondie du ‘Google Dance’, consultez le Google Dance Viewer.)


Le nombre d’itérations par défaut du ‘PageRank Calculator est de 20. Mais vous pouvez augmenter ce chiffre si vous le désirez. Pour un modèle d’environ 20 pages, 20 itérations suffisent pour voir les PageRanks s’ajuster à une seule ‘véritable’ valeur. Google en fait presque certainement bien davantage.


Lectures supplémentaires


Toute personne voulant en savoir plus long sur PageRank, mais qui est effrayée par toutes ces équations, devrait lire PageRank Uncovered par Chris Ridings. Il utilise des schémas pour illustrer l’effet de PageRank à chaque itération. Je tiens à remercier Chris pour son article extrêmement stimulant. Plusieurs des observations décrites ici ont été auparavant faites par Chris dans cet article et son prédécesseur, PageRank Explained.
Google a récemment effectué une demande de brevet aux États-Unis qui révèle grandement comment ils classent votre site Web. Vous n’auriez jamais pu deviner certains moyens utilisés ..

.
Pour combien d’années avez-vous enregistré votre nom de domaine?

Webmaster - 18/ june / 2010


Si c’était seulement pour un an, cela pourrait vous désavantager aux yeux de Google.
Pourquoi?


Parce que la plupart des sites de pourriels n’enregistrent un nom de domaine que pour un an. Un nom de domaine enregistré pour une période plus longue implique que le propriétaire entretient peut-être un intérêt légitime et sérieux pour son site Web.
C’est là seulement un des facteurs inhabituels qui sont possiblement considérés par Google pour l’indexage et le rang d’un site Web. Des facteurs pour lesquels on n’aurait jamais pensé dans certains cas.
Comment puis-je le savoir?


Le 31 mars 2005, Google a dévoilé publiquement le contenu de sa demande de brevet aux États-Unis, numéroté 20050071741.
Plusieurs critères de classement secrets du géant de la recherche y sont révélés, ce qui en rend la lecture très intéressante. Vous devriez le lire si vous désirez sérieusement améliorer votre rang chez Google, car pour lui, les jours des pourriels sont comptés. Avec ce brevet, ils révèlent à quel point ils veulent frapper ce genre de site. Vous ne voulez pas être pris dans la tourmente.
Voici maintenant quelques faits concrets. Je recommande que vous marquiez cette page d’un signet dès maintenant. Il vous sera utile à chaque fois que vous optimiserez un nouveau site.


• Liens.
On sait depuis longtemps que Google s’appuie fortement sur les liens arrivants pertinents pour établir le rang d’un site. Mais maintenant, ils expliquent exactement comment ils s’y prennent.


En plus du nombre, de la qualité et du texte conducteur d’un lien, Google semble aussi prendre en considération des facteurs historiques. Apparemment, son bac à sable (sandbox) ou délai de vieillissement commence son compte à rebours à la minute où des liens vers un nouveau site sont découverts.


Google enregistre la découverte d’un lien, ses changements dans le temps, la vitesse à laquelle un site accumule les liens et la durée de vie d’un lien.
Gardez à l’esprit que, pour un moteur de recherche, l’acquisition rapide de liens puisse être une indication forte d’un site de pourriels potentiel.
Les jours des pages remplies de liens sont maintenant révolus. Vous devez accroître lentement votre liste de liens afin d’éviter d’être mal vu, et choisissez prudemment les personnes avec qui vous échangez des liens. Il n’est plus recommandé d’acheter des centaines de liens à la fois, ou autres tactiques malhonnêtes.


PageRank est maintenant très précieux.
Le texte conducteur de vos liens devrait varier d’un à l’autre, mais demeurer quand même compatible avec le contenu de votre site. N’utilisez plus vos mots-clés principaux pour tous vos nouveaux échanges de liens. Cela revient à du ‘pourriel’ conducteur. Variez-les plutôt autour de vos 5 à 10 mots-clés préférés.
Les échanges de liens sont encore très importants, mais vous devez les utiliser d’une manière conforme à l’éthique. Car sinon, si vous vous faites prendre, vous pourriez être banni durant plusieurs mois. En plus, votre hôte et votre Protocole Internet peuvent également être enregistrés sur la liste noire.


En un mot, allez-y ‘doucement’. Chercher à améliorer la qualité de vos liens, plutôt que leur quantité, vous sera plus bénéfique à court terme et fort probablement à long terme aussi.


• Les taux de clics publicitaires (TDCP) sur un site.
Les TDCP peuvent maintenant être surveillés par le biais de la mémoire cache, les dossiers temporaires, les mises en signet, et les liens favoris, au moyen de la barre d’outils de Google ou des outils du bureau. Plusieurs personnes se doutaient depuis un certain temps que les sites ayant un bon TDCP étaient récompensés par un meilleur classement. La principale source de revenus de Google, Adwords, fonctionne de manière similaire.
Les TDCP sont surveillés pour voir si des contenus récents ou anciens sont préférés dans les résultats de recherche.
Les TDCP sont également analysés pour voir s’ils augmentent ou diminuent selon les tendances ou les saisons.
• Les modifications dans le classement des pages sont enregistrées et surveillées.
• La circulation sur une page Web est enregistrée et surveillée en regard du temps.
• Le rang des sites peut être classé selon la saison. Par exemple, un site de ski peut être classé plus haut l’hiver que l’été. Google peut surveiller et classer les pages en enregistrant les variations de TDCP selon la saison.
• Les mises en signet et les favoris pourraient être surveillés pour voir s’ils changent, sont ajoutés ou supprimés.
• Le comportement général de l’utilisateur pourrait être surveillé.
Puisque Google est capable de retracer la circulation sur votre site, vous devriez surveiller attentivement le petit nombre de navigateurs qui reviennent sur votre site au moyen du moteur de recherche. (Note du traducteur: je ne suis pas sûr de ma traduction pour la dernière partie de cette phrase. L’original se lit : As Google is capable of tracking traffic to your site you should closely monitor the small amount of copy returned in search results.) Idéalement, vous voudrez motiver vos visiteurs à cette action pour augmenter votre TDCP.
Les clics qui retournent aux résultats de recherche après avoir visité votre site sont également répertoriés. Faites en sorte que votre site soit aussi ‘collant’ que possible pour garder vos visiteurs plus longtemps. Comme je l’ai déjà mentionné plus haut, il serait utile que vos visiteurs mettent votre site en signet.
• Le nombre de pages mises à jour et la fréquence de ces mises à jour sont surveillées, tout comme le nombre de pages.
Les mises à jour massives contenant des centaines de dossiers pourront vous rendre suspect.
D’un autre côté, de petites mises à jour peu nombreuses pourraient faire dégringoler votre rang — à moins que votre TDCP soit bon. Une page ancienne bénéficiant d’une bonne circulation peut se défendre sans avoir besoin d’une mise à jour. Ne faites pas de mise à jour simplement pour le principe.


Un contenu récent n’est pas toujours nécessaire. Tout dépend de votre clientèle. Si l’information contenue dans vos pages ne devient pas désuète, une mise à jour peut s’avérer superflue. Mais si, par exemple, votre marché est basé sur des nouvelles, des changements réguliers s’imposent. Généralement, des modifications n’impliquent pas nécessairement un nouveau contenu. Vous pourriez simplement présenter le même contenu d’une nouvelle manière.


Un autre indice que Google sévit réellement contre les pourriels se trouve clairement dans le passage suivant, extrait de leur brevet. On y fait référence à un rapide changement de cap survenant dans plusieurs pages.


Voici la citation -
« Une modification significative dans le temps sur l’ensemble des sujets associés à un document peut indiquer que le document a changé de propriétaire et que les indicateurs passés du document, tel que le classement, le texte conducteur, etc. ne sont plus dignes de confiance.
De même, une crête (ou hausse subite) dans le nombre de sujets pourrait révéler la présence de pourriels. Par exemple, si un document particulier est associé à un ensemble d’un ou de plusieurs sujets sur ce qui peut être considéré un laps de temps ’stable’, et que tout à coup une crête se produise dans le nombre de sujets associés au document, cela peut révéler que le document est devenu une ‘porte d’entrée’.
Un autre indice peut inclure la disparition soudaine des sujets originaux associés au document. Si l’une ou l’autre de ces situations est détectée, [Google] pourrait alors rétrograder le rang d’un tel document et/ou des liens, textes conducteurs, ou autres informations associées au document. »


Il faut également prendre garde à ce qui suit:-
• Les changements dans le nombre de mots-clés sont surveillés et enregistrés, tout comme les modifications du texte conducteur.
• L’adresse du propriétaire du nom de domaine est prise en considération, probablement pour aider dans les résultats de recherche locaux.
• La cohérence des détails de contact techniques et administratifs est vérifiée, car ils sont souvent falsifiés pour les domaines de pourriels.
• Le Protocole Internet de votre hôte. Si vous êtes sur un serveur partagé, il est possible qu’une autre personne sur ce serveur utilise des tactiques malhonnêtes ou des pourriels. Si c’est le cas, votre site en souffrira puisque vous partagez le même protocole Internet.
J’ai l’impression que Google a beaucoup appris de ‘l’attaque’ de pourriels qu’il a subie en 2004. Et il est déterminé à les éliminer de ses résultats de recherche.


Alors, que pouvez-vous faire?


De nombreuses données doivent être intégrées et prises en considération. Mais vous ne pouvez pas commettre de grosses erreurs avec votre référencement si vous essayez de faire grandir votre site aussi organiquement que possible.
Si vous savez ce que vous faites, vous pouvez prendre des raccourcis. Continuez vos échanges de liens, mais considérez soigneusement chaque site et s’il y a lieu ralentissez votre collecte. Variez votre texte conducteur. Ajoutez régulièrement de petites quantités de contenu de bonne qualité à votre site. Vérifiez votre rang au niveau des moteurs de recherche. Éditez votre site de façon à inclure un appel à vos visiteurs pour qu’ils prennent des actions concrètes, comme mettre votre site en signet. Rendez votre site plus ‘collant’ afin d’inciter vos visiteurs à rester plus longtemps. Oh, et enregistrez de nouveaux noms de domaines pour au moins deux ans.


Avant tout, n’oubliez pas de vous référer d’abord à l’information qui précède. Elle pourrait simplement vous épargner des mois de misère, si votre site est banni ou que ses activités sont restreintes.


En résumé, gardez un sens de l’éthique et vous ne pourrez pas vous tromper.

 

 Votre site Internet, c’est également votre carte de visite !

Shanny Fournier, Vice-Président & Directeur Général

sf@ultimatummedia.com

 www.ultimatummedia.com