200 critères

  1. Age du domaine
    L’ancienneté d’un site joue en sa faveur. Pour en tirer encore un meilleur parti, conservez la thématique tout au long de sa vie du site, ajoutez du contenu et faites des mises à jour de vos meilleurs contenus.
    2. Exact Match Domain
    L’exact Match Domain a longtemps été un outil permettant de positionner un site sans trop d’effort sur son l’expression clé correspondant exactement à son nom de domaine (telephone-pas-cher.com par exemple). C’est beaucoup moins vrai depuis l’EMD update de Google en octobre 2012… sauf si votre site est considéré comme “qualitatif”.
    3. Contient des mots clés
    Même principe que l’EMD mais en – nettement – moins performant.
    Source : http://www.seomoz.org/article/search- ranking-factors#metrics
    4. Mots clés en premier
    Si vous devez placer des mots clés dans votre nom de domaine, positionnez-les en premier. Un (très) léger bonus pourra jouer en votre faveur.
    5. Mots clés dans le sous-domaine
    Même principe que pour les mots clés dans le domaine, mais avec encore moins de poids !
    6. Historique du domaine
    Moins le domaine a changé de propriétaire mieux c’est. Une certaine stabilité est préférables aux yeux des moteurs, qui y voient un signe (minime) de qualité.
    7. Enregistré pour longtemps
    Partant du principe que les spammeurs du web utilisent des domaines pour une durée courte, une réservation d’un domaine pour une longue durée est un signe de qualité.
    8. Whois non anonyme
    Pour un moteur de recherche (Google possède aussi un réseau social…), l’anonymat est suspect !
    Source : http://www.searchenginejournal.com/seo- question-do-whois-privacy-services-harm- seo/5874/#comments
    9. Propriétaire non pénalisé
    Si vous avez abusé à maintes reprises des faiblesses de Google et qu’il vous a détecté plusieurs fois, la fois suivante vous rendre aussi suspect !
  2. Extension adaptée
    Il existe deux types d’extensions : les génériques (.com, .net, .org, .travel…) qui ne sont pas
    rattachée à une zone géographique et les nationales (.fr, .co.uk, .be…) qui indique au moteur de recherche dans quel pays vous évoluez. Prenez soit une extension généraliste soit une du pays que vous visez. Dans le cas d’un site à vocation internationale, seul le générique est possible.
    Source : www.visibilitymagazine.com/revenews- com/ct-moore/international-seo–the-ins-and-outs-of- ranking-in-different-countries
    11. Pas de frame
    Les frames, cadres en français, sont une structure de site obsolète qui posait des problèmes aux moteurs. A ne pas confondre avec les iframes, acceptables pour intégrer des contenus vidéos par exemple. Un
    bon audit SEO doit vous mettre à l’amende sur ce point !
    12. Recours limité au flash
    Le flash permet des fonctionnalités que le html 5 commence tout juste à proposer. Pour ses avantages esthétiques, certains sites ont été réalisés intégralement en flash. C’est à proscrire car même si des techniques existent, le flash reste mal parcouru par les moteurs. Pour résumer, le flash c’est mal. Et quand c’est bien, c’est mal quand même.
    13. Pages accessibles par des liens
    Le robot des moteurs de recherche parcourent un site en allant de page en page grâce aux liens qui les relient. Donc si vous voulez leur faciliter la tâche, faites en sorte que toutes vos pages utiles soient accessibles en cliquant depuis la page d’accueil.
    14. Sitemap du site fourni
    Le plan de site est un fichier à créer et fournir aux moteurs pour leur permettre de trouver plus
    facilement les pages à indexer. Si certaines pages ne sont pas accessibles par des liens (par exemple des pages créées suite au remplissage d’un formulaire) le ou les plans de sites vont s’avérer utiles.
    15. Fraîcheur du sitemap
    Un plan de site doit aussi être à jour. Inutile de le rafraîchir chaque heure, mais une fois par semaine me paraît un bon rythme.
    16. Urls sans paramètre de session
    Les paramètres de session sont une technique obsolète pour identifier un visiteur et contrôler les accessibles. Malheureusement, ces paramètres perturbent le parcours des robots qui peuvent se trouver de nouvelles pages à chaque visite ce qui fait obstacle à leur bonne compréhension du site.
  3. Contenus lisibles par les robots
    Les robots des moteurs doivent pouvoir lire les contenus proposés. Ainsi si vous mettez dans vos textes dans des images, des vidéos ou du flash, vousprivez quasi totalement les robots du contenu de votre site.
    18. Présence d’un fichier robots.txt
    Un fichier robots.txt placé à la racine du site va donner aux moteurs de recherche des directives sur ce qu’ils doivent indexer ou non. C’est un signe de qualité et la possibilité d’éliminer des répertoires entiers à ne pas visiter (back office par exemple).
    Attention, cela n’empêche pas un utilisateur malicieux de voir quels accès vous interdisez dans votre fichier robots.txt et d’y aller lui-même !
    19. Contenus pdf sélectionnables
    Si votre site présente une partie de ses contenus sous formes de fichiers pdf, il est préférable que le contenus de ces derniers soit lisible. Pour valider cela, vérifier que vous pouvez copier / coller le texte. Attention à ne pas doublonner vos contenus par vos pdf. Chaque contenu doit être différent (sinon désindexez les pdf en contenu dupliqué)
    20. Thématique des pages émettrices
    Idéalement un lien d’une page doit envoyer vers une page en relation avec la thématique. C’est un des principes de base des cocons sémantiques, pour les puristes.
    21. Ancres descriptives
    Sur les liens internes, vous devriez ancrer sur des expressions clés si possible. Les ancres génériques (“cliquez ici”) sont moins performantes.
    Source: http://googlewebmastercentral.blogspot.fr/2008/1 0/importance-of-link-architecture.html
    22. Volume de liens internes pointant vers la page
    Les liens internes sont une façon de prioriser vos pages et Google en tient compte.
    23. Thématique des liens sortants
    Aux yeux des moteurs de recherche, un article utile doit indiquer des sources et/ou vous proposez d’autres contenus sur le même sujet. Je pense même que faire un lien vers des concurrents peut vous aider… Mais les aidera aussi !
    24. Nombre de liens sortants
    Trop de liens sortants est suspect. Quelle limite reste acceptable ? Difficile à dire. Pour moi, c’est lié à la qualité du contenu. Le ratio volume de texte sur lien doit rester raisonnable. Si vous avez une bonne raison de faire beaucoup de liens sortants, passez- les en nofollow (solution 0 risque) ou paginez votre contenu.
  4. Notoriété des liens sortants
    Pointez vos liens sortants vers des sources de qualité. Si vous manquez d’inspiration, pointez aussi vers wikipedia, youtube et des réseaux sociaux.
    Source : http://www.seomoz.org/blog/external- linking-good-for-seo-whiteboard-friday
    26. Site liés non douteux
    Ne pointez pas vers des sites avec des virus ou dans des thématiques honnies par Google (pornographie, médicaments bleus, etc). Si vous devez le faire, utilisez du nofollow, cela lèvera toute ambiguïté
    27. Pas de contenu dupliqué interne
    L’écueil majeur des sites e-commerce. Vous vendez des produits très proches, vous utilisez donc les mêmes descriptifs… Évitez cela, débrouillez vous pour différencier le contenu des pages en question, quitte à paraphraser. Oui, c’est du boulot.
    28. Conformité W3C
    Les puristes jugent cela assez important, pas moi, simplement parce que le respect d’une norme technique n’implique pas nécessairement que le contenu soit qualitatif. Focalisez-vous sur la rapidité du serveur et l’expérience client. Le W3C attendra.
    29. Longueur des urls profondes
    Évitez les urls à rallonge en les truffant de mots clés. C’est une technique obsolète. Utilisez l’url rewriting, oui, pour faciliter la lecture des urls par le visiteur (même si les navigateurs tendent à les masquer…) et faites court et significatif. Supprimez notamment les stop words (“à”, “de”, etc.) qui alourdissement. Source : Search Quality Rating Guidelines Version 1.0 November 2, 2012, page 40
    Search Quality Rating Guidelines
    Note : ce document provient des services des Google. Il est (était ?) fourni aux employés chargés d’évaluer manuellement la qualité d’un site. Ces personnes appelées “Quality Raters” sont au final ceux qui vont pallier les manques de l’algorithme de Google. Dans la mesure où ces ressources sont limitées, Google les emploie sur des requêtes à fort trafic et à fort risque de spam.
    30. Pages peu profondes
    Comptez le nombre de slashs (“/”) après votre nom de domaine. Au delà de trois ou quatre, vous êtes allé trop loin ! (prenez un autre expert SEO, il aura probablement un point de vue différent…)
  5. Urls en sous-répertoires
    Consigne officielle de Google, si un internaute coupe votre url profonde après un slash, la page ne doit pas renvoyer une erreur. Dans l’exemple d’un site e- commerce avec des catégories et sous-catégories, cela doit le renvoyer vers la catégorie supérieure. En général c’est désormais supporté nativement par les logiciels comme magento ou prestashop (le référencement de sites e-commerce pose souvent des difficultés spécifiques).
    Note : la vidéo ci-dessous traite plus spécifiquement du formatage des urls profondes.
    32. Usage des microformats
    Une vraie priorité ! Foncez sur schema.org et bossez le sujet. Jetez ensuite un coup d’oeil vers les plugins ad hoc et mettez cela en place. Le but est de qualifier votre contenu pour en faciliter la mise en base de données et sa restitution dans les résultats de recherches. Gros signe de qualité dont l’importance va aller croissante. Sans compter les affichages sympathiques dans les résultats de recherche !
    Pour aller plus loin : lisez mon (court) post sur le sujet : Optimiser son référencement naturel avec les
    rich snippets.
    33. IP géolocalisée
    Si vous avez la possibilité d’héberger votre site sur une adresse IP géolocalisée dans le pays où se trouve votre clientèle, c’est mieux. Quid du site international ? Faut-il une IP par pays ? Non, à mes yeux, l’investissement que cela représente me paraît disproportionné au regard du bénéfice attendu en terme de référencement naturel…
    34. Meta Robot en index, follow
    La base : autoriser les robots à visiter et indexer votre site. Vous trouvez cela trivial ? J’ai vu un site à 150 000 euros qui après développement et lancement officiel n’avait pas corrigé ce point.
    Résultat, le site n’était pas indexé du tout !
    35. Déclaration Google Webmaster Tools
    Moins les “spammeurs” se donne la peine de faire quelque-chose, plus vous devez essayer de le faire pour votre site. S’inscrire à Google Webmaster Tools (GWT pour les intimes) va non seulement mettre votre site sur Google plus vite mais surtout va montrer à Google que vous prenez au sérieux la gestion de votre site. En prime vous aurez de précieuses informations sur votre positionnement de site.
    36. Google Analytics
    Au delà de l’aspect quasi vital de suivre vos statistiques de trafic, vous envoyez à Google un signal sur votre volonté de suivre votre site.
    37. Langues correctement séparées
    Si vous avez un site multilingue, assurez-vous que les langues sont bien repérées dans le head de vos pages. Un robot qui “hésite” prend souvent la décision de ne pas classer correctement une page.
    Source : http://www.stateofdigital.com/factors-for- international-seo/
  6. Langues repérées par norme IANA
    La norme IANA vous précise comment chaque langue doit être repérée. Évident ? Oui, mais ce serait
    d’autant plus bête de ne pas jouer le jeu !
    39. Balise canonical
    L’arme #1 anti duplicate content. Vous indiquez aux robots quelle version de la page ils doivent utiliser… Et donc celles qui ne sont pas utiles. Encore un signe de qualité on-site !
    40. Balise link rel prev/next
    Dans le cas de longs articles, vous pourriez avoir
    envie de paginer (ce qui a pour effet d’augmenter votre nombre de pages vues pour un même article, utile pour des sites dont le modèle économique est la publicité en display). Google a aussi prévu cela et vous donne les consignes ad hoc. En vidéo s’il vous plaît !
    Source: https://support.google.com/webmasters/answer/16 63744?hl=fr
    41. Balise alt des images
    A l’origine la balise alt sert à améliorer l’accessibilité des sites aux personnes déficientes visuellement (leur navigateur “lit” le alt des images). Évidemment le référenceur SEO de base a encore vu là une
    occasion de mettre des mots clés… Et c’est toujours d’actualité. Sauf qu’il faut le faire sans excès : un peu de mots clé mais surtout une description pertinente, qui vous évitera le keyword stuffing.
    42. Nom des fichiers image
    L’idéal est de nommer les fichiers images avec des noms explicites. Img001.jpg est moins utile que chat-chevauchant-licorne.jpg. (Je serai curieux de voir une telle image… Tiens en voilà une. C’est fantastique Internet.)
    43. Titre de la page en rapport avecle contenu
    La base du SEO, la balise title. Toujours incontournable, elle devient plus complexe à gérer. Ici encore, privilégiez d’abord le visiteur avec un titre accrocheur. Si vous réussissez à mettre des mots clés c’est encore mieux. L’important restant un titre en accord avec le contenu de la page. Le fait de marquer partout mp3 sur site qui ne traiterait que de photographie serait pour le moins mal vu.
  7. Balises titre différentes
    D’une page à l’autre, vous devez varier les titres. Méthode 1 : le même titre partout. C’est non.
    N’insistez pas. Méthode 2 : des titres automatisés. C’est acceptable si vous faites un minimum d’effort pour rendre les choses naturelles. Méthode 3 : un titre 100% manuel. Le top mais pas toujours réaliste sur un site e-commerce avec 20000 produits (par défaut le titre est souvent le nom du produit, repris en général en balise h1, c’est moyen mais acceptable si vous n’avez pas le temps de faire mieux)
    45. Mots clés en gras
    Le gras indique une mise en avant. Les expressions en gras auront donc un poids perçu par le moteur comme plus important.
    46. Mots clés en italique
    L’italique met en évidence aussi un contenu (souvent un citation ou une référence). C’est un bon moyen de démarquer vos expressions clés… tant que vous n’abusez pas ! Vous octroyez ainsi un – léger – bonus à ce contenu.
    47. Meta descriptions différentes
    Tout comme les titres, vos meta descriptions doivent être différentes d’une page à l’autre, même si vous avez l’impression que Google les réécrit pour vous, c’est un critère de qualité incontournable.
    48. Mots clés dans la meta description
    Inutile d’un strict point de vue optimisation de site web en SEO. Les moteurs ont clairement indiqué depuis longtemps ne pas prendre en compte ce critère. Certes, mais dans les résultats de recherche,
    les mots clés tapés par l’internaute présent dans votre meta description sont mis en gras, ce qui attire le clic et vous bonifie pour taux de clic plus élevé. Un peu alambiqué, mais réel.
    49. Fraîcheur du contenu
    Il existe même une option de recherche directement dans Google pour ne visualiser que les résultats les plus frais. En résumé, un contenu récent est mieux apprécié qu’un contenu ancien car potentiellement obsolète. Pour relancer un vieil article, n’hésitez pas à la mettre à jour en profondeur, vous bénéficierez de l’ancienneté et de la fraîcheur !
    Source: http://googleblog.blogspot.com/2010/06/our-new-search-index-caffeine.html
    50. Taille des mises à jour
    Une mise à jour de page se doit d’être suffisamment consistante. Un mot de changé ne suffira évidemment pas. Quelle est la bonne dose ? Difficile de le dire, mais je pense qu’un tiers peut être représentatif.
  8. Fréquence de mise à jour
    Un bon contenu est frais mais aussi régulièrement augmenté.
    52. Orthographe
    Oui, l’orthographe d’une page doit faire partie des critères d’évaluation, pour au moins deux raisons :
    1) une orthographe déplorable nuit à l’expérience utilisateur. 2) Cela doit insinuer un doute sur le caractère qualitatif de la chose. Évidemment, une faute ou coquille de temps à autre ne va pas remettre en cause la page (sinon je serai bien embêté !). A l’époque de gloire des skyblogs, ils ne remontaient pas dans les pages de résultats alors qu’il y avait plusieurs millions de pages de contenu unique… mais bourré de fautes.
    Allez, pour le fun, un exemple assez musclé de ce que j’évoque ci-dessus. (Je suis allé le chercher en page 10 de Google…)
    53. Pas de contenu dupliqué externe
    Un point fondamental. Si votre contenu existe déjà ailleurs sur le web, votre contenu sera ignoré (mis dans “l’index secondaire” de Google, ce qui revient au même). Votre contenu doit être unique. Si vous devez reprendre quelque-chose mot pour mot, commentez-le pour diluer la copie.
    54. Pas de contenu dupliqué interne
    Éviter la multiplication des pages ayant une url
    différente mais un contenu identique. C’est souvent délicat car les sources de contenu dupliqué interne sont nombreuses (je pense navigation à facette et paramètres d’urls). Deux solutions : Google Webmaster Tools et la balise canonical.
    55. Usage d’images
    Un contenu un minimum travaillé contient forcément des images. Les études sur l’engagement sur Twitter montrent ainsi qu’un tweet avec une image améliore le taux de retweete. Ce qui est vrai sur Twitter l’est aussi probablement ailleurs et doit être utilisé comme indicateur par Google.
    Source : https://blog.twitter.com/2014/what-fuels-a- tweets-engagement
    56. Usage de vidéos
    L’usage d’images dans un contenu en renforce l’intérêt. Par extension on peut penser qu’il en va de même pour la vidéo. Sans compter que Google gagne de l’argent avec la publicité sur youtube, premier support de vidéo. Donc privilégier la vidéo c’est indirectement faire du chiffre d’affaires. Il n’y a pas de petits profits (que des gros en l’occurrence)
    57. Vidéos optimisées (VSEO)
    Tant qu’à utiliser de la vidéo, autant bien l’optimiser Cette branche du SEO, appelée VSEO, permet de

gagner de la visibilité dans les résultats de recherche. Certes les vidéos n’occupent que 1 à 2 résultats, mais elles sont fortement mises en avant. Donc jouez cette carte, le optimiser le référencement naturel de vidéos n’est pas très complexe : taggez proprement, décrivez en 300 mots minium avec des mots clés. Et des vues. C’est bien aussi des vues (au moins pour l’ego).
58. Absence de liens cassés
Un lien cassé est un indicateur de mauvais entretien d’un site. Surveillez cela, vous donnerez une bonne image de votre site (à Google et vos visiteurs). Pour WordPress le plugin Broken Link Checker scanne vos contenus et vous alerte. Sinon, des outils comme Xenu vont aussi vous aider.
59. Niveau de lecture
Une approche linguistique d’un texte permet de déterminer le niveau de celui-ci, à savoir s’il est destiné à des experts ou au contraire à des débutants (pour les curieux, testez le logiciel “Cordial”). Il n’est pas impossible que Google mette en relation des requêtes d’un certain niveau avec des contenus adaptés.
60. Ancienneté du contenu mis à jour
Un contenu âgé présente un risque d’obsolescence Mais s’il le bon goût d’être actualisé sur une base régulière, il bénéficie d’une valuation basée sur son ancienneté et sur le fait qu’il est mis à jour. Il reste à déterminer quel part d’un contenu doit être mis à jour pour être perçu comme rafraîchi !
61. Présence de sources citées
Un bon auteur cite ses sources (autant que possible
!). Cette règle élémentaire est aussi une façon de montrer la qualité d’un contenu.Donc si vous avez des infos que vous reprenez d’autres sites, n’hésitez pas à les lier. Je conseille même de mettre explicitement le mot “sources” pour clarifier la chose.
62. Pertinence des sources citées
Règle plutôt facile à suivre, si vous citez des sources, faites en sorte qu’elles soient pertinente. Faire un lien sortant vers une source discutable pourrait être mal perçu.
63. Fraicheur de la page sur certaines requêtes
La fameux “Query Deserve Freshness” ou QDF pour les intimes. L’idée est simple : sur certaines requêtes précises, l’internaute attend une information fraîche. Par exemple des résultats sportifs ou l’actualité.
Donc la fraîcheur de la page est impérative pour ces requêtes et les gros sites d’actualités sont crawlés plusieurs milliers de fois par jours.
Source : http://www.seomoz.org/blog/whiteboard- friday-query-deserves-freshness

  1. Contenu tout public
    Google fait toujours preuve d’une certaine pudeur voire pudibonderie. Si vous êtes sur des segments non pornographiques mais à risques (lingerie, sex toys, etc.), traquez les images qui pourraient vexer notre moteur de recherche. J’ai eu un débat avec l’équipe d’adwords pour un site de lingerie nous en étions arrivés à déterminer le degré de transparence pour qu’une poitrine passe du statut de dénudée à assez habillé (et classe le site en public averti plutôt qu’adultes seuls). Utilisez de petites masques aux endroits suspects. Oui, votre graphiste va être heureux.
    65. Fournir un contenu utile
    Oui, j’entends déjà les molles protestations de ceux qui sont arrivés jusque là. Comment définir “utile” ? Le guide interne pour les quality raters de Google (“examinateurs de la qualité”) indique clairement qu’un bon contenu doit avoir une valeur ajoutée pour le lecteur. Alors au boulot !
    66. Crédit des photos
    Marginal mais possiblement favorable, le fait de créditer les auteurs de photos montre une bonne volonté quant au respect des contenus.
    67. Modération des contenus utilisateurs
    Essentiel au moins dans l’optique de ne pas se faire spammer. Un commentaire un peu trop flatteur et pas assez précis ? Suspect. Dans le doute supprimez tous les liens sortants ou mettez les en nofollow.
    Sinon Google peut devenir méfiant sur votre capacité à maîtriser le contenu généré par les utilisateurs. A titre d’exemple un site dont j’avais la charge en référencement sur Google était basé sur un wordpress. Le client l’a laissé en validation automatique. 15 jours plus tard, 9000 commentaires spammy et le site qui avait dégagé de quelques pages !
    68. Présence de commentaires
    Une page qui reçoit des commentaires (produits ou posts de blogs) montre d’une certaine manière quelle intéresse les visiteurs. De ce fait elle doit percevoir un petit bonus.
    69. Avis clients certifiés
    Utiles bien au delà du référencement naturel sur Google, les témoignages clients (à équiper en micro données) basés sur des plateformes en lesquelles Google a confiance sont un vrai plus. Dans visuellemetn dans les résultats de recherche qu’en terme de qualité de l’offre. Incontournable en e- commerce, plutôt malin sur un site vitrine, mais plus délicats à implémenter.
    Ci-dessous un exemple pour Trustpilot, mais il existe aussi ekomi, etc.
  2. Mots clés dans le titre
    Aussi vieux que le web, mais toujours aussi utile. La balise titre joue un rôle central dans le SEO (et doit contenir les mots clés prioritaires) mais un peu au- delà. C’est elle qui est affichée en bleu dans les résultats, donc elle doit aussi servir de support à votre communication. Quant à sa longueur, Google a changé puisqu’il n’affiche qu’un certain nombre de pixels, le reste étant tronqué. Pour éviter cela, limitez-vous à environ 50 ou 60 caractères. Oui c’est court, donc soyez concis !
    71. Mots clés en début de titre
    La position des mots clés dans le titre n’est pas équitable : positionnez si possible les plus importants en premiers.
    72. Mots clés dans la meta description
    Disons-le de suite, la présence mots clés dans la balise meta description n’a pas de poids direct au sein de l’algorithme de Google. Simplement Si vos mots correspondent à ceux de l’internaute, ils seront mis en gras et attirerons plus facilement le clic. De là à faire de votre meta description une suite de mots clés, ce serait une erreur : soyez plus subtil que cela, c’est un des seuls éléments qui permettra à l’internaute de choisir s’il clique sur votre site dans les résultats de recherche.
    73. Mots clés dans la balise h1
    Tout comme le titre, le h1 a un poids élevé dans l’évaluation d’une page. Insérez quelques mots clés, mais pensez d’abord à votre lecteur. Attention, une unique balise h1 par page. Et par pitié, pas sur un logo comme je l’ai souvent vu !
    Pour aller plus loin : http://cbutterworth.com/do-h1- tags-still-help-seo/, une petite étude sur l’impact d’un h1 et des styles de celui-ci.
    74. Mots clés dans les balises Hx
    Sans avoir l’importance du h1, les balises h2 à h6 sont aussi des endroits où nicher des expressions clés issues de votre analyse sémantique Ces balises peuvent être utilisée plusieurs fois sur une même page. N’abusez pas de la longueur, on parle de titre, pas de paragraphes complets.
    75. Densité supérieure des mots clés
    Ce serpent de mer pour toute agence de référencement naturel n’est plus aussi vrai que par le passé. Il n’y a jamais eu de densité idéale, mais force est de constater que d’augmenter la fréquence des mots clés sur une page aide un peu. Gare à l’excès ! Au final je propose de varier avec des synonymes ou des mots du même champ lexical.
    Vous manquez d’inspiration ? Le générateur de mots clés Adwords peut vous aider.
    Ci-dessous le meilleur outil (gratuit !) pour analyser la densité, avec une exemple
    pour http://fr.wikipedia.org/wiki/Optimisation_pour_l es_moteurs_de_recherche.
    76. Richesse sémantique
    La richesse sémantique est le fait d’utiliser des expressions différentes appartenant à une même thématique. C’est assez différent de la vielle méthode qui consistait à marteler la même expression. La subtilité devient nécessaire.
    77. Mots clés dans les premiers mots
    Vous avez parfois vu ces petites phrases en haut des
    sites, au-dessus même du header ? Elle étaient là pour placer tout en haut de la page des mots clés. Marginal mais pas forcément une mauvaise idée, au moins sur la home uniquement.
    78. Présence de mots clés exacts
    C’est évident mais j’aime enfoncer des portes ouvertes, c’est moins douloureux : pour bien référencer son site sur des expressions précises, c’est mieux de mettre les mots clés en questions.
    79. Présence de mots clés proches
    J’ai déjà évoqué l’aspect sémantique dans l’usage de vos mots clés, je le redis ici : variez.
    80. Mots clés dans l’url
    A l’avènement de l’url rewriting, c’était la triplette du bourrin (avec le titre et le h1). Aujourd’hui, vu les abus constatés (urls à rallonges…), je pense que ce n’est pas vital. Utilisez-le mais surtout dans l’optique d’améliorer la lisibilité de vos urls pour un utilisateur.
    81. Longueur du contenu sur la page
    Certains se sont amusés à mettre en relation longueur d’un post de blog et position dans les résultats. Au final, 2500 mots semble être une bonne norme. Évidemment, c’est un résultat statistique.
    Mais l’idée de base est surtout que 100 ou 200 mots ne sont pas optimaux.
    Source : http://blog.serpiq.com/how-important-is- content-length-why-data-driven-seo-trumps-guru- opinions/
    82. Nombre de pages
    Je suis un fervent défenseur de cela. La taille d’un site (hors contenu dupliqué) vous aide. Pas forcément de manière directe mais je pense qu’il y a une corrélation entre nombre de pages et trafic naturel. Un site qui parle d’un sujet sur une page sera moins intéressant qu’un site qui se pose en bible sur le sujet. Pour aller plus loin, un e- commerçant qui propose 1000 références sur 30 marques recevra moins de trafic qu’un e- commerçant proposant 10 000 références sur 300 marques, la longue traîne jouant ici son rôle !
    L’analyse en français de cette étude: http://ludismedia.com/comment-attirer-plus-de-trafic-vers-votre-site-web/
  3. Pas de “shallow content”
    Le “shallow content” (contenu faible) se caractérise par un volume de texte faible, quelques dizaines de mots. C’est assez fréquent pour un site ecommerce de manquer d’inspiration pour décrire sa 638è coque iphone. Hélas, il faudrait avoir ce courage d’écrire plus, même si c’est particulièrement fastidieux (voire punitif).
    84. Fréquence d’ajout de contenu
    Un bon site vit, s’enrichit et s’actualise. Un site qui produit fréquemment du contenu retiendra l’attention des moteurs.
    85. Espaces publicitaires modérés
    Google vend de la publicité. Beaucoup. Mais il préconise aussi de ne pas aller trop loin dans leur affichage. Un peu de pub, ok, trop non. Et je ne parle pas des modalités d’intégration d’adsense. Ci-dessous un contre exemple… de chez Google…
    Avec 80% de pub (une page de test a priori. Source :https://twitter.com/dr_pete/status/45644684822435 0209/photo/1
    86. Contenu principal visible
    Oui, cela paraît évident mais le contenu utile doit être visible immédiatement. Cela paraît évident, mais c’est une recommandation écrite dans les GuideLines de Google.
    Source : Guidelines de Google
    87. Fil d’Ariane
    Le fil d’Ariane va aider votre visiteur à comprendre la structure de votre site, à remonter dans les catégories, bref l’aider. Je vois déjà ceux qui essaie
    d’y mettre des mots clés. N’en faites pas une priorité. Aidez votre visiteur, le reste, ici, est superflu.
    Ci-dessous : l’exemple de Decathlon.fr qui en plus a le bon goût d’être utilisable pour l’internaute perdu.
    Exemple empruntéà http://www.blogoergosum.com/36432-web- footprints-decathlon-fr-un-e-commerce-efficace
    88. Version mobile
    Aujourd’hui la part du mobile dans les recherches reste faible, mais elle grandit vite et les visiteurs s’agaceront bientôt d’un site non responsive. Prenez les devants, je pense que cela aidera d’une manière ou d’une autre à l’avenir.
  4. Fil RSS
    Le fil RSS permet à ceux qui le souhaitent de vous suivre. Un peu moins utile depuis Twitter ou autre, mais dans la mesure où c’est nativement intégré à la plupart des solutions open sources, mettez le en place.
    90. Favicon
    La favicon, c’est le détail qui va vous crédibiliser. A faire pour au moins développer votre marque.
    91. 404 personnalisée
    Ne vous leurrez pas, vous avez forcément des visiteurs qui y passeront. Alors soignez-les aussi. C’est Google qui le dit. Vous pouvez même jouer avec cette page (404 lemmings de http://www.romainbrasier.fr/404.php). Pour ceux qui se demandent si cela vaut le coup, il a encore 21 domaines qui pointent cette page uniquement. Bon ok, elle est en 404 😉
    92. Eléments tactiles de taille suffisante
    Avec le développement de la navigation sur tablettes et mobiles il faut absolument pense rà rendre les boutons cliquables faciles à utiliser (donc grands et bien visibles).
    93. Pas de plugin externe à installer
    Souvenez-vous des vidéos qu’il fallait charger avec un plugin realplayer. Beurk ? Donc évitez les contenus inaccessibles sans une installation complémentaire.
    Source: https://developers.google.com/speed/docs/insights/AvoidPlugins?hl=fr
    94. Temps de réponse du site
    S’il n’y en a qu’un qui doit vous obséder, c’est celui- là. Il est la conséquence de tous les autres mais c’est au final celui que perçoit réellement l’utilisateur. Le web doit être rapide, Google le dit clairement et fournit des outils ad hoc depuis des années. Ils ont même fait une vidéo. C’est pour dire. Pour les heureux webmasters de worpress, j’utilise WP- Rocket, un code français et j’en suis très content (et donc je vais leur faire un peu de pub. S’ils leur prenaient l’envie d’upgrader ma licence, je dis pas non…). De manière générale, une offre de référencement haut de gamme devrait toujours intégrer cet aspect du travail de SEO.
    Source: http://googlewebmastercentral.blogspot.com/2010
    /04/using-site-speed-in-web-search-ranking.html
    95. Dates d’expiration dans les entêtes
    Précisez des dates d’expiration dans les entêtes des pages. Soyez généreux, sauf si vous avez une bonne raison de penser que la page va être remise à jour très vite (ce qui dans les faits est très rare pour la très grande majorité des sites)
  5. Cache des ressources statiques
    Mettez en cache les ressources statiques (images, codes divers, etc)
    97. Réduire les requêtes DNS
    Chaque requête dns (la conversion d’un nom de domaine en IP) prend du temps. Limitez-les voire préchargez-les (“prefetch”).
    98. Minimiser les redirections
    Les redirections sont autant d’éléments à charger à nouveau. L’idée est d’éviter que la page A pointe en 301 vers B qui pointe en 301 vers C. Faites A vers C et B vers C, vous gagnez un saut.
    99. Eviter les requêtes en 404
    Si vous allez chercher des codes externes au site, assurez-vous qu’il se chargent bien. Une 404 coûte
    du temps.
    100. Combiner les fichiers javascript
    Au lieu de charger 10 fichiers javascript, pourquoi ne pas les fusionner en un seul ?
    101. Combiner les fichiers CSS
    Au lieu de charger 10 fichiers CSS, pourquoi ne pas les fusionner en un seul ?
    102. Utiliser les sprites CSS
    Les sprites CSS sont une seule image qui en contient plusieurs, on charge l’ensemble une fois pour toute et on extrait les images utiles aux bons endroits.
    103. Mettre les CSS en début
    Positionnez les CSS en début de page, cela évitera de la reconstruire dans le navigateur par la suite
    104. Mettre les scripts en fin
    Les scripts sont lourds et souvent peu utiles au chargement (sauf exception). Allez les chercher à la fin, quand le visiteur a déjà son contenu devant les yeux.
    105. Limiter document.write()
    Évitez d’utiliser cet outil, peu efficace en terme de rapidité.
    106. Limiter @import
    Évitez d’utiliser cet outil, peu efficace en terme de rapidité.
  6. Préférer les requêtes asynchrones
    Si vous pouvez décaler certaines requêtes faites le. Je pense par exemple au lazy loading, le fait de charger les contenus (images en priorité) sous la ligne de flottaison qu’à partir du moment où le visiteur les demande. C’est le cas par exemple des commentaires sur youtube (exemple sur la vidéo du Gangnam Style, qui a passé la barre de 2 000 000 000 de vues (!!).
    108. Paralléliser les requêtes
    Les navigateurs ne chargent en parallèle pour un même domaine qu’un certain nombre de requêtes. Pour contourner cela, utiliser des domaines (ou sous- domaines) différents. Ainsi, vous pourrez charger plus de ressources en parallèle. Cette technique s’appelle
    le “domain sharding”.
    (Voir le point 126 pour un test complet en image)
    109. Limiter la taille des entêtes
    Évitez les entêtes à rallonge. Réduisez le code à ce qui est utile.
    110. Limiter la taille des cookies
    Évitez les cookies trop lourds.
  7. Contenu statique depuis des domaines sans cookie

Si vous allez chercher du contenu sur un domaine qui essaie d’ipmlanter des cookies, c’est autant de temps de perdu.

  1. Compression Gzip

La compression Gzip est une compression sans perte. Donc vous ne faites pas un compromis. Par contre, cela permet de réduire considérablement la taille de ce qui transite par les tuyaux, eux aussi pouvant limiter la performance perçue.

  1. Supprimer les CSS inutiles

Si vous regardez ce qui sert réellement dans les cc, vous verriez que beaucoup de styles sont inutilisés. Si vous avez la possibilité de les éliminer, vous gagnerez du temps !

  1. Réduire la taille des CSS

Ici on parle surtout de “minification”, qui a pour but de supprimer les caractères inutiles d’un fichier. Les commentaires, espaces, retours à la ligne inutiles sont supprimés. On peut gagner quelques pour-cents de poids.

  1. Réduire la taille du Html

Minifier le html va permettre de gagner quelques millisecondes sur un chargement.

  1. Alléger le poids des images

Point essentiel, le poids des images : j’aime le png mais il pèse lourd. Réservez-le donc pour les cas où vous avez besoin de transparence. Pour tout le reste un jpeg compressé à 30% (c’est beaucoup soupire le photographe en moi) va considérablement réduire le poids de l’image. Par exemple, j’avais une image en png sur ma home qui pesait 800ko. Après conversion et compression en jpeg, on est à 80ko. Pour l’utilisateur, pas de différence visuelle notable.

  1. Images à la bonne taille

Si vous voyez une photo qui s’affiche comme à l’époque des modems 56k (les plus vieux comprendront) c’est souvent qu’à la base elle est en pleine résolution et que le navigateur la charge totalement en la redimensionnant à l’arrivée. Très mauvaise solution ! Mettez-les directement à la bonne taille.

  1. Une ressource = une seule url

Évitez d’aller chercher un même élément par

plusieurs urls différentes. A chaque fois la procédure est refaite intégralement. Méfiez-vous des urls avec seulement un paramètre différent, c’est considéré comme une url totalement différente.

  1. Règles CSS précises

Évitez des css trop générales. Soyez spécifiques avec des classes limitées à ce qui sert vraiment.

  1. Utiliser du CSS standard

N’ayez pas recours à du CSS non standard, il va aboutir à des erreurs d’affichage.

  1. Eviter les CSS inline

Le css inline est contraire à l’idée même de css où tout est regroupé. Sa réinterprétation prend du temps.

  1. Eviter les CSS appelé par

Appelez des css par l’intermédiaire de n’est pas efficace.

  1. Spécifier les dimensions des images

Spécifiez pour chaque image les dimensions auxquelles elle doit être affichée.

  1. Spécifier un charset

Indiquez dans le du fichier html le charset utilisé pour ne charger que les bons caractères.

  1. Réduire les requêtes http

Limitez le recours à des requêtes http superflues.

  1. Utiliser un CDN

Un CDN (Content Delivery Network) va permettre à votre visiteur de télécharger les ressources statiques (css, js, images, vidéos, etc) depuis des serveurs spécialement conçus pour. C’est plus rapide. Par ailleurs dans le cas de sites internationaux, vous pourrez utiliser des cdn proches de chez lui. Le temps de transfert sera alors plus faible.
En complément de ce qui a été vu avec le domain sharding, voici un test (vu sur : http://andrecheung.wordpress.com/2013/08/03/cdn
-and-then-domain-sharding/) :
1er chargement : sans cdn, sans sharding
2ème chargement : avec cdn, sans domain sharding 3ème chargement : avec cdn, avec domain sharding Evidemment la méthode luxe est optimale, mais le gain (le cas est issu d’un site international) maximal est surtout apporté par le CDN.

  1. Permettre la mise en cache d’Ajax

Si vous utilisez des scripts ajax, essayez de les mettre en cache.

  1. Requêtes GET pour Ajax

Si vous faites des requêtes en ajax, utilisez préférablement des requêtes GET.

  1. Réduire le nombre d’éléments DOM

Limitez les éléments DOM, c’est autant de temps gagné.

  1. Utiliser un favicon léger

Détail, certes, mais un favicon léger va permettre un mini gain de temps. Il n’y a pas de petit profit !

  1. Mettre en cache le favicon

Pendant que vous en êtes à la mise en cache, mettez- y aussi ce favicon 🙂

  1. E-Réputation

Google cherche absolument à analyser ce que d’autres pensent de vous. Les backlinks servent à cela, mais il est fort probables que d’autres signaux servent à faire cette évaluations. Parmi ces outils, l’analyse de votre e-réputation doit en faire partie. Surveillez ce qu’on dit de vous et corrigez le tir le cas échéant.
Source : http://moz.com/blog/how-negative- emotion-could-hurt-your-rankings

  1. Informations de contact

En e-commerce, c’est déjà une obligation légale. Sortez du bois, dites qui vous êtes, quelle est l’entreprise derrière votre activité. C’est rassurant pour vos visiteurs et probablement perçu comme signal positif par Google.

  1. Zéro malware

Évidemment des virus sur votre site sont très mal perçus par Google. Il réagit vite et fort. S’il est dans un bon, jour il vous envoie un avertissement dans le Google Webmaster Tools. Quoi qu’il arrive, il vous déclasse. Corrigez le problème et demandez un réexamen. Vos classements doivent revenir à l’identique. Utilisez l’outil Google Safe Browsing (exemple ci-dessous avec le site Google.com) pour analyser votre site. Attention, je ne le trouve pas toujours très cohérent.
Source
: http://www.google.com/safebrowsing/diagnostic? site=google.com

  1. Formulaires avec politique de confidentialité

Je pense que c’est un facteur important car c’est quasi exigé en Adwords. Le contenu des cette politique n’est pas important pour Google, mais sa présence claire l’est.

  1. Numéro de téléphone

Un numéro de téléphone est rassurant pour le visiteur. Donc pour Google aussi. Par contre n’espérez pas qu’il vous appelle. Il n’a pas le temps.

Il gère un zoo plein de pandas, de pingouins, de colibris et même d’orques.

  1. Adresse postale connue de Google

Google Maps connaît bien un certain nombre d’adresse, il serait de bon ton que la vôtre y soit aussi.

  1. Conditions Générales de Vente

Les CGV sont essentielles à la vie d’un site e- commerce et bien souvent elles sont mal conçues. Mais il est préférable d’en avoir.

  1. Certificat SSL valide

Si vous avez un certificat SSL, assurez-vous de sa validité. Un navigateur comme chrome vous met une page d’avertissement plutôt agressive avant si le certificat “n’est pas sûr”.

  1. Taux de clic dans les pages de résultat élevé

Si ce critère de positionnement a bien sa place dans l’algorithme de Google, il doit être très fortement pondéré. Il n’est pas illogique de penser que si le site a tendance à être meilleur en terme de taux de clic dans les pages de résultats, il mérite un peu de remonter. Cela n’a jamais été prouvé mais certaines agences SEO s’en serve pour vendre cela comme la panacée du référencement de site sur internet…
Pourquoi peu de poids ? Parce que cela se manipulerait assez facilement par du faux trafic… Optimiser son référencement naturel, oui, mais pas au détriment de l’utilisateur !

  1. Marque recherchée

Si le nom de votre site est souvent recherché dans Google même, c’est que vous suscitez l’intérêt. En comparant cela à la moyenne des autres sites du secteur, Google peut en déduire aussi une certaine forme d’attractivité. Aucune technique de référencement ne fera ce travail à votre place. Soyez corrects avec vos clients. Sur le long terme c’est bien mieux !
Pour aller plus loin
: http://www.laurentbourrelly.com/blog/827.php (partie notoriété)

  1. Autorité du site

L’autorité du site (chose qui pourrait être très subjective !) se mesure en SEO par l’éloignement à des sources de référence : sites gouvernementaux ou wikipedia par exemple. Si vous recevez un lien direct de ceux -ci, vous êtes digne de confiance. Si vous recevez un lien d’un site digne de confiance vous devez aussi être relativement digne de confiance. Et ainsi de suite. Plus vous êtes proche des anges, meilleurs vous êtes. C’est la notion de “trust flow”.
Image ci-dessous prise chez : http://www.ya- graphic.com/2013/07/6-indicateurs-de-qualite-dun- site-web-pour-le-seo/

  1. Rebond (vers les pages de résultats) faible

Votre site apparaît dans une recherche. Oh, joie. Un visiteur clique dessus. Oh, re-joie. Mais il rebondit aussitôt ou presque en utilisant le bouton back de son navigateur puis reclique sur un autre résultat qui cette fois le satisfait durablement. Si c’est un comportement isolé, peu importe. Si c’est quasi systématique, la page de votre site doit faire peur. Et c’est mal ! L’urgence ? Rebosser la chose, parce que si ces rebonds ont un impact modeste pour améliorer le référencement de son site, ils doivent faire mal au taux de conversion !

  1. Trafic direct important par Chrome

Chrome occupe une place assez spéciale dans le marché des navigateurs web. Il est fourni par Google qui est aussi un moteur de recherche… Et de l’aveu même d’un ancien employé, Google se sert – anonymement – des données de navigation pour l’aider. Donc un accès direct à votre site est aussi un énorme signal de satisfaction.
Source
: http://www.siliconbeachtraining.co.uk/blog/ex- google-employee-brighton-seo
Source sur la part de Chrome dans les navigateurs
: http://gs.statcounter.com/#browser-FR-monthly- 201306-201405-bar

  1. Visites renouvelées sur Chrome

Un visiteur qui revient est probablement un visiteur satisfait (ou amnésique, mais laissons ce cas de côté). Donc avec Chrome, il est aisé de surveiller ce genre de visite.

  1. Bookmark du site dans Chrome

En général, les visiteurs mettent en favori les sites qui présentent un intérêt. Donc avec Chrome, Google peut aussi traquer ce genre de comportement.

  1. Durée de visite avant une nouvelle recherche

Si Google vous envoie un visiteur et qu’il ne revoit pas pendant longtemps, c’est que vous avez su l’intéresser.

  1. Stabilité du serveur

Un serveur instable présente un risque

d’instaisfaction pour Google. Si une courte panne ponctuelle n’aura pas de conséquence, une fréquence excessive de panne sera un mauvais signal.

  1. Comportement visiteur on site

Avec Chrome, on l’a vu, Google fait déjà beaucoup de choses… Il peut aussi suivre le comportement complet d’un visiteur sur son site… Donc bosser l’expérience utilisateur et vous aiderez (un peu) votre référencement sur Google.

  1. Like et partages sur Facebook

Beaucoup de référenceurs pensent que Facebook émet de des signaux sociaux utiles en SEO, mais je fais partie de ceux qui pensent que ce n’est pas le cas. Google se méfie de Facebook, qui pourrait très bien, un jour, décider de ne plus fournir les indications telles ques les likes. Ce qui déséquilibrerait les classements sans que Google l’ait vraiment choisi. Donc si ce critère a un impact, il n’est que mineur.

  1. Partages sur Twitter

Twitter, le réseau social que je préfère parce qu’il n’est pas exactement social, présente les mêmes risques que Facebook et je dois aboutir à la même conclusion : peu ou pas utile.

  1. Association avec une page Google+

Associez votre site à Google+ et faites vivre un peu cette page. C’est Google+ donc c’est forcément utile en référencement sur moteur de recherche.

  1. Attribution à un auteur (Authorship)

Le facteur qui monte en puissance avec le (pseudo) avènement de Google+. Google veut nous le vendre son réseau social et il pousse toutes les portes possibles. L’authorship consiste à attribuer un contenu à un profil Google+. C’est bon dans les pages de résultats de recherche (vous avez votre tête) et c’est 100% conforme à l’idée que se fait Google de votre vie privée : c’est encore mieux quand elle est totalement publique. Toute considération philosophique à part, c’est le critère qui va peser lourd par la suite.

  1. +1 et partages de Google+

Les +1 et autres partages sont un critère qui va peser de plus en plus lourd vu le succès (discutable mais réel) du réseau social fait-pour-tout-savoir-de-votre- vie-privée-et-vous-envoyer-de-la-pub-ciblée-en- masse.

  1. Mentions sur les sites d’actualités

Si on parle de vous dans l’actualité, c’est que vous êtes intéressant ! (C’est bien un raisonnement de moteur de recherche américain)

  1. Age du domaine

Recevez des liens depuis des domaines âgés sur leur thématique.

  1. Backlink image : balise alt renseignée

Si une image vous fait un lien, l’idéal est qu’elle soit accompagnée d’une balise alt renseignée avec une phrase, pas juste une suite de mots clés. Si cette phrase contient des expressions clés, c’est encore mieux !

  1. PageRank de la page

Le St Graal du référenceur, le PageRank d’une page vous faisant un lien. Ce fameux PageRank mesure la popularité de la page (de manière imparfaite), mais s’il est élevé (non nul sera déjà pas mal), le backlink aura un poids nettement plus élevé.
159. PageRank du domaine

Si le PageRank de la page est un facteur important, celui du domaine l’est aussi, mais dans une moindre mesure. Le cas extrême étant un lien depuis une page non indexée sur un site PR10. Ne vous laissez pas impressionner par le PR d’un site, celui de la page qui envoie le lien est autrement plus considérable.

  1. Backlinks de la page émettrice
    Si la page qui vous envoie un backlink en reçoit elle aussi, c’est autant de “jus” que vous récupérez. C’est d’ailleurs une technique souvent utilisée en black hat, qui consiste à poser ses liens et les pousser par d’autres liens, souvent de qualité très basse.
    161. Autorité du site
    L’autorité d’un site va aussi beaucoup vous aider, surtout si vous êtes de la bonne thématique. Si vous arriviez à obtenir un lien vers votre site de défiscalisation depuis le site des impôts du gouvernement, on pourrait dire que oui, c’est assez utile !
  2. Signaux sociaux sur la page

Le signal social tendant à devenir un complément de backlink (essentiellement Google+ d’ailleurs), c’est toujours bon de recevoir des liens depuis des pages ayant ce genre de gratifications.

  1. Langue identiqueUn bon lien proviendra idéalement d’un site de la même langue. Si le site est exactement dans la même thématique, ce point est moins important.
    164. Postion du backlink
    Partant du principe qu’un internaute lambda (principe du “reasonable surfer”) cliquera plus facilement sur un lien au dessus de la ligne de flottaison, Google semble attribuer un poids plus élevé aux liens qui répondent à ce critère.
    Sources :
    http://www.seohaus.com/blog/20-link-attributes- based-on-googles-reasonable-surfer-model/ http://ilpubs.stanford.edu:8090/422/
    165. Page thématiséeEssentiel depuis la mise à jour Pingouin. Un lien depuis un site qui n’a rien à voir avec le sujet sera suspect. Évidemment, c’est l’accumulation qui rend les choses détectables.
    166. Site thématiséLa plupart des sites ont une thématique assez précise (contre exemple : Wikipedia, Google, etc). Si la page qui vous envoie le lien n’est pas totalement adaptée à votre thématique mais que par ailleurs le site lui correspond, cela restera positif.
    167. Backlinks contextualisés
    Ici je pense au fait qu’un lien au sein d’un texte sera plus utile qu’un lien qui traînerait ailleurs sur la page. Pour aller plus loin, un cas intéressant de levée de pénalité avec analyse de la qualité des liens
    : http://www.eskimoz.fr/levee-de-penalite-google- pingouin-retour-dexperience/
    168. Citations du site
    La citation est un peu un lien du pauvre, pire encore qu’un nofollow. Mais c’est aussi une façon de montrer qu’on parle de vous, que des webmaster veulent faire connaître votre site internet, donc c’est un mini signal positif.
    Un bon article sur le sujet (dont j’ai repris ci-dessous l’image) : http://www.iceranking.com/Google/l- optimisation-des-backlinks-et-des-citations- structurees-de-votre-page-google-plus-local/
    169. Présence de mots clés dans la page
    Si vous visez certains mots clés, l’idéal est que lespages vous faisant un lien comporte ces mots clés ou variantes proches. C’est la raison pour laquelle certains spams de commentaires sont très longs, pour donner une thématique, un contexte et placer des mots clés.
    170. Page avec d’autres liens vers des sites pertinents
    C’est une notion parfois difficile à argumenter face à un client : mettre dans son contenu des liens vers des sources pertinentes est un plus. Mais ces sources sont souvent des concurrents. Les blogueurs SEO on depuis longtemps intégré cette technique, mais les autres secteurs ont parfois quelques (compréhensibles) réticences difficile à vaincre pour une société de référencement…
    171. E-réputation du site
    Probablement pris en compte d’une manière ou d’une autre par Google mais probablement d’une manière plus limitée.
    172. Backlinks non réciproques
    L’échange de liens a longtemps été d’une efficacité rare mais Google a mis ce genre de pratique à l’index. Faites le de manière à ce que le site qui vous envoie un lien n’en reçoivent du vôtre. Surtout si c’est des (vilains) liens en pied de page.
    173. Nombre de liens sortants d’une pageMoins il y en a mieux c’est, le “jus” étant en fait divisé par autant de liens qu’il peut y avoir sur la page (nofollow compris). 174. Mot clé dans l’ancreUne vraie contradiction chez Google : d’un côté il dit qu’il serait de bon ton que les ancres de liens soient descriptives, de l’autre, il se fâche pour une sur- optimisation. Donc faites quelques ancres optimisées (mais aussi d’autres plus génériques, comme le nom de domaine) et variez-les !
    175. Nombre de backlinks
    Plus vous avez de pages vous faisant un lien, mieux c’est. Mais d’autres facteurs sont à prendre en compte.
    176. Nombre de domaines
    A mes yeux, cette mesure est bien plus pertinente que le nombre de pages faisant un lien. En effet, mieux vaut 100 domaines vous faisant un lien qu’un seul domaine vous en envoyant 100. (note : j’ai l’impression de paraphraser Émile dans la Cité de la Peur). C’est là que je constate parfois des manques dans des devis SEO d’agences de référencement pas toujours très motivées pour s’attaquer au netlinking…
    Source : http://www.seomoz.org/blog/guide-to-competitive-backlink-analysis
  2. Nombre d’IP
    Si vous recevez tous vos liens depuis un nombre réduit d’IP (surtout vis à vis d’un ratio IP vs noms de domaines), c’est assez suspect car probablement la signature d’une campagne de netlinking. La variété étant de mise pour voler sous les radars, plus d’IP c’est plus de crédibilité. (Mon côté Grey Hat ressort parfois)
    178. Nombre de classes C
    Avoir des backlinks de différentes classes C d’IP permet de laisser penser que ce n’est pas qu’un unique webmaster qui vous fait un lien. Cependant avec la mise en vente de ce genre de service (hébergement multi class C), il est possible de contourner cette difficulté. Bon c’est assez cher (quelques euros par mois par IP plus le serveur, souvent un vps sous dimensionné mais vendu à prix d’or. C’est la magie d’un client captif).
    179. Augmentation progressive
    Encore une fois, Google cherche à mesurer ce qui est naturel de ce qui ne l’est pas (ils appellent cela le spam… C’est assez discutable de mon point de vue). La vraie difficulté à laquelle Google est confronté est de voir ce qui relève d’un buzz de ce qui est une campagne de netlinking aggressive et ponctuelle. Le but du jeu est de construire un profil de lien sur la durée, sans tout mettre en oeuvre dès le départ.
    180. Augmentation durable
    Obtenir des backlinks au lancement d’un site c’est bon pour votre visibilité sur Google. Mais quid de la suite ? Comment interpréter le fait que vous n’avez plus de nouveau lien ? L’explication la plus logique est que vous n’intéressez plus personne. Ou que vous ne faites plus de netlinking. Dans un cas comme dans l’autre, Google voit cela comme un signal négatif.
    181. Backlinks nofollow et dofollow
    La discussion sur ce sujet est assez animée. Y a-t-il besoin de liens nofollow dans un profil de liens ? Oui, selon moi, mais non, selon un autre agence SEO qui aura aussi de bons arguments. Je pense que si le profil est déjà douteux (que des wordpress ou ancres très optimisées…), pas de nofollow va contribuer à allumer un signal dans l’algo. Donc si vous voulez prendre moins de risques, jouez aussi la carte du nofollow. Je suggère quelques commentaires intelligents sur des blogs dans votre thématique.
    Source : http://www.seomix.fr/google-penguin- liens/ (un test très intéressant sur des sites pénalisés ou non par Pingouin !)
    182. Sites de tailles différentes
    Petit critère à mes yeux, mais recevoir des liens de sites de différente taille (que ce soit basé sur le PR ou le nombre de page) doit aider.
    183. Sources variées
    Votre priorité depuis “The Evil Pengui