Suite au Poscast Référencement Vol1, by Laurent Bourrely & Sylvain Peyronnet, voici ce que j’ai noté/compris (en vrac):
- Un peu moins de 50% des entreprises françaises n’ont pas de site web.
- Il faut revenir aux fondamentaux (- structure de site pyramidale/ arborescence type arbre généalogique , – contenu de qualité « unique » ) .
- Google est capable de détecter/classer des profils types d’internautes sans aucun soucis (Le référenceur black ou white ne sont pas en reste, mais google ferme les yeux sur certains cas plus que bordeline… les bons réfs sont une manne financière – Google ne va pas virer les personnes qui font de belles structures – réseaux de sites bien fait = rapportent de l’agent)
- Seulement 10 à 20% des chercheurs de chez Google s’occuperaient du moteur de recherche (la majeur partie étant occupée à des taches bien plus « lucratives » , comme améliorer le système d’enchère d’Adsense par exemple – voir théorie des jeux)
- Algos basés sur le N-gramme (les intervenants de croient pas à la mise en place d’analyse de modèles génératifs du langage: LSI/LSA/LDA: quasi-impossible a mettre en place + coût énorme pour Google )
- Il y’ aurait chez google environ 400 filtres pour détecter la « qualité » d’un site.
- Les » filtres » peuvent se contredire, c’est pourquoi il y’a parfois des choses inexplicables dans les serps. (les algos peuvent s’interférer – n filtre = n² d’interférences possibles)
- Les « filtres » sont pas appliqués de manière uniforme, et sont capables d’apprendre des modèles – apprentissage par renforcement
- Les quality raters (filtres humain) auraient un fort pouvoir de pondération sur l’algo, mais l’avis d’un seul « homme » n’est pas suffisant…
- Les actions des visiteurs sont analysés (pour un site de voiture: un passionné de voiture connu de Google qui « vote » pour le site aurait plus de poids qu’un visiteur lambda)
- La rapidité d’accès au contenu/chargement d’un site est très important (financièrement) pour Google, chaque seconde passé à crawler un site à un coût serveur, ne l’oublions pas. (OVH ne serait pas très rapide d’accès / nombre de serveur DNS traversés)
- Certaines analyses de page sont faite « en live » pendant le crawl, le process d’analyse complet se ferait en plusieurs passe.
- La maj de Cafféine n’est pas une mise à jour de l’algo du moteur, mais une mise à jour de l’infrastructure, crawler plus fort, plus vite et mieux.
- Bien que les signaux sociaux (RT Twitter, Facebook Like, Google +1) soient important pour le ref, les backlinks ont toujours un rôle majeur dans l’algo.
- Les µformats sont facilement manipulables, donc très peu pris en compte actuellement, mais il ne faut pas les ignorer.
- Pour lutter contre les manipulations, le moteur de recherche est obligé de « laisser faire » un moment afin d’avoir suffisamment de données avant de les filtrer.
- Google est encore, à ce jour, le maître indétrônable du Search!
Ce qui influence le positionnement (selon moi):
Hébergement/Registar:
- serveur placé dans le pays ciblé
- extension nom de domaine
Sur le site (On site):
- l’accès possible au site par les bot: crawl du site/pages profondes
- qualité du contenu (longueur du contenu/orthographe/sémantique)
- balisage de la page : titre/description – balisage hn
- « qualité » du code
- structure des pages et linking interne
- sémantique /syntaxe / thématique
- temps chargement du site
- renouvellement des pages, du contenu
- en tête html (eviter 303/404 /500 – optim 200 – 301)
A l’extérieur (Off Site):
- les backlinks (qualité du site liant| « trust » du site|positionnement du lien|nombre de liens|nom de l’ancre)
- courbes de « linkage » doit être ou sembler naturel
- les signaux sociaux (nb de like, rt, +1, )
Mes réflexions perso:
- Le fond de commerce de Google reste les liens sponsorisés, ils ne peuvent pas trop « filtrer » les résultats de recherche au risque de perdre des clients.
- Avec l’accroissement du nombre de sites/pages, Google va être obligé de « faire des économies », amha, l’optimisation de la vitesse de chargement va jouer un rôle plus important à l’avenir. Il faut donner l’accès au informations le plus rapidement possible aux bots.
- Le contenu est toujours important, contenu de qualité et avec le moins de fautes possible (un skyblog rank moins bien qu’un wikipedia )..
- Le branding de marque ou de personnel jouera un rôle majeur dans le futur.
Je ne suis pas un spécialiste du Seo, mais juste un initié. N’hésitez pas à me laisser vos remarques/corrections ou réflexions en commentaire.