AGENCE WEB MARKETING
DEVIS : +33 (0) 970.407.480

SEO : 5 modifications d’algorithme de Google souhaitables

SEO Google algorithmeRécemment, Google a supprimé (ou tout du moins réduit) l’utilité de choisir des noms de domaine contenant les mots-clés les plus recherchés dans un secteur donné. Et bien que je pense que ce soit un grand pas en avant, Google a encore beaucoup de ménage à faire dans ses pages de résultats de recherche pour supprimer les résultats non pertinents et de mauvaise qualité.

Et puisque vous connaissez mon addiction pour les modifications d’algorithmes, voici quelques progrès que je voudrais que Google intègre lorsqu’il apportera ses futures modifications aux résultats de recherche :

Modification n°1 : Evaluation plus précise de la qualité du On-page

Ce n’est un secret pour personne que Google rencontre des difficultés dans l’évaluation objective de la qualité du On-page. La raison d’être originelle des algorithmes était que le Googlebot n’était pas capable de se balader sur le Net, lire quelques pages et décider laquelle d’entre elles est la meilleure du point de vue qualitatif.

Et c’est pour cette raison que j’ai réalisé que dire que Google devrait faire un meilleur travail dans l’évaluation de la qualité des pages ne ferait aucunement avancer le débat. Il est évident que c’est une priorité pour le plus grand moteur de recherche mondial, et il est évident que Google y travaille sans cesse.

Ceci dit, suis-je le seul à être déçu du rythme auquel ces modifications sont mises en place ? Peut-être que l’un des plus grand faux-pas dans la modification du moteur de recherché est celui qui a donné lieu à une situation ubuesque où un site Blogger sans contenu a été provisoirement classé premier pour la recherche de la très recherchée phrase-clé « faire de l’argent en ligne ». Pour information, ladite modification concernait la mise à jour de l’algorithme de Penguin et avait pour but officiel de supprimer le Spam internet des résultats de recherche.

De telles erreurs limite la confiance que le public peut avoir dans la capacité de Google à fournir de bons résultats de recherche. Sans mentionner l’impact que cela a eu sur les SEO dont les sites ont vu leur classement dégradé en faveur de résultats sans valeur ou sur les SEO qui ont été pris de court par l’enchainement des mises à jour et qui n’ont pas pu anticiper les effets de ces mises à jour sur les résultats de recherche.

Etant donné cette baisse de confiance, je présume qu’il importera à Google d’accélérer le rythme des mises à jour d’algorithmes dont le but est de fournir des pages de résultats hautement pertinents, tout en minimisant l’impact de ces modifications à venir sur les sites qui ont été pénalisés de manière involontaire. Ce sera une étape critique dans la capacité du moteur à conserver la confiance du public et son avance face à la concurrence.

Modification n°2 : Pénalisation du contenu dupliqué.

J’aimerais à présent m’attarder sur une catégorie contenu de basse qualité : le « contenu dupliqué (ou Spun content)», c’est-à-dire les pages dans lesquelles les mots, les phrases et les expressions ont été automatiquement remplacées au moyen d’outils de spinning (substitution) dans le but de générer un contenu « unique ». Le contenu est certainement unique, par contre, il n’est pas forcément compréhensible par un cerveau humain !

Sur ce point, bien que Google se soit donné pour mission d’éliminer ce type de contenu de basse qualité de ses résultats de recherche, je continue d’en rencontrer de beaux spécimens au cours de mes rondes sur Internet. Il est vrai que le texte produit par les processus de spinning peut tromper les bots des moteurs de recherche, mais les algorithmes d’analyse du langage de Google ne sont-ils pas justement conçus pour dénicher des formulations de phrase laissant penser que le contenu a été spinné (au moins pour les cas les plus évidents) ?

Je suis réellement convaincu que c’est un sujet sur lequel Google travaille, tant l’affichage de ce type de déchets parmi les résultats de recherche légitimes nuit à la réputation de l’entreprise. J’espère juste qu’ils vont accélérer la cadence et mettre en place la mise à jour aussi vite que possible !

Modification n°3 : Une meilleure intégration des données Facebook et Twitter

Certes, tout le monde sait que Google a un problème d’intégration avec les médias sociaux suite aux contrats d’exclusivité signés par Bing avec Facebook et Twitter, et se retrouve ainsi obligé de se fonder sur les seules données sociales générées par son réseau naissant Google+.

Toutefois, pour une fois, j’aimerais voir Google se sacrifier et faire les compromis nécessaires pour intégrer ces données sociales aux résultats Google (vœu pieux, je le confesse). Et si Google se donnait la peine d’utiliser les données disponibles au public de ces deux médias sociaux majeurs, je parie qu’il pourrait ainsi améliorer sensiblement la qualité de ses résultats personnalisés existants.

Voice le topo : si Google souhaite prétendre qu’il possède ses résultats de recherche sont les meilleurs, cela lui est tout simplement impossible sans l’accord obtenu par Bing pour accéder aux données de Twitter et Facebook. Ainsi, si Google se repose uniquement sur les données générées par Google+, ce serait comme si un entraineur d’une équipe régionale prétendait que son équipe est la meilleure, toutes divisions confondues. Et, il y a lieu de s’inquiéter lorsque l’on constate que Google liste le profil inutilisé Google+ de Marck Zuckerberg avant la propre page Facebook de celui-ci…

Est-ce que je pense que cela arrivera? Non, probablement que non. Mais puisque c’est ma liste de souhaits, j’aimerais dire que les résultats de recherche de Google seraient plus pertinents grâce aux contrats qui lient Bing à Facebook et Twitter ou au moins par l’intégration des données Facebook et Twitter librement accessibles au public.

Modification n°4 : Mettre fin à l’avantage des liens issus de profils.

De vous à moi, ce point me dérange depuis un bon bout de temps. Et malgré tous les efforts engagés par Google pour atténuer l’avantage donné aux liens de basse qualité issus de profils, il semble que cet avantage existe toujours.

Dans l’idée, donner de la valeur à des liens ayant pour origine un profil d’un auteur de site Web est sensé. Dans nombre de cas, ces profils sont créés sur des sites avec une forte notoriété et bénéficiant d’un bon classement. Il est donc naturel de penser que les utilisateurs qui ont ajouté les liens vers d’autres sites sur leur profil sont bien ceux qui contribuent activement à leurs communautés.

Malheureusement, depuis que la nouvelle s’est répandue que les liens issus de profils conféraient un avantage SEO, la communauté du marketing virtuel a vu déferler une vague d’outils automatisés pouvant créer un nombre incroyable de profils sur les sites bénéficiant d’un très bon classement. Et au lieu d’avoir des sites hébergeant des profils actifs et de qualité, d’utilisateurs contribuant activement à leurs communautés, nous avons assisté à un spectacle désolant. Plus précisément, vaste plan de structuration de liens a été mis en place. Il a entamé la bande passante et la capacité de stockage de sites biens intentionnés en multipliant les faux profils, inutiles pour les communautés.

Je suppose que Google est sur le coup, étant donné que c’est une violation flagrante du Code de bonne conduite pour webmasters de Google – y est prohibé tout schéma ayant pour but la manipulation intentionnelle des moteurs de recherche sans aucun apport de valeur en retour. Quoiqu’il en soit, cette faille doit être comblée au plus vite, si ce n’est pas déjà fait.

Modification n°5 : Moins de dépendance aux sites About.com, Wikihow.com, et Wikipédia

La dernière chose que je voudrais aborder c’est mon ras-le-bol de me voir déferler dans les premières places les résultats émanant de sites tels que About.com, Wikihow.com et Wikipédia. Quand on sait que les articles émanant de ces sites, à l’exception possible de Wikipédia (dans certains cas), sont à peine de meilleure qualité que les articles que Google a éjecté de ses listes de résultats avec la mise à jour Panda de l’année dernière.

Si j’étais un adepte de la théorie du complot SEO, je suggérerais que Google donne un avantage à ces sites plutôt qu’a d’autres qui sont pourtant de meilleure qualité, sans monétisation de la part de Google (comme dans le cas de ces experts qui écrivent des posts d’une qualité exceptionnelle dans le but de vendre leurs propres produits).

La question de savoir si cela est vrai ou non n’a pas réellement d’importance. Ce qui compte du pont de vue d’un moteur de recherche c’est que les résultats présentés soient le plus utile possible pour ses utilisateurs. Je ne pense pas être le seul  à être de plus en plus frustré par les articles mal écrits et au contenu peu fiable d’About.com. Je croise donc les doigts pour que le futur algorithme inclut une plus grande diversité d’opinions et de sources d’information.

Laisser un commentaire


Derniers articles

Où nous trouver…


View Larger Map

LevDesign sur Twitter & Google +


Notre adresse

42 Boulevard de la Saussaye, Neuily/Seine
Téléphone : +33 (0) 970.407.480
Website : http://www.LevDesign.fr
Email : contact@levdesign.fr