Des milliers de documents appartenant à Google auraient fuité sur le web. Ces derniers détaillent une partie du fonctionnement du très secret algorithme d’indexation du moteur de recherche.
Rien de très neuf sous le soleil
En somme, un site peut être bourré de lien, mais encore faut-il que les gens cliquent dessus pour envoyer un signal positif à Google.
Ça recoupe cette info avec Analytics ou juste avec le score SEO de la page de destination ? Ce serait un peu déloyal qu’un score SEO puisse être amélioré par la seule présence d’Analytics par rapport à un Matomo… (mais pas étonnant, cela dit)
bing/chat ne liste que 20 ce btrd ! A croire qu’ils se protègent mutuellement
Contenu de qualité
Backlinks (liens entrants)
SEO technique
Optimisation des mots-clés
Expérience utilisateur (UX)
Vitesse de chargement de la page
Compatibilité mobile
Structure de l’URL
Balises de titre et méta-description
Contenu dupliqué
Sitemap XML
Réseaux sociaux
Liens internes
Liens sortants
Données structurées (balisage schema.org)
Qualité du code HTML et CSS
Sécurité du site (SSL)
Taux de rebond
Temps passé sur le site
Densité des mots-clés
En termes de SEO, au-delà de l’aspect technique qui représente probablement un pareto (20% des points pour le référencement), c’est principalement le contenu (80% des points pour le référencement) qui permet de se hisser dans les résultats de recherche. En bref, il faut automatiser son contenu pour en produire en masse sans se faire pénaliser, car ils traquent désormais le contenu généré par IA. En tout cas, il existe une belle solution SEO, Cocoon qui permet de contourner l’inspection des robots Google pour être bien référencé.