Avez-vous déjà reçu une notification de Google indiquant que certaines de vos pages sont « indexées, mais bloquées par le fichier robots.txt » ? Cela peut prêter à confusion, car ces deux phénomènes ne devraient pas se produire simultanément.
A robots.txt filet Il s'agit d'un ensemble d'instructions destinées aux moteurs de recherche. Elles leur indiquent les pages de votre site qu'ils doivent ou non explorer. Par exemple, vous pouvez l'utiliser pour bloquer les pages que vous ne souhaitez pas voir apparaître dans les résultats de recherche, comme les pages backend privées ou les anciens contenus légers.
L'erreur se produit lorsque Google découvre une page qu'il ne peut pas explorer à cause de votre robots.txt fichier, mais il décide de l'afficher dans les résultats de recherche. Cela est généralement dû au fait que d'autres sites web ont créé des liens vers la page, ce qui incite Google à la considérer comme suffisamment importante pour l'indexer.
Comment trouver cette erreur sur votre site Web
Avant de résoudre le problème, vous devez identifier sa source. Vous pouvez trouver cette erreur en consultant le rapport d'indexation de votre site. Vous y trouverez la liste des URL indexées malgré leur blocage.
Si vous rencontrez cette erreur, assurez-vous d'abord que vous n'essayez pas d'indexer accidentellement une page que vous souhaitez exclure des résultats de recherche. Vous pouvez vérifier la présence de pages masquées ou de contenu dupliqué que vous ne souhaitez pas voir apparaître dans les résultats de recherche.
Comment résoudre ce problème SEO courant
Étape 1 : Vérifiez votre robots.txt Fichier
La raison la plus courante de cette erreur est que votre robots.txt Le fichier n'est pas correctement configuré. Vérifiez-le et assurez-vous de ne pas bloquer accidentellement des pages qui devraient être indexées. Par exemple, une simple faute de frappe pourrait empêcher l'exploration d'une section entière de votre site web.
Si vous souhaitez que les moteurs de recherche explorent l'intégralité de votre site, votre robots.txt le fichier doit contenir ces lignes simples :
Agent utilisateur: *
Disallow:
Cela indique aux moteurs de recherche qu'ils sont autorisés à explorer tout ce qui se trouve sur votre site.
Étape 2 : Supprimez les liens qui causent des problèmes
Google indexe souvent une page bloquée à cause d'autres liens pointant vers elle. Vous ne pouvez pas contrôler ce que font les autres sites web, mais vous pouvez utiliser un noindex Étiquette pour résoudre ce problème.
A noindex Une balise est une ligne de code que vous placez dans l'en-tête de votre page. Elle ressemble à ceci :
Cette balise indique aux moteurs de recherche de ne pas indexer la page, même si d'autres sites web y renvoient. C'est un signal plus fort que robots.txt et c'est le meilleur moyen de s'assurer qu'une page n'apparaisse jamais dans les résultats de recherche.
Étape 3 : Préparez-vous à l’indexation
Une fois que vous avez choisi les pages à indexer, assurez-vous qu'elles sont prêtes. Vous pouvez réécrire le contenu d'une page pour garantir sa qualité et l'absence d'erreurs. Un outil comme le nôtre Outil de reformulation IA peut vous aider à améliorer votre contenu existant et à le rendre plus lisible et attrayant pour les utilisateurs et les moteurs de recherche.
Qu'est-ce qu'un fichier robots.txt ?
Un fichier robots.txt est un ensemble d'instructions pour les moteurs de recherche qui leur indique quelles pages d'un site Web ils sont autorisés et non autorisés à explorer.
Que signifie « Indexé, mais bloqué par robots.txt » ?
Cette erreur signifie qu'un moteur de recherche a trouvé une page et a décidé de l'indexer, même si le fichier robots.txt lui a dit de ne pas le faire.
Dois-je utiliser robots.txt ou une balise noindex ?
Vous devriez utiliser une balise noindex pour empêcher une page d'apparaître dans les résultats de recherche. Un fichier robots.txt est idéal pour indiquer aux moteurs de recherche les pages à explorer. Une balise noindex est un signal plus fort et constitue le meilleur moyen de garantir qu'une page ne soit pas indexée.
Comment résoudre un problème de robots.txt ?
Pour corriger un problème de fichier robots.txt, vérifiez si votre fichier contient des erreurs. Vérifiez également l'absence de liens inutiles vers la page provenant d'autres sites web.