SEO: 7 razones por las que la indexación de tu sitio está disminuyendo

Categoría/s: SEO, Web
Indexación
Compartir:

Sin indexación, no hay posibilidad de clasificación en los resultados de búsqueda naturales. Cuando los números de indexación caen, hay varias razones posibles.

Velocidad del sitio

Cada vez más, las velocidades de sitios web más lentas se disfrazan de 500 errores de servidor en Google Search Console y Bing Webmaster Tools, lo que afecta a la indexación. Cuando los rastreadores de los motores de búsqueda no pueden acceder a una página, o al menos no pueden hacerlo dentro del tiempo máximo asignado a cada página para cargar, se registra como una marca en contra de esa página. Con suficientes intentos fallidos de rastreo, los motores de búsqueda degradarán una página en el ranking y, finalmente, la eliminarán del índice. Cuando se ven afectadas suficientes páginas, se convierte en un problema de calidad en todo el sitio que podría erosionar las clasificaciones del sitio web completo.

Contenido duplicado

No hay ningún valor para un motor de búsqueda al indexar dos o más copias de la misma página. Entonces, cuando el contenido duplicado comienza a aparecer, la indexación generalmente comienza a disminuir. En lugar de decidir cuál de dos o más páginas tienen el mismo aspecto, los motores de búsqueda pueden decidir pasar de todo el grupo y no indexar ninguna de ellas.

Esto se extiende a páginas de contenido muy similares también. Por ejemplo, si tus cuadrículas de navegación para dos subcategorías comparten el 75 % de los mismos productos, no hay una ventaja para el motor de búsqueda al indexarlas.

El contenido duplicado puede introducirse accidentalmente también cuando las páginas que son verdaderamente diferentes parecen idénticas o muy similares porque no tienen características únicas que los buscadores puedan reconocer, como etiquetas de título, títulos y contenido indexable. Esto puede afectar a los sitios web e-commerce en particular porque las redes de navegación pueden comenzar a verse muy similares cuando su razón de existir no está claramente etiquetada en la copia de la página.

Nueva arquitectura o diseño

Los cambios en las estructuras de navegación en el encabezado y en el pie de página de un sitio web a menudo tienen un impacto en las categorías y páginas. Cuando las áreas del sitio se eliminan de esos elementos de navegación del sitio web, los motores de búsqueda degradan el valor de esas páginas porque reciben menos enlaces internos. El valor degradado puede provocar una desindexación.

Del mismo modo, los cambios en el diseño pueden afectar la indexación si la cantidad de contenido en la página se reduce o si el texto se oculta repentinamente dentro de una imagen en lugar de ser fácilmente indexable como texto HTML.

Al igual que con el contenido duplicado, una página puede tener un valor que no es evidente para los motores de búsqueda; asegúrate de que el contenido sea aparente a través de texto indexable para mantener la indexación.

Nuevas URL

Las plataformas de comercio electrónico pueden realizar cambios inesperados en las URL según los cambios en la taxonomía o los datos de productos individuales.

Cuando una URL cambia, pero el contenido no, los motores de búsqueda tienen un dilema. ¿Siguen indexando la página anterior que saben cómo clasificar? ¿O indexan la nueva página con la que no tienen historial? ¿O tal vez indexan ambos, o ninguno? Las cuatro son opciones. En un caso, la indexación se duplica. En el otro caso, cae a cero.

Supresión o redirección de página

Del mismo modo, cuando una página se elimina del sitio o cuando se crea una redirección a otro sitio, la cantidad de URLs viables para ese sitio disminuye. En este caso, es de esperar que disminuya la indexación.

Robots.txt y Meta Robots Noindex

Los comandos de los robots tienen un gran poder para afectar las tasas de rastreo e indexación. Siempre son el primer y más fácil lugar dónde mirar cuando tienes dudas sobre la indexación.

Robots.txt es un archivo de texto arcaico que le dice a los robots de búsqueda qué áreas del sitio pueden rastrear y cuáles no. Cada bot puede elegir obedecer, o no, el archivo robots.txt. Los principales motores de búsqueda generalmente los respetan. Por lo tanto, una disminución en la indexación vendría como resultado de no permitir que los bots rastreen ciertos archivos y directorios.

De manera similar, el atributo noindex de la metaetiqueta de robots instruye a los bots para que no indexen un fragmento de contenido individual. El contenido seguirá siendo rastreado, pero los principales motores de búsqueda generalmente obedecen el comando de no indexar, y por lo tanto no clasificar las páginas que llevan el atributo noindex.

Herramientas de eliminación de páginas

Por último, Google Search Console y Bing Webmaster Tools ofrecen herramientas para eliminar páginas. Estas herramientas son muy poderosas y muy efectivas. El contenido ingresado aquí será eliminado del índice si cumple con los requisitos establecidos por los motores. Sin embargo, puede ser fácil para alguien eliminar demasiado contenido y accidentalmente desindexar grandes extensiones del sitio. Después de revisar el archivo robots.txt y las metaetiquetas, haz que estas herramientas sean tu segunda parada para verificar cualquier desindexación manual reciente.

 

¿Necesitas ayuda para para posicionar tu website en los principales motores de búsqueda?

Contáctanos

Fuente: Practical Ecommerce

Compartir:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies