MJCACHÓN

Revisando las páginas indexadas

Si pensamos en temas de rastreo e indexación, deberíamos tener claro que todo lo que Google tenga indexado de nuestra web, tendrían que ser urls con contenidos que generen demanda orgánica en búsquedas.

Dicho de otra forma, tenemos que sacar la basura.

Para ello, voy a usar dos herramientas:

Extraer páginas indexadas con el comando “site”

Un primer vistazo en Google:

comando site mjcachon

Lo que hacemos es añadir esa misma query con el comando, a la herramienta Simple Serp Scraper, de este modo:

simple serp scraper urlprofiler

Una vez termine de extraer todas las páginas indexadas, veremos el csv de esta forma:

resultados comando site

 

Chequear el status actual de las urls

Con Screaming Frog vamos a analizar todas estas urls en modo lista, a ver qué nos encontramos

Elegimos modo lista, en la versión nueva, podemos pegar directamente desde el portapapeles, así que copiamos del csv anterior y pegamos en Screaming pulsando “paste”

modo lista pegar screaming

 

El aspecto que observaremos será este, una vez lea todas las urls que teníamos copiadas:

lista urls screaming

 

Ahora nos vamos a ver el resultado del rastreo de Screaming Frog y podemos analizar cosas básicas de primeras:

  • Errores
  • Tipos de redirects
  • Páginas con poco contenido
  • Detectar patrones de urls, por ejemplo, ?attachment_id
  • Revisar directivas: robots y canonical

¿Tienen tráfico orgánico o nasti de plasti?

Sabiendo que es posible usar tanto GSC como GA en Screaming Frog puedes chequear las urls en bulk y tener en el mismo crawleo, los datos de visitas orgánicas, para tener una primera idea de contenidos que están indexados y no están generando tráfico orgánico.

Llegados a este punto tendremos 2 escenarios muy claros:

  1. Contenidos antiguos, cortos o mal optimizados y con potencial de mejora.
    Aquí tocaría sacar el bisturí y analizar a fondo extensiones de contenido (numero de palabras) y tratar de revisar qué términos clave tiene asignada cada url para cruzar con posiciones medias de GSC. Optimizar, re-publicar y seguimiento posterior.
  2. Contenidos obsoletos o duplicados
    Aquí tocaría reflexionar, si tenemos opción de redirigir a un destino relevante, siempre y cuando el origen tenga algo que “salvar”. De lo contrario, nos tocará desindexar, bien eliminando contenido y ofreciendo un 410, o bien, manteniendo el contenido ofreciendo un 200, pero con “noindex”, depende de los casos.

Y hasta aquí un post muy breve que ampliaremos con algún otro tutorial más profundo, próximamente…

Compartir es lo más...Tweet about this on TwitterShare on Facebook0Share on LinkedIn4Share on Google+1Buffer this page

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

Información de contacto

C/ Gran Vía 69, 9º, ático exterior centro
28013 Madrid
Telf.: 914 34 75 81