Categorías
SEO

OnCrawl: ¿Qué es y cómo puede Ayudarte?

Personalmente me gusta decir que OnCrawl es «un screaming SEO Frog» en la nube con cientos de filtros y análisis preconfigurados. Dicho de otra manera es una herramienta que permite ahorrar muchísimo tiempo a la hora de cruzar datos de crawling, análisis de LOGs, backlinks de Majestic SEO junto con con los de Google Search Console o Google Analytics.

Como dicen por ahí que una imagen vale más que mil palabras, un vídeo más que mil imágenes:

Cuando contratemos OnCrawl nos encontraremos con estas partes dentro de la herramienta:

Crawl Analysis

Simplemente rastrea el sitio. El crawler accede a la home de tu web y va siguiendo todos y cada uno de los enlaces hasta que llega hasta el último. La única limitación es 50 niveles de profundidad o las URLs que tengas contratadas en tu plan. También puede seguir URLs contenidas en un sitemap o empezar el rastreo en un listado dado en la configuración. Ojo, únicamente seguirá enlaces dentro de hrefs. En próximas versiones se espera que se pueda configurar el crawler para decidir si se siguen o no destinos de canonicals, redirecciones, hreflangs, alternates, nofollows, etc .

Indexabilidad

Ofrecerá resultados sobre páginas indexables, sitemaps, canonicals, robots.txt, hreflangs, alternate mobile… Ojo, los datos agregados ofrecen muchísima información, pero lo verdaderamente interesante es cuando se trata información segmentada. Una de las tareas más importantes que hay que hacer para sacarle rendimiento a este informe es precisamente segmentar la web en grupos de URLs. Podemos segmentar en base a URL (esta forma de hacerlo es totalmente retroactivo) o usando la capacidad de Scraping, dicho de otro modo en base a «cosas dentro del HTML». Al igual que la funcionalidad de buscar en el código fuente de Screaming, es algo que debemos configurar ANTES del rastreo.

Dentro de este informe de indexabilidad tendremos información como datos como:

What is indexable

• Pages in structure
• Crawled pages
• Indexable pages
• Indexable compliant pages
• Non indexable pages by meta robots
• Non indexable pages by robots.txt
• Canonicalized pages
• Pages by state of indexation
• Pages by state of indexation by group

Rel Alternate

• Pages with canonical
• Number of pages linked in pagination (next prev)
• Pages with hreflang
• Canonical evaluation
• Content duplicated pages with canonical issue
• Canonical evaluation by group
• Pages linked in pagination (next prev)
• Pages with hreflang Sitemaps
• Pages in sitemaps
• Compliant pages in sitemaps
• Redirect 3xx in sitemaps
• Errors 4xx in sitemaps
• Number of pages with news in sitemaps
• Number of pages with images in sitemaps
• Number of pages with videos in sitemaps
• Pages in news sitemaps without structured data Article item
• Pages in videos sitemaps without structured data VideoObject item
• Pages in sitemaps by group
• Sitemaps orphaned pages by group
• Pages in sitemaps by state of indexation

Status Codes

• 2xx pages
• 3xx pages
• 4xx pages
• 5xx pages
• Status code by group

Link Flow

Una parte fundamental del análisis de la arquitectura de la información. Hay una pregunta sencilla, ¿Son nuestras páginas más importantes las que más enlaces reciben? otra un poquito más complicada ¿los reciben desde los clústers que deben recibirlos? Ambas se pueden responder de forma muy fácil con el la métrica InRank (una especie de page rank propio de la herramienta que tiene en cuenta unas cuantas cosas más para evaluar la calidad de un link) y el informe LinkFlow en base a los grupos de URLs que hayas predefinido.

Entre otras métricas encontraremos:

Internal popularity

• Average inrank by depth
• Pages by depth by group
• Inrank distribution by group
• Inrank flow
• Average inrank by depth by group

Links

• Average inlinks per page
• Average internal followed outlinks per page
• Average external followed outlinks per page
• Links breakdown
• Number of inlinks
• Pages with 1 follow inlink
• Pages with less than 10 follow inlinks
• Links flow
• Average followed inlinks per page
• Average followed outlinks per page

HTML TAGs

También tiene una parte dedicada a las metaetiquetas, títulos, descripciones, headers, schema, social tags, etc. Muy útil para saber si todas tus URLs tienen correctamente configurados todos estos meta datos así como si cumplen los estándares que marcan por ejemplo las redes sociales como Facebook o Twitter, etc.

Contenido

Una de las partes más interesantes de la herramienta y quizá la que menos podríamos trabajar con crawlers en local como Screaming SEO Frog. Herramientas que detecten el contenido duplicado hay muchas, pero OnCrawl va un pasito más allá, identifica clusters de información en base a % de duplicidad y valora los canonicals de cada una de las URLs para ver si el canonical «soluciona» el duplicado. De ahí que en los informes sobre duplicados tengamos obtengamos diferencias entre URLs con contenido duplicado cuyo canonical no apunta a otra URL del clister de duplicidades vs otras donde si lo hace. Estas últimas nos las marca de color naranja, a diferencia del rojo (#fail) o verde (#ok)

Payload

Se trata de un informe de velocidad y rendimiento de la web. A mi modo ver, se queda corto, únicamente sirve para ver qué zonas, secciones o tipología de contenidos cargan más rápido o más lento. Pero lo verdaderamente interesante será cuando puedan implementar tiempos de renderizado sobre las nuevas tendencias en diseño y desarrollo web.

Regex útiles para OnCrawl

OnCrawl usa un tipo de Expresiones regulares basada en Lucene. En este post simplemente quería compartir varias de las regex que uso habitualmente con la herramienta por si os pudiesen ser de ayuda.

Encontrar caracteres extendidos: [^(a-zA-Z-0-9—-\/)]

En próximas ampliaciones del artículo hablaremos de:

Logs Monitoring

SEO Impact Report

Ranking Report

Social Media Report

Backlink Report

Crawl Comparison

Data Scraping

Tools

Medición del tráfico con OnCrawl ¿discrepancias entre informes?

En OnCrawl tenemos diferentes formas de medir el tráfico web y no siempre coinciden, veamos por qué.

Google Analytics / Adobe Analytics

Es la forma más fiable de medir el tráfico web llamémosle «real», lo que más se asemeja a lo que podríamos llamar usuarios o personas. Aunque todo hay que decirlo, en la mayoría de informes de Google Analytics  que se hace referencia a usuarios, se debería hacer a navegadores únicos. Esto va cambiando poco a poco pero hasta la fecha sigue resultando imposible que una web tenga más usuarios únicos que habitantes haya en un país.

Sin embargo, las diferentes herramientas de analítica web basadas en tags javascript presentan varios inconvenientes. En primer lugar únicamente medirán navegadores que hayan ejecutado ese javascript por lo tanto dejamos fuera la gran mayoría de bots a no ser que recojamos esa visita y mediante algún lenguaje de servidor y el protocolo de universal Analytics, introduzcamos de forma manuale esa información en nuestras vistas de Google Analytis.

Google Search Console

La forma más inexacta pero a su vez menos proclive a fallos. Sencillamente falla poco porque no hay lugar a error humano, aquí no se puede olvidar meter el ga.js ni meterlo más veces de la cuenta. No hay que dar de alta la web en ningún sitio, sencillamente si Google envía tráfico a un dominio, estos clicks se recogen de forma aproximada en Google Search Console. No es necesario que hayas verificado tu web para que se recojan estos datos, verificarla simplemente sirve para poder acceder a ellos, pero los datos ahí están.

Cuenta con la ventaja adicional de que contabilizan (o deberían) absolutamente todo el tráfico que llega de Google a tu web. Especialmente sirve para salir de dudas en casos de implementaciones donde el tema de las duplicidades de cookie entre la vista normal HTML y la vista AMP no esté nada claro. Hagas lo que hagas con tus tags de medición JS, Google Search Console siempre estará en «modo shadow» recogiendo datos por su cuenta. Ahora es cuestión simplemente de que cada vez sea más y más preciso.

Es más, en instalaciones donde los compañeros de medición digital hayan tenido la genial idea de no recoger la variable «url física» donde corresponde en una instalación o marcado por defecto, será la única manera de cruzar con OnCrawl los datos de URLs activas, posicionadas o con tráfico SEO. Nunca falla, si tienes contratada la opción de integrar los datos de Search Console, siempre vas a poder cruzar todos los informes de OnCrawl con datos de tráfico y URLs.

Hits de usuarios con referrer «*google*»

Finalmente tenemos los queridísimos LOGs. Aquí sí que re recoge todo, absolutamente todo, cualquier petición a nuestro httpd, ya sea humana o de bot que tenga una respuesta por parte de nuestra máquina, queda reflejada en los LOGs. Por un lado recogemos datos del propio Googlebot pero también son valiosísimos los datos de usuarios con referrer Google. Podríamos interpretar que es un hit o visita atribuible a SEO, sin embargo vemos que los datos a veces no coinciden con los de Search Console o Google Analytics, ¿por qué?

En primer lugar, Analytics recoge sesiones, cookies. Search Console recoge Clicks, si entras 15 veces en un ratio de 20 minutos de Google a una web, habrás generado 15 clicks pero una única sesión. Sin embargo, esto normalmente apenas supone discrepancia en los datos.

Las discrepancias mayores se producen en el caso de instalaciones de AMP activas. Existe un patrón de consumo de nuestros contenidos que simplemente consume la versión cacheada en los servidores de Google y que nunca hará un hit a nuestra máquina local, no veremos nada en nuestros logs, únicamente se recogerá en Search Console y en Google Analytics en caso de que tengamos marcada la vista AMP.

Segmentos o segmentaciones útiles con Oncrawl:

Oportunidades de Google Search Console

[
  {
    "color": "#FFEB3B",
    "name": "Page 1",
    "oql": {
      "field": [
        "gsc_position",
        "lt",
        "9"
      ]
    }
  },
  {
    "color": "#fbd046",
    "name": "High Opportunity",
    "oql": {
      "and": [
        {
          "field": [
            "gsc_position",
            "between",
            [
              "9",
              "12"
            ]
          ]
        },
        {
          "field": [
            "gsc_kw_in_h1",
            "equals",
            "false"
          ]
        },
        {
          "field": [
            "gsc_kw_in_inlinks_anchors",
            "equals",
            "false"
          ]
        },
        {
          "field": [
            "gsc_kw_in_ngrams",
            "equals",
            "false"
          ]
        },
        {
          "field": [
            "gsc_kw_in_title",
            "equals",
            "false"
          ]
        }
      ]
    }
  },
  {
    "color": "#f57f17",
    "name": "Medium Opportunity",
    "oql": {
      "and": [
        {
          "field": [
            "gsc_position",
            "between",
            [
              "12",
              "16"
            ]
          ]
        },
        {
          "or": [
            {
              "field": [
                "gsc_kw_in_h1",
                "equals",
                "false"
              ]
            },
            {
              "field": [
                "gsc_kw_in_inlinks_anchors",
                "equals",
                "false"
              ]
            },
            {
              "field": [
                "gsc_kw_in_ngrams",
                "equals",
                "false"
              ]
            },
            {
              "field": [
                "gsc_kw_in_title",
                "equals",
                "false"
              ]
            }
          ]
        }
      ]
    }
  },
  {
    "color": "#f44336",
    "name": "Low opportunity",
    "oql": {
      "and": [
        {
          "field": [
            "gsc_position",
            "between",
            [
              "16",
              "21"
            ]
          ]
        },
        {
          "and": [
            {
              "field": [
                "gsc_kw_in_h1",
                "equals",
                "false"
              ]
            },
            {
              "field": [
                "gsc_kw_in_inlinks_anchors",
                "equals",
                "false"
              ]
            },
            {
              "field": [
                "gsc_kw_in_ngrams",
                "equals",
                "false"
              ]
            },
            {
              "field": [
                "gsc_kw_in_title",
                "equals",
                "false"
              ]
            }
          ]
        }
      ]
    }
  },
  {
    "color": "#831436",
    "name": "After Page 2",
    "oql": {
      "field": [
        "gsc_position",
        "gt",
        "21"
      ]
    }
  },
  {
    "color": "#59c2e6",
    "name": "Not ranking",
    "oql": {
      "field": [
        "gsc_position",
        "has_no_value",
        ""
      ]
    }
  }
]

Para incluirla vamos a:

«Create segmentation» y en el Paso 1: Create Segmentation seleccionamos la opción > «From existing set or import» y le damos a Continue.

En el Paso 2: Configure segmentation seleccionamos la opción > «Paste JSON» y pegamos el código. Nos aparecerá algo así como:

Oportunidades mediante Search Console
Categorías
SEO

Semrush

Semrush es una herramienta muy útil para ayudarte a gestionar el marketing digital de tu empresa así como para estar al día de las andanzas de tus competidores. Puedes usarla de forma gratuita para unas pocas consultas al día.

Analizar el tráfico de tus competidores

Analiza la visibilidad de un dominio

El concepto de visibilidad no hay que confundirlo con tráfico. Simplemente Semrush monitoriza una serie de keywords y los dominios que aparecen al buscarlas en Google. A partir de ahí simplemente ponderando búsquedas y posiciones, elabora una estimación. Tu visibilidad crecerá mucho si pasas de la posición 93 a la 12, sin embargo esta mejora no impactará en tu tráfico.

Sensor de updates

Como si de un sismógrafo se tratase, Semrush al igual que Sistrix son potentísimos detectores de cambios en la fuerza. Evaluan las posiciones de cientos de miles de keywords diariamente por lo que sencillamente tienen información que nadie más tiene. Aquí vemos el estado del movimiento de las serps actualizado:

Analizador de enlaces

También es muy útil analizando enlaces. Creo que es la única herramienta que se conecta en tiempo real a GSC y analiza periódicamente la toxicidad de tu perfil de enlaces proponiéndote actualizar el fichero Disavow. Desde este pequeño formulario puedes evaluar el perfil de enlaces de cualquier dominio de Internet.

Categorías
SEO

¿Qué es Jetpack de WordPress?

Diferencia entre wordpress.com y wordpress.org

Antes de comenzar a hablar de Jetpack tenemos que tener claro la diferencia entre alojar y servir el código de WordPress en tu propio servidor y usar el alojamiento de WordPress.com. para los más noveles, podríamos decir que es como coger un Taxi (wordpress.com) vs conducir tu propio vehículo (wordpress.org). La opción fácil pero limitada vs la opción complicada pero mucho más versátil.

Por poner algunos ejemplos, si instalas wordpress.org las opciones de personalización son literalmente infinitas, puedes instalar tantos themes como plugins consideres, incluso tocar cualquier parte del código de cada uno de ellos, eres totalmente libres. Sin embargo, también tendrás que preocuparte de que todo funcione correctamente, de que tanto el software del servidor como el CORE de WordPress así como plugins y themes esté actualizados y todo securizado, las versiones de MySQL o PHP sean compatibles, etc. Sin embargo, cuando creas un blog en wordpress.com te olvidas de toda esa parte de mantenimiento, por el contrario las opciones de las que dispones son muy limitadas. En una instalación de WordPress.com por ponerte un ejemplo, ni siquiera puedes instalar el código de Google Analytics. Para todas las opciones que se puedan considerar «avanzadas» necesitas contratar planes de pago de wordpress.com.

¿Que es Jetpack para WordPress y para qué sirve?

Jetpack es un plugin que conecta tu instalación de wordpress.org con muchos de los servicios que ofrece wordpress.com. Tiene una versión gratis con funciones básicas y otras de pago con funciones más avanzadas. Estos mismos planes son similares a los que encontrarás en el caso de optar por una instalación en wordpress.com. En este caso el blog gratuito estará en un subdominio.wordpress.com. Entre otras funciones podemos destacar estadísticas y más seguridad con la versión gratuita, así como backups automáticas y funcionalidades para compartir en redes sociales en versiones más profesionales, incluso CDN y video hosting.

Descuento JetPack

Accede a un descuento pinchando en este banner.

Jetpack

Opiniones de Jetpack para WordPress

Las opiniones de los usuarios de jetpack son muy positivas. Entre la comunidad de WordPress hay gran disparidad. Están los que son unos defensores a ultranza del software libre y por lo tanto no quieren saber nada de las conexiones con Automattic y por otro lado, los que ven en Jetpack como una forma fácil de tener muchísimas funcionalidades adicionales para su wordpress a un coste muy reducido y lo que es más importante, descargando de trabajo a su propio servidor. También hay muchos detractores que le acusan de sobrecargar de sobremanera la instalación de wordpress, precisamente «por hacer tantas cosas», muchos ven instalar JetPack para usar solo unas pocas de sus funcionalidades como matar bombas a cañonazos. Y tu, ¿qué opinas sobre JetPack?

¿Cómo funciona JetPack?

Conexiones entre Jetpack y WordPress

No quería hacer un tutorial más sobre la infinidad de opciones que trae el plugin Jetpack para WordPress puesto que la red está llena; podéis encontrar el de Raiola, AyudaWP, la propia ayuda en la web oficial del plugin, así como multitud de vídeos sobre el plugin jetpack en YouTube. Para los más frikis incluso la propia Automattic (empresa creadora de WordPress y también de JetPack) pone a disposición de los programadores el repositorio del código de Jetpack en GitHub. Si tienes problemas de sincronización quizá te interese forzar una sincronización manual.

Me he querido centrar en lo que en casi ningún tutorial he visto; ¿cómo funcionan las conexiones entre JetPack y WordPress? Antes de nada, debemos diferenciar 2 tipos de conexión la digamos de «administración del blog» y la de cada uno de los usuarios, que puede ser la misma claro. Realmente se trata de una cuenta de Automattic. Ocurre lo mismo que con las cuentas de Google o Microsoft, que una sola cuenta sirve para conectar con cualquier a de sus productos. En el caso de Automattic / WordPress estaríamos hablando de Jetpack, Akismet, Gravatar, Vaultpress, etc.

Conexión Jetpack
Conexiones entre wordpress.org y wordpress.com mediante Jetpack
Conectar a wordpress.com con Jetpack
Conexión de un usuario con WordPress.com
Conexión de usuarios de wordpress.com
Los usuarios de wordpress.com podrán conectarse a tu blog con su cuenta de Automattic

Módulos de JetPack

JetPack tiene una infinidad de módulos que van desde la funcionalidad de compartir en redes sociales al publicar, como botones para compartir, CDN para imágenes,  opciones de de seguridad, SEO etc, etc . SIn embargo, lo que mucha gente desconoce son los módulos secretos y los widgets extras para tus sidebars. Además, como comentábamos anteriormente, una de las grandes ventajas de usar JetPack es precisamente la descarga de trabajo que supone para tu servidor que sean las máquinas de automattic las que calculen las relaciones entre post. Por otro lado, si usamos las funcionalidades de Widget Visibility podremos cambiar de theme o plantilla sin preocuparnos demasiado de perder funcionalidades. Lo vemos a continuación.

Opciones de Visibilidad de los Widgets

JetPack trae una cosa interesantísima para personalizar el front end sin depender de la plantilla. El módulo de Visibilidad de los Widgets, es verdaderamente potente. Puedes configurar explícitamente en qué casos quieres que se vea cada Widget mediante fáciles desplegables condicionantes de si es una entrada, si es una categoría, si es una entrada de una determinado tag o categoría concreto, etc. Solo le echo en falta la posibilidad de mostrar entradas (para el widgets de recientes, populares o relacionadas) de una determinada categoría o tags, al igual que ocurre con los custom post. Es decir, puedes mostrar «entradas recientes», «entradas relacionadas» o «entradas populares», pero «todas mezcladas». No puedes decirle que te muestre en una categoría, las entradas populares de ESA categoría. Por lo demás, probablemente sea la funcionalidad más útil de todo JetPack.

Precios y versiones de Jetpack

Los diferentes paquetes de Jetpack van desde los 30€ año hasta los 300€/año en función de las características que necesites, el más normal que servirá a la mayoría es el de 99$ / año. En esta tabla comparativa vemos las principales características que obtendremos en cada versión de jetpack. Las superiores siempre incluyen todo lo anterior.

Jetpack Gratis

  • Suscripciones por correo electrónico (usando los servidores de wordpress.com; ¡verdaderamente interesante!
  • CDN para las imágenes. Tus imágenes se servirán desde wp.com, harás muchas menos peticiones a tu máquina y ahorrarás ancho de banda.
  • Sidebars personalizadas. Personalmente me gusta mucho el de «entradas populares» basadas en las estadísticas de visitas.
  • Comentarios. Integración con Facebook, Twitter y Google+ además de suscripción por email a nuevos comentarios.
  • Formularios de contacto. De nuevo te evitas tener que instalar otro plugin para poder recoger datos del formulario.
  • Estadísticas. Basadas en hits, no en cookies como Google Analytics o similares. Mucho ojo con pensar que son sesiones.
  • Artículos relacionados. Una de las funcionalidades más interesantes, trasladas toda la carga que supone mostrarlos, a wp.com
  • Herramientas de compartir en redes sociales, puedes conectar tus perfiles sociales y automatizar la publicación en los mismos.
  • Casillas para la verificación en las principales herramientas para webmasters de los buscadores Google, Bing y Yandex.
  • Sitemaps XML. De nuevo servir estos sitemaps en lugar de por ejemplo los de Yoast, aliviará la carga de tu servidor.
  • Paquete básico de seguridad. Por ejemplo single sign-on, posibilidad de obligar a tener cuenta wordpress.com con double check.

Jetpack Personal (39$/año)

  • Básicamente agrega backups diarias, filtros antispam y soporte prioritario.

Jetpack Premium (99$/año)

  • 13 GB de vídeo servido desde su CDN
  • Las estadísticas incluyen hits de anuncios y comparticiones
  • La automatización incluye dentro de las herramientas de redes sociales la posibilidad de «recompartir» y de programar compartición.
  • Accedes al programa de anuncios de wordpress.com para generar ingresos poniendo publicidad contextual en tu blog.
  • Puedes configurar Google Analytics. Configuración básica, muy lejos de lo que puedes conseguir con GADWP
  • También trae herramientas SEO, pero que al igual que ocurre con GA, están muy lejos de lo que puedes configurar con Yoast.

Jetpack Profesional (299$/año)

  • Más análisis de seguridad, vídeo ilimitado y más de 200 plantillas premium.

Cosas que echo en falta de Jetpack

  • Que las estadísticas de wordpress.com, recojan también el tráfico de los Custom Post Types
Categorías
SEO

Sistrix: la navaja suiza del SEO

¿Qué es Sistrix?

Sistrix es una herramienta SEO dirigida a todos los expertos relacionados al mundo del marketing. Permite analizar y obtener datos acerca de nuestra web (índice de visibilidad, enlaces conseguidos…) como también de nuestra competencia.

Optimizer de Sistrix

Hace unos días leí un articulo donde comparaban entre otras muchísimas cosas, la parte dedicada al crawling de herramientas como Deepcrawl, URLProfiler, Botify y el Optimizer de Sistrix entre otras.

Hoy nos centraremos en el módulo Optimizer de Sixtrix. Cada día que la uso me gusta más, sin embargo echo en falta algunas cosas como las que voy a exponer a continuación. Escribo este artículo con el objetivo de poder comentar las funcionalidades entre usuarios de esta parte de la herramienta. Voy a comentar solo aspectos o detalles muy concretos sobre el optimizer. Si quieres puedes ver un tutorial más completo en su propia web.

Personalmente me veo en la tesitura de tener que rastrear más de 100.000 URLs (que parece ser el límite del rastreador en cada sesión de crawling. Para ello se me habían ocurrido 2 alternativas:

1) Bloquear mediante robots.txt y para user agents personalizados todos los directorios menos uno (que contenta obviamente menos de 100k URLs). Pero hasta ahora no he conseguido que respete un robots personalizado para cierto user agent, parece que si que respeta el robots para el resto de user agents (User-Agent: *, o incluso «User-Agent: SIXTRIX»). hasta donde yo he po no sigue los nofollows y guarda cookies de sesión. ¿estás de acuerdo?

2) Filtrar en «Ajustes» > «Proyecto», cierto PATH que quiero que rastree pero esto únicamente hace que intente leer esa URL, no hace que solo rastree las URLs que cuelguen de ese path tal y como hace con los host, ya que si indicas un host, si que no rastrea el resto de URLs del dominio. Esto es un poco contradictorio, de momento he comprobado que  funciona así.

Conclusión: Ninguna de las 2 anteriores me ha funcionado. El campo «página de inicio» de «Ajustes» > «Rastreador» únicamente le indica URLs adicionales a rastrear, pero no rastrea todos los links que se encuentra en esas URLs si no se los encuentra por el camino natural, es decir la home o la URL que le hayas dado en Path.

Así que si tu web es medianamente grande (más de 100k) para hacer un rastreo completo mediante el optimizer de sistrix tendrás que deshabilitar directorios mediante robots.txt hasta dejar rastreables menos de 100k. Tengo que probarlo todavía.

A continuación, voy a poner algunas cosas que le faltan a la herramienta:

– Poder establecer robots.txt virtuales, en Botify podemos hacerlo, a veces en proyectos grandes un seo depende de desarrollo y los cambios, incluso para subir un robots.txt no son excesivamente cortos.

– También estaría muy bien poder usar operadores booleanos en la herramienta de búsqueda de código fuente, así como poder exportar los resultados tal y como lo hacemos con el resto de informes. Trabajar solo con la interfaz web en webs medianamente grandes resulta realmente tedioso. Mejor todavía sería que el propio Google Webmaster Tools tuviese una herramienta de búsqueda de código fuente. Ah, y que no sacase URLs que resultan ser redirecciones cuando usamos la búsqueda inversa. No tiene sentido.

– La exportación de los redirects internos, solo exporta url redirigida y destino de la redirección. Deepcrawl si que exporta los 3 campos. Muy útil para terminar de pulir webs grandes tras migraciones donde han cambiado todas las URLs y hay muchos enlaces internos apuntando a redirecciones. El informe de los 404 si que lo exporta muy bien, con las URLs rotas y los orígenes. Esto último por cierto tengo pendiente mirar si se puede hacer desde el API de Google Webmaster Tools con el «urlDetails.linkedFromUrls[]«.

Post vivo, seguiré actualizando conforme vaya profundizando mis conocimientos sobre la herramienta y vayan mejorándola.

Módulo de Links de Sistrix

Desde que tiran del índice de Majestic encuentra muchísimos, pero la detección de enlaces buenos vs malos deja mucho que desear. La parte que más me gusta es que si así lo quieres te sirve para hacer una foto de los enlaces únicamente que tú le subas.