Cierra el congreso el gran Carlos Redondo, uno de los cofundadores de Safecont. Nos habla de un vertical de formación. Características comunes:

  • Gran volumen de búsquedas.
  • Alta dispersión temática.
  • Alta competencia en el sector.
  • Target que puede ser local o global.
  • Multisector: cursos, masters, carreras…
  • El longtail predomina.
  • Elevado nº de productos.
  • Oferta amplia.
  • Geolocalización importante, el factor presencial sigue pesando.

 

Nos presenta el proyecto de un portal ampliamente conocido. Lo trabajaron indexando miles de cursos, con una categorización agresiva, equipo de keyword research, nulo control de indexación, alta generación de urls.

¿Qué pasó? Panda entra en juego

Desindexaron un montón de contenidos por miedo a un pandazo que penalizara el thin content. Fase de análisis y diagnóstico:

  • Tráfico y analítica: tráfico orgánico por categoría. El problema de esta web era la infinidad de temas y categorías.
  • Análisis de contenido: calidad, nivel, duplicidades…
  • Problemas: ruido en los datos al haber eliminado una gran cantidad de url’s.

La solución estaba en las máquinas, Una persona o equipo de personas no podía trabajar con ello. U millón de url’s solo era abarcable con tools como Siteliner o Copyscape (en varias pasadas con el 2º y si mal no recordamos, sacando packs de 30K URl’s significativas por Siteliner y sacando conclusiones de patrones y extrapolando los resultados)..

Se descubrió:

  • Gran volumen de contenido duplicado externo. Objetivos de limpieza (eliminar elementos) y reescritura.
  • Cierta cantidad de thin content y duplicidad interna. La solución pasaba por unificar contenido. Extracción de elementos, Stemming…etc. Herramientas como Screaming Frog o WordStat pueden ayudarnos. Pero al final por lo que optaron fue por el desarrollo de sus propias herramientas. Crear clusters para sacar sus propias conclusiones: 301, canonical, todo perfecto… En definitiva, mucho trabajo que hoy nos facilitan algunas herramientas del mercado.
  • Necesidad de análisis de logs. El objetivo pasaba por saber qué hacía el bot de Google, cómo se comportaba cuando rastreaba el site. Lo interesante es agrupar por tipos las url’s y ver cuál es el nº de veces que el bot las rastrea, la frecuencia. Algunas de las soluciones fueron: reducción de enlaces en página, aplicación demicroformatos Schema, canonicalización de contenido inteligente e interlinking.

A esto se le sumaron infinidad de tareas SEO. Todas ellas provocaron una disminución del riesgo a la mitad según Safecont y un crecimiento del tráfico en Analitycs del 174%.

 

Este contenido está publicado por Buenamanera y no refleja más que nuestra opinión, desligada de la del ponente. Si hemos publicado algo que no debíamos, por favor contacte a @bliblobli entre las 9 y las 22h. Y disculpas por los seguros errores de “transcripción” 🙂