Google Penguin actúa todo el tiempo: ya es parte del algoritmo principal

google penguin trabaja en tiempo real

Google Penguin es desde hace unos días, parte del algoritmo principal de Google, según han anunciado en su blog oficial. Desde ahora los cambios implementados en la web serán tenidos en cuenta desde el ojo del pingüino tan pronto se rastrea el sitio. Por ello, vamos a repasar los puntos clave de Penguin y qué puede suponer que el algoritmo funcione constantamente.

Penguin será más específico

Anteriormente, Google Penguin penalizaba el spam detectado a todo el sitio web, pero parece ser que ahora va a ser mucho más específico a la hora de determinar si se están haciendo las cosas bien. Ahora puede que encuentre algunas páginas que estén perfectamente optimizadas mientras que puede que otras las considere spammeadas.

Este punto en concreto nos hace preguntarnos un montón de cosas…

Ahora bien, ¿cómo rankeará eso finalmente en los SERPs? ¿Las páginas penalizadas acabarían finalmente afectando al global del sitio? ¿Y si esa página detectada es una de las que más linkjuice recibe? ¿Las páginas que detecte correctas, las rankeará a posiciones superiores?

Actualizaciones de Google Penguin

Google ha anunciado que ya no existirán más actualizaciones de Penguin, obviamente, porque este estará integrado dentro del algoritmo principal que opera 24 horas al día, 365 días al año.

Curiosamente, desde hace casi 2 años no se habían anunciado actualizaciones Penguin, aunque en los últimos meses, sobretodo con el Google dance producido en el pasado mes de enero, pensamos que estábamos verdaderamente ante una de ellas.

Estas son las diferentes actualizaciones Penguin desde su lanzamiento:

  • Penguin 1.o, en abril de 2012
  • Penguin 1.1, en mayo de 2012
  • Penguin 1.2. en octubre de 2o12
  • Penguin 2.0 en mayo de 2013
  • Penguin 2.1 en octubre de 2013
  • Penguin 3.0 en octubre de 2014
  • Penguin 4.0 ‘real time’, septiembre de 2016

Google Penguin, contra el linkbuilding artificial

La actualización de Google Penguin surgió en 2012 como respuesta a la necesidad de “castigar” a los sitios web que hacían spam, abusando de tácticas onpage y offpage, como manipular la creación de enlaces artificiales y así rankear en las primeras posiciones del buscador.

Anteriormente, Google valoraba como relevante aquel sitio web que recibía gran cantidad de backlinks. De esta forma, se empezó a abusar de la creación de enlaces a la web, con independencia de la temática o nicho del dominio, así como la utilización masiva de directorios, enlaces en foros, granjas de enlaces y similares.

De esta forma, se conseguían rankear webs de baja calidad a las primeras posiciones por disponer tan solo de gran número de enlaces entrantes hacia su sitio web.

Google siempre intenta ofrecer la mejor experiencia de usuario en la búsqueda, lanzando en 2012 Google Penguin que estableció las bases de un Linkbuilding natural y acorde con las directrices de Google.

Qué penaliza Penguin en Onpage:

Tácticas consideradas spam por Penguin son el keyword stuffing, contenido duplicado, doorway pages y cloaking.

Keyword Stuffing

El keyword stuffing es una táctica que llevaba a repetir de forma abusiva la palabra clave para rankear mejor la página en concreto que se quería posicionar. Así, cuantas más veces se repetía la keyword se consideraba mejor, pues posicionaba de forma positiva. Sin embargo, todo abuso es malo, consiguiendo textos artificiales que no eran comprensibles al cerebro humano. Y como Google aspira a pensar como un verdadero ser humano, acabó por penalizarlo.

La repetición de palabras clave es conocida como la densidad de palabra clave, pudiendo ser medida de diversas formas. Existían anteriormente fórmulas para saber si un texto estaba sobre-optimizado, es decir, con una densidad alta, siendo el porcentaje superior al 2-3%.

Sin embargo, conforme ha ido evolucionando el algoritmo, ahora no se tiene en consideración la repetición de la keyword, sino la riqueza del campo semántico a través de palabras clave relacionadas que aporten riqueza al texto. Es decir, en realidad es cuestión de sentido común que al escribir utilicemos sinónimos para no resultar repetitivos. Pues en esto consiste actualmente hacer buen SEO onpage desde Google Penguin: escribir con palabras sinónimas que tengan buenas búsquedas y se consideren relevantes para el contexto semántico.

WDF*IDF permite establecer un camino para escribir textos optimizados sin pecar de sobreoptimización. Gracias a la fórmula se sopesan tanto la frecuencia de utilización de una palabra clave como su popularidad en el sitio, ofreciendo textos de calidad gracias a términos relacionados.

Doorway Pages

Son aquellas páginas que de contenido de muy baja calidad, o incluso nulo, que se creaban con la única intención de posicionar con la palabra clave existente. De esta forma, se generaban como práctica gran cantidad de páginas con la keyword a posicionar que verdaderamente poco aportaban al usuario, pero sin embargo conseguían gran cantidad de enlaces internos que acababan por posicionar bien.

Esto acabó tras Penguin, pues cada vez más el contenido de calidad es fundamental.

Cloaking

Esta táctica buscaba mostrar un contenido diferente en función de si se trataba de un usuario o de Google. Era una táctica Blackhat SEO muy utilizada y consistía en tomar la información IP o user-agent y en función de esta mostrar un contenido u otro.

Otras tácticas onpage que se utilizaban era el texto oculto y las páginas duplicadas.

Qué penaliza Penguin en Offpage

Estrategias de creación de enlaces artificiales

La autoridad de un sitio web era determinado por Google anteriormente tomando en consideración el número de links que recibían, de forma que se practicaban tácticas abusivas para conseguir el mayor número de enlaces posible.

Altas en granjas de enlaces y directorios de baja calidad

Las granjas de enlaces eran sitios web desde donde se podían generar gran cantidad de backlinks hacia el sitio web que se quería rankear. El problema es que estas granjas no tenían un contenido específico, por lo que se recibían cientos de enlaces de sitios que no tenían nada que ver con la temática del sitio web, siendo muchos de ellos comprados.

De esta forma, en las estrategias de Linkbuilding actuales se intenta que la mayoría de los dominios sean de temática relacionada.

Creación de sitios con sitios 2.0 con textos spinneados

Un texto spineado es aquel que ha sido tomado de un sitio web cualquiera y que, tras un proceso de “lavado” en un software particular, acaba convirtiéndose en un texto diferente de forma automática.

Esta táctica de spinnear textos, además de ser poco ética a mi parecer, acaba por crear un contenido de baja calidad pero que, según las doctricas del BlackSEO, pueden ser pasados por alto por Google.

No obstante, es el abuso principalmente lo que persigue Penguin.

Otras tácticas encaminadas a manipular el Pagerank de una web para conseguir mejor posicionamiento y que castiga Penguin es la  creación de comentarios masivos en blogs sin moderación, la compra de enlaces y la creación de perfiles masivos en foros, sitios 2.0 y similares.

Recomendaciones para llevarse bien con Google Penguin

  • Centra tu estrategia de Linkbuilding en directorios relevantes, de alta calidad y que estén relacionados con tu temática
  • Cuando comentes en Blogs, aporta valor. Elige sitios web de calidad a la hora de comentar.
  • Trabaja el Guest Blogging. Contacta con Bloggers de autoridad dentro de tu nicho y proponles redactar un artículo en su blog.
  • Varía los anchor text y controla el porcentaje de cada uno de ellos. Sé natural.
  • Potencia tu social linkbuilding ubicando botones para compartir en redes sociales en los lugares que consideres
  • Genera contenido de calidad. Aunque te lleve tiempo. Es inversión de futuro.
  • Elimina los enlaces potencialmente tóxicos. Contacta primero con el webmaster, y si no tienes éxito, lanza un disavow.

Herramientas para trabajar si te penaliza Google Penguin

  • Imprescindible vigilar Google Search Console, pues las penalizaciones manuales suelen ser avisadas por aquí
  • Para detectar enlaces no naturales y ver estrategias de la competencia: Cognitive SEO
  • Detectar si has sido penalizado: Barracuda
  • Detectar enlaces perjudiciales: Link detox
  • Analizar los anchors y backliks: Ahrefs
  • Espiar enlaces de la competencia: Monitor Backlinks
  • Ver la densidad de palabras clave: Majestic SEO
  • Controlar el spam web: Open Site Explorer
  • Trabajar el TF*WDF: Onpage.org y Xovi.
  • Detectar contenido interno duplicado: Siteliner

¿Añadirías alguna herramienta más?

Ahora más que nunca ya sabes:

Una cosa más: al parecer de momento no está confirmado que se haya liberado completamente Penguin, desde fuentes oficiales de Google se comenta que habrá terminado en un par de semanas. ¿Has notado algún cambio de posiciones en tu proyecto? Coméntalo conmigo más abajo.

Guardar

Guardar

Guardar

4 Comments, RSS

  1. Sergio vazquez 27 septiembre, 2016 @ 3:47 pm

    Hola Lucía

    Buen post . Te sugiero poner CognitiveSeo, Backlink monitor y Google Search console en la lista 😉

    Saludos

    • Lucía Roldán 28 septiembre, 2016 @ 8:46 pm

      ¡Gracias Sergio! Voy a actualizarlo en el artículo. Buenos aportes. ¡Saludos!

  2. José peña 28 septiembre, 2016 @ 8:04 am

    Hola lucía. Lo que no cambia es que hay que crear buen contenido. Eso es lo único con lo que estamos a salvo.

    • Lucía Roldán 28 septiembre, 2016 @ 8:46 pm

      Efectivamente José. Es una verdad como un templo.

Your email address will not be published. Required fields are marked *

*

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
A %d blogueros les gusta esto: