Hoy es turno de nuestro segundo autor invitado que viene a hablarnos de SEO. David Ayala, también conocido como Soywebmaster o el SEO rosa, nos habla de lo importante que es no saturar nuestros textos de palabras clave y nos cuenta un caso real de penalización web por este motivo. Te dejo con él 😉


Para comenzar con buen pie, quiero definir exactamente que es el Keyword Density o densidad de palabras clave.

En rasgos generales, es el porcentaje de veces que aparece esa palabra clave dentro de una URL en concreto.

Tradicionalmente en SEO, hemos abusado de la repetición de palabras clave para intentar hacerle ver a Google que una URL determinada tiene mayor peso para esa keyword en concreto.

El problema es que con el tiempo esta práctica se volvió muy descarada y Google consideró que esto no era natural, como es evidente, ya que se introducía la palabra clave sin sentido demasiadas veces.

¿Cuántas veces puedo introducir la palabra clave dentro del texto?

Esto es algo muy relativo ya que no se puede decir que tan solo puedes repetir X veces máximo una palabra dentro de un texto.

¿Por qué? Por qué no es lo mismo un artículo de 300 palabras que un artículo de 2.000 palabras.

Si introduces 10 veces una keyword en un texto de 300 palabras, quedará mucho más descarado que en uno de 2.000 palabras, que siempre quedará mucho más diluido y por lo tanto camuflado.

Más que fijarnos en el número de veces que se repite una palabra, hay que fijarse en la proporción que existe entre la keyword en concreto y el texto total de nuestra URL.

¿Qué porcentaje es el recomendable?

El tema de porcentajes de nuevo es relativo, ya que hay algunas temáticas donde ves que todo el mundo fuerza más y no tienen ningún problema y temáticas donde se fuerza mucho menos y aun así se tienen problemas.

Por ello, lo importante es estudiar a la competencia, estudiar a los 10 – 15 primeros en los resultados de Google y ver exactamente a qué nivel llevan el forzado de este aspecto.

No obstante, os diré que por norma general a mí no me gusta pasar del límite de un 2% de densidad de las keyword exactas.

Lo ideal es no pasar del límite de un 2% de Keyword Density.

Por ejemplo, si tenemos un texto de 638 palabras y repetimos una keyword 47 veces, tendremos un 7,37% de densidad. Lo ideal en este caso, será hacer un máximo de 13 repeticiones, lo cual significaría un 2% exacto.

Análisis del Keyword Density con la extensión SEO Quake.

La mayoría de problemas que he podido ver respecto a esto han sido webs que habían sobrepasado este límite, pero como bien digo, esto siempre es algo muy relativo.

Lo ideal, es siempre no intentar forzar y que los textos sean lo más naturales posibles.

Prominencia

Algo que a veces es más efectivo que forzar el porcentaje de repetición de keywords es fijarnos en la prominencia.

La prominencia realmente es el intentar que las keywords estén en zonas que realmente le puedan dar más relevancia a esas keywords, como por ejemplo que estén en el meta title, en etiquetas H, al principio del texto, al final etcétera, pero sin hacer un uso excesivo de estas keywords.

Intenta poner las palabras clave en las zonas más relevantes del texto.

Si hacemos que las keywords aparezcan en estos lugares específicos y no abusamos en el resto de lugares, la prominencia mejorará.

Herramientas que puedo usar para medición

Existen muchas herramientas con las que puedes medir la densidad de keywords y la prominencia.

Una de las más útiles sin lugar a dudas es SEO Quake, una extensión tanto para Chrome como para Firefox que te indicará de golpe tanto densidad como prominencia de la URL en concreto.

Otra opción es utilizar herramientas online como https://www.internetmarketingninjas.com/seo-tools/keyword-density/ para medir la densidad de palabras clave de manera muy sencilla y rápida.

¿Puedo ser penalizado por este motivo?

Sin lugar a dudas puede ser un motivo de una bajada en los rankings tanto de manera algorítmica como de manera manual.

Es decir, que también hay penalizaciones manuales por parte de los editores por este motivo y eso es algo que os quiero enseñar en el siguiente ejemplo real.

Nota aclaratoria

Una penalización algorítmica es una sanción que se impone a nuestra web de forma automática, es decir, no interviene ningún humano en la imposición de esa penalización, tan solo depende del propio algoritmo de Google.
Una penalización manual, es una sanción que impone un editor de Google de manera manual en tu web (recibimos un mensaje en search console cuando esto ocurre).

Un ejemplo de penalización

Este ejemplo es de una web que no puedo nombrar por motivos evidentes, pero sí que os voy a mostrar el keyword density de uno de sus artículos, que como podréis ver, algunas de las keywords principales superan con creces ese 2% que comenté anteriormente.

densidad articulo web penalizada

Ejemplo de la densidad de palabras clave de una web penalizada.

Para poneros en antecedentes, esa web recibió una sanción manual por contenido de baja calidad.

Tras recibir la sanción el dueño eliminó absolutamente todo su contenido y creo contenido totalmente nuevo y envió una reconsideración a Google. Esta reconsideración fue rechazada.

Y ahora bien… ¿Por qué fue rechazada siendo que había eliminado todo el contenido y había generado contenido totalmente nuevo? ¿Era de baja calidad el contenido nuevo?

No, realmente no era contenido de baja calidad, ni era contenido corto, ni era copiado ni nada por el estilo, era un buen contenido en apariencia.

Aun y así pasé a revisar el contenido en profundidad y una vez revisé el contenido, vi un patrón en todos y cada uno de los artículos. Prácticamente todos los artículos estaban sobre optimizados para la keyword principal que atacaba el blog y todos los artículos pasaban de ese 2% de densidad.

¿Qué es lo que hice? Rebajar el % hasta llegar a menos del 2% en todos y cada uno de los artículos.

Es decir, conservamos el contenido en su totalidad, pero jugué con la densidad de keywords.

Tras todos estos cambios, se envió 1 sola reconsideración que “casualmente” fue aceptada a la primera.

¿Qué se puede sacar de este caso?

Qué hay que tener cuidado con los pequeños detalles de nuestro contenido que quizás puedan pasar más desapercibidos, sobre todo para algunas temáticas que son más susceptibles de recibir revisiones manuales.

Cuida los detalles de tu contenido para evitar recibir revisiones manuales.

Reflexión final sobre Keyword Density

Tener unos buenos textos no sobre optimizados no solo es importante en tu propia web, sino que también es importante para los textos de tus reseñas y lugares donde vayas a crear enlaces.

Si los textos son de mala calidad, al final el que saldrá perjudicado eres tú, por que será tu enlace el que estará entre esos textos en esa URL en concreto.

Así que ya sabes, apuesta por sitios de calidad, que a la larga siempre saldrás ganando 😉

  • Bruno Ramos

    Grande David!
    Para un cliente elaboré una serie de landings de 1000-1200 palabras sobre cada uno de sus productos.
    Una de ellas sigue en 4ª posición para “comprar xxxx” (esta es su KD: https://twitter.com/brunoramoslara/status/928631126041726977), a pesar de tener un 4,66% de repetición de la key genérica de una palabra.
    Esto es porque busqué decenas de long tails y variaciones que diseminé por el texto (precio de xxxx, características, ventajas, marcas, mantenimiento etc.), y ahí sigue 😛
    Entiendo que este caso es de los que a Google le chirría menos, pero coincido contigo en no superar el 2%, incluso a veces con un 1% me doy por satisfecho si el contenido es realmente bueno.

    Saludos!

    • David Ayala

      Buenas Bruno!!
      Exacto! Hay situaciones en las que puede no quedar tan “cantoso”, pero por norma general no me gusta pasar de ese 2%.

  • Patricia

    Genial! este tipo de artículos rápidos me vienen muy bien para seguir aprendiendo 🙂

    • David Ayala

      Gracias por tu comentario!!

*