Tirando por tierra el Keyword Density

Vamos a ver el Keyword Density NO ES UN FACTOR de posicionamiento, no quiere decir que no tenga que aparecer la palabra clave por la que queremos posicionarnos dentro del contenido o en las urls, pero google no va a tomar en cuenta si aparece 1 ó 10 veces para mejorar nuestro posicionamiento.

Me explico, si llenamos nuestro contenido repitiendo nuestra palabra clave 10 veces a  google le va a dar igual ya que al analizar nuestro contenido dentro de su sistema no lo analiza mediante palabras si no mediante lexemas.

Sigamos, lo primero es saber esto:

http://www.salonhogar.com/espanol/lenguaje/lengua/lex_mor_pre.htm

Palabra: es la mínima unidad de significado.
Lexema: es el elemento que contiene la significación de la palabra. Tradicionalmente se le ha llamado raíz.
Morfemas: son las letras que van pospuestas al lexema. Indican los accidentes del vocablo. Estos accidentes son: género, número, tiempo y persona
Palabras primitivas: son las que originan otros vocablos.
Palabras derivadas: son las que han sido originadas por las palabras primitivas, a las que se les ha añadido uno o más sufijos.
Prefijos: son los elementos que preceden a las palabras, y que les añaden significación.
Sufijos: son ls elementos que posponen a las palabras y que les añaden significación.
Incremento: es la letra o letras que van entre el lexema y el sufijo. Esta letra o letras se han añadido por eufonía. Los sufijos sirven para formar sustantivos y adjetivos principalmente.

Palabra Lexema Morfemas Prefijo Sufijo Incremento
género número
literarios liter o s ari
memorias memori a s
señorita señor a it
desesperanza esper des anza
subdesarrollo desarroll o sub y des
periodismo period o ism
esclavitud esclav itud
guerrilla guerr a ill
inteligencia intelig a enci
quemadura quem a ur ad

Si os dais cuenta todas las palabras anteriores se han convertido a su lexema que es lo que contiene el significado de la palabra y es esto lo que se analiza junto otros muchos factores para saber sobre que trata el texto.

Resumiendo, si dentro de un contenido aparece 50 veces la misma palabra no vale para nada ya que su lexema y su variación es siempre la misma con lo que le estamos diciendo a google 50 veces lo mismo y además de la misma manera sin que esto valga para nada.

Decirle a google 50 veces “coche” – “coche” – “coche” es un gilipollez , es mucho mejor decirle “coche” – “automóvil” – “vehículo” -“transporte”

Si no enriquecemos el contenido con otros lexemas que nos puedan proporcionar relaciones con clusters de lexemas el contenido pierde sentido al versar siempre sobre el mismo tema. En todo caso una posibilidad es crear variaciones del lexema mediante prefijos, sufijos , incrementos, etc… ya que por lo menos aunque el lexema fuera el mismo la palabra sería distinta y tendría otro significado.

Ahora bien no digo que no sea importante introducir nuestra o nuestras palabras clave al principio de nuestro contenido para que sean más relevantes dentro de los resultados de búsqueda al aparecer en los snippets pero eso no quiere decir que tengais que repetirlas por todo el texto ni que cada vez que las pongais la marqueis en negrita por Dios.

Publicado por

Felipe García

Aprendiendo e intentando enseñar SEO

14 comentarios en «Tirando por tierra el Keyword Density»

  1. Buena aclaración DUQUE, viene bien para que la gente no siga haciendo malas prácticas en la redacción de contenidos.

    Sobre todo aquellos redactores que han aprendido lo que podía funcionar hace años y aun siguen con ese método.

    Lo interesante es por darle un sentido práctico. Por ejemplo poder tener un CMS que tire de diccionarios de varios tipos (generales, sinónimos, tesauros) para poder elegir a la hora de redactar que keywords debemos usar. Una buena funcionalidad sería que al introducir las keywords antes de escribir un artículo podamos tener una pila de palabras basadas en lexemas y sinónimos.

    De esta manera los iremos metiendo en los tags relevantes para Google y los intercalaremos de forma natural en el artículo para dotarlo de la semántica adecuada, haciendo que ese contenido se clasifique en el mayor número de cluster de google.

    Saludo y que acabes muuuy bien el año! 😉

  2. buen artículo, creo que la gran mayoría incurre en estos errores, al igual que utilizar un gran cantidad de keywords en textos cortos con links apuntando al mismo sitio, desde donde lo mires es un brutalidad.

  3. Villa de ayora, esto no es de ahora, es desde el principio de los buscadores ha estado esto. Yo lo llevo haciendo años, pero hacer esto ni significa como insinuan que debas bajar la densidad de las keys principales, esto es un apoyo muy fuerte y no deberia dejar de hacer a cada una de sus webs cuando esta nueva y con el tiempo ir cambiandoy mejorando

  4. No estoy de acuerdo con eso que dices que ha google le va a dar igual.

    >>Decirle a google 50 veces “coche” – “coche” – “coche” es un gilipollez , es mucho mejor decirle “coche” – “automóvil” – “vehículo” -”transporte”
    Totalmente de acuerdo

    Respecto a la cantidad de palabras repetidas o lexemas repetidos pueden ser más relevantes o menos.

    Tener el lexema “esclav” 3 veces en una página de 100 palabras no es lo mismo que tenerlo 25 veces en una pagina e 100 palabras.
    3/100 vs 15/100

    Si pones un lexema muchas veces en una página, deja de ser relevante ya que “no destaca”.

    Es lo que se llama “term frequency–inverse document frequency”.
    “This weight is a statistical measure used to evaluate how important a word is to a document in a collection or corpus”

    >>Es el peso estadistico que mide como de importante es una palabra dentro de un documento dentro de un corpus

    Hilando con el tema:
    “tf–idf” es el peso estadistico que mide como de importante es un lexema dentro de una página dentro de google.

    http://en.wikipedia.org/wiki/Tf%E2%80%93idf

    Saludos.

  5. Raul el problema es que no sabemos como mide google la importancia del lexema dentro de un documento, ya que puede tomar varios valores, como tu bien comentas puede utilizar “term frequency–inverse document frequency”, pero también puede dar más peso a las keywords que se encuentren en la introdución, en el cuerpo del mensaje o las que estén cerca de enlaces, etc….

    Por lo que al no saber que factores toma en consideración solo podemos obviar lo lógico.

    Un saludo.

  6. Entonces, esto que comentas que es mejor alternar la keyword a posicionar: si queremos posicionar “coche” alternar en el contenido con otros sinónimos, vamos a estar mejor posicionados entiendo.

    Ya no es necesaria una keyword density del 3-4% como recomendaban en todos los libros de posicionamiento? Si aparece una vez en el contenido va a posicionar exactamente igual?

    Alguien ha hecho la prueba con alguna Web?

  7. Pues a ver…Yo no soy de los que utiliza herramientas para determinar la keyword-density, porque no soy tan maniático, pero tampoco creo que no se tenga en cuenta el que aparezca varias veces, y le de más relevancia.

    Imagino que es un tema que puede dar bastante de hablar.

    El artículo, muy curradito.

  8. Pingback: Xilon: Mitos Adsense | Xilon SEO
  9. Tengo una landing page que no puedo hacerla subir, voy a aplicar esta ecnica a ver que pasa, y ya les contaré

  10. Siento decirte amigo y con todo el respeto que no tienes ni idea de SEO al igual que todos esos cerebritos web que describen hasta las fórmulas de pagerank. Si no quereis contar los secretos del SEO no los conteis pero dejar ya de publicar tonterias tras tonterias.

    Realmente en España se pueden contar con los dedos de las manos las personas especializadas en SEO.

    Cuantas personas son capaces de posicionar un término en el primer puesto de Google con una pagina cuyo famoso pagerank es cero ?

    Se puede amigos creerme, y sin hacer ningún tipo de trampa a Google. Pero está claro que las pocas personas que sabemos hacerlo no podemos contar nuestro secreto.

    Hay que entender que vivimos de esto y no se puede alimentar a la competencia.

Deja una respuesta