Cambios en el algoritmo de Google

Por todos es sabido que la base que sustenta la pirámide del posicionamiento son los enlaces (backlinks) y el contenido con keywords. Pero es evidente que Google tiene un problema con la venta de enlaces ya que es un aspecto “incontrolable” porque pese a imponer sus normas los webmaster no las cumplen y muchos no las cumplen símplemente por desconocimiento.

Me juego lo que queráis que una gran mayoría de webmaster no sabe lo que es un nofollow, si a ese webmaster le llaman y le dán un dinero por poner un enlace o un banner con enlace directo en su web pues lo pone y se va tan contento a gastarse el dinero en unas cervezas.

Por ello vemos que una de las primeras medidas que Google ha tomado es meter miedo amenazando de penalizaciones, primero las del PR y luego en perjudicar el posicionamiento, pero lo que realmente creo que ha hecho es dar más importancia a otros factores.

Como digo es solo una opinión, destaco estos dos factores:

Tiempo promedio de permanencia – Google puede saber de la calidad de un sitio por el tiempo de permanencia medio de los usuarios, y os aseguro que aunque el webmaster no use google analitics es viable saber el tiempo aproximado que los usuarios permanecen en una web y si ha quedado satisfecho con lo que ha encontrado. Evidentemente si tenéis una web que deja satisfecho a los clientes lo mejor que podéis hacer es decirselo a google usando google analitics ya que no os quepa ninguna duda de que google hará uso de esas estadísticas.

Enlaces desde webs que considera importantes y no manipulables – hemos hablado del Trust Rank, pues algo parecido incluyendo por ejemplo dominios .gub, de la wikipedia que aunque lleven nofollow son controlados por editores u otros directorios de prestigio que sean revisados por humanos, ya sabéis cuales son.

Con esto no intento decir que los backlinks no sean importantes, sinó que creo que cada vez importarán menos y mayoritariamente se tendrán en cuenta los enlaces que estén dentro del contenido dando menos importancia a los del sidebar y prácticamente anulando el valor de los enlaces en el footer.

32 comentarios en «Cambios en el algoritmo de Google»

  1. Hola Pedro, estoy deacuerdo contigo en el relacion a los enlaces, ya que se les ha ido de las manos y a mi entender es imposible pararlo ya.

    Pero, que den mas relevancia al tiempo de permanencia de un usuario en una web puede ser un punto pero mas pero no creo que nunca sera demasido “vital”, ya que creo que es mucho mas facil de alterar.

    Nunca te has ido a comer y dejaste una web para chequear abierta¿?

    ¿Esas 2 horas crees que serian vinculantes respecto al posicionamiento?

  2. Pedro,

    Cuanto tiempo dirías que es un tiempo promedio de permanencia razonable? Entiendo que dependerá del sector pero si me puedes orientar sobre una media general estaría bien para saber como está mi página.

    Gracias

  3. Hace falta también analizar qué información tienen a mano para poder hacer mediciones de uso y satisfacción.

    Google, como otros buscadores, puede saber si un resultado ha satisfecho al usuario midiendo los clicks que se hacen en las SERPs. Si el usuario hace click en un resultado, y después de 30 segundos regresa a hacer click en otro resultado, lo más probable es que el primer resultado no cumplió con las expectativas.

    Esta es una forma de controlar la calidad de los resultados sin hacer uso de otros servicios (como Analytics) – claro que en mi opinión de alguna u otra forma sí se apoyan en sus diferentes servicios.

    En cuanto al valor de los enlaces,
    Pienso que mientras más se prostituyen los enlaces en Internet, más valdrán las revisiones manuales como el TrustRank. Sin embargo, pienso que aún la suma total de enlaces (al estilo PageRank) vale mucho en cuanto a estimar calidad, porque de la forma en que se lo calcule, un sitio con 100,000 enlaces entrantes tiene que ser más importante que uno con 1,000 enlaces entrantes, y punto.

    Roberto,
    Sobre un tiempo de estancia decente, pienso que si logras que un porcentaje alto de tus visitantes visiten una seguna página en tu sitio en lugar de “rebotar”, ya estás dentro del grupo de contenido de calidad.
    Para darte una referencia, en mis mejores sitios he logrado promediar hasta 5 páginas por visita (de 4mins por visita, hasta 30+mins), que es muy difícil de conseguir a no ser que se trate de un foro o algún otro sistema comunitario.

  4. Osea que según los comentarios que aquí haceis y el post en si, Google se considera a si mismo como la peor pagina del mundo, puesto que el tiempo de permanencia en Google es muy poco.

    No amigos, lo del tiempo de permanencia en una pagina sirve para comparar paginas de un mismo tema, pero no se puede introducir el tiempo de permanencia para valorar la calidad de una web, en algunas, cuanto menos tiempo estés significa que la web esta mejor hecha y requiere menos tiempo al usuario.

  5. El tiempo de permanencia (y las paginas vistas) por un usuario que llega a tu web desde google es un buen factor para que google sepa si ese resultado ha sido satisfactorio para el usuario.

    Si el usuario cierra la pagina a los pocos segundos de entrar es evidente que no ha encontrado lo que necesitaba, por lo que es un factor a tener en cuenta.

  6. Telendro, a lo que nos referimos, como bien dice Jose o Tatuajes, es que si un usuario hace una búsqueda y cierra la página a los pocos segundos de abrirla y enseguida hace click en el siguiente resultado que le ofrece Google pues está claro que en la primera página el contenido no ha satisfecho al usuario.

    En segundo lugar creo que el ejemplo que pones de Google no es muy acertado ya que Google es un buscador de webs que ofrecen contenido no una web con contenido que es de lo que hablamos. Además muchos usuarios mantienene la web de resultados siempre visible en una de las pestañas, por tanto el tiempo de permanencia no creo que sea tan bajo como dices.

  7. Muy acertado es el dilema del tiempo de permanencia en una web, Google sabe mucho de todo lo que pasa en la web y tiene las herramientas para hacerlo, desde su propia web así como también desde la toolbar, analytics, adsense, etc. No sería tonto pensar que lo use para conocer la calidad de una web en particular y lo utilice como parte de su algoritmo ya que lo que se supone es que avance hacia ofrecer los mejores sitios webs como resultados de sus búsquedas.

    Saludos.

  8. Pedro, entonces dices que:

    ¿Google solo cuenta el tiempo de permanencia en las webs de contenido?

    ¿y como hace para saber si una web es de contenido?

    ¿Paginas Amarillas es una web de contenido?

    Si lo es entiendo, que Google no la cuenta como una web de calidad, y ademas, cuanto mejor sea la pagina, peor para Google no? Porque si Paginas Amarillas estuviese muy bien hecha el usuario permanecería muy poco en ella, ya que rápidamente encontraría lo que buscase y se iría rápidamente de dicha web.

    Si de los que estas hablando es del Bounce Rate, creo que no es acertado lo que dices, y que a no ser que utilice informacion de Analytics, que dudo que lo haga, no tiene forma de conocer el Bounce Rate de una web.

  9. FOTOS, no, llevas tu toda la razón.

    Sobre todo con lo del “nofollow” que comentas mas arriba. TODA LA RAZON. Si señor !!! Se nota que sabes mucho de SEO.

  10. Pienso que lo del tiempo de estadía en un página es claramente un asunto que depende de los objetivos, contenido y construcción de cada sitio.

    Evidentemente, la página frontal de Google no cumple con ninguna normatvia clásica de SEO, con casi 0 contenido y solo un montón de enlaces a su mismo sitio. Como bien dicen Pedro y Telendro, con esto se puede ver que hay que tener en cuenta que existen diferentes tipos de páginas, contenidos y objetivos, y se espera que un buscador inteligente sea capaz de reconocer estas diferencias.

    Sin embargo, apegándonos a lo más básico y claro, aún en el caso de Google o Páginas Amarillas, si el usuario regresa a la SERP a continuar la búsqueda es muy probable que no encontró lo que buscaba en el resultado anterior (sea esto contenido, enlaces a otros sitios, etc).

    Con respecto a mi comentario anterior sobre al tiempo de estancia en un sitio web, mi referencia fue hecha para blogs, que es el tipo de sitio más común de nuestra comunidad. Por supuesto, y como dice Telendro, un catálogo de enlaces o un buscador estaría pésimo si los usuarios se quedan 10 mins.

    En cuanto a cómo podría un buscador establecer una medición del tiempo óptimo de estancia en una página (si desearan agregar este cálculo a sus algoritmos), imagino que se podría establecer el volúmen de contenido en comparación con lo que el humano promedio lee (100-200 palabras: resumen o descripción, 200-600 palabras: entrada en un blog, 600-1200 palabras: artículo formal, 1200+ palabras: análisis detenido), en comparación con un ratio contenido / enlaces, también se puede comparar entre sitios similares, y aquellos que tienen un TrustRank alto (que ya se ha establecido manualmente que son de calidad), etc. Claro, aquí estoy especulando a la deriva, pero me parece razonable.

  11. entonces si bien estoy entendiendo lo que ustedes esplican en estas lienas todo mi trabajo a tomar por c….., en fin me intento romper la cabeza para que las visitas naveguen rapido, busquen encuentren y puedan seguir su camino en el menor tiempo posible y ahora resulta que lo que tengo que hacer es esconder la informacion para que las visitas esten mas tiempo buscando en mi sitio y asi subir mi tiempo de permanencia en analytics, lo siento pero estoy con telendro dudo mucho que esta sea una medida factible

  12. Al fin y al cabo, no importa mucho si Google tiene en cuenta el tiempo de permanencia o si la importancia de los enlaces disminuye. Lo importante es ofrecerle a Google lo que quiere. ¿Qué quiere Google? Que los usuarios estén contentos. ¿Qué los hace contentos a los usuarios? Una web útil y la mejor experiencia posible. Esto junto con un poco de promoción web siempre triunfa.

  13. No se que pinta ahora lo del tiempo en una web. ni los datos de google analitics mezclados con el algoritmo en las posiciones de las búsquedas.

    Es mezclar churras con merinas. Además no se de donde sale, ¿o es pura especulación?

    Otra cosa es que valore lo que hacen los usuarios como que el mismo usuario haga una búsqueda y vaya al mismo sitio que ya visito, o cuantas búsquedas/visitas hace hasta encontrar lo que busca…

    el resto creo que es pura especulación.

  14. Vamos a ver en todo momento he indicado que es una apreciación bastante lógica.

    Telendro, yo solo he intentado indicar que Google le dará un poco más de importancia a aspectos no relacionados únicamente con los backlinks aunque ese factor todavía es predominante.

    Lo que se intenta decir es que si tu buscas una frase más o menos competida, por ejemplo “viajes a las canarias” y a los pocos segundos de llegar a una web coges, la cierras y te vas al siguiente resultado que te ha ofrecido Google sobre la misma frase puede ser un síntoma de que no te ha satisfecho el resultado.

    Almenos si yo tuviese que implemenentar un algoritmo de búsqueda quizá presentaría la próxima vez en primer lugar una web que tiene un promedio de permanencia de 3 minutos en “viajes a las canarias” antes que una que tiene 20 segundos de promedio de búsqueda, siempre y cuando los backlinks sean parecidos.

    No se de donde sacáis que yo solo valoro el tiempo de permanencia, creo que he dejado claro que los backlins importantisimos, en el segundo factor únicamente he hablado de ello.

    Telendro. En serio crees que Google hace caso omiso de Google Analitics y no lo usa para mejorar su algoritmo ???, vamos, estoy prácticamente seguro que sí lo usa, es más, no usa solo Google Analitics sinó el Sript de Adsense también para generar estadísticas y mejorar el Algoritmo.

    budha, me parece muy bien tu apreciación, pero si tu optimizas una web para que se navegue rápido, busquen y encuentren fácil no se está abandonando tu web, sino todo lo contrario estás manteniendo al usuario entretenido en tu web y encima incrementas el nº de páginas vista.

    Sinceramente estoy convencido que los dos factores que he explicado tienen mucho sentido y con esto no quiero decir que ya no se valoren los backlinks generales que considero el factor externo de posicionamiento más importante.

    Nada de eso tiene que ver con páginas amarillas ni con Google ya que si no te ha satisfecho el primer resultado de Google vuelves a Google para seguir buscado, 3/4 de lo mismo pasa con páginas amarillas, si no te gusta el primer resultado sigues mirando otra empresa en páginas amarillas PERO NO SE ABANDONA NI GOOGLE NI PÁGINAS AMARILLAS.

    Directorio Español. Si pinta mucho Analitics con el resultado de búsqueda ya que es prácticamente seguro que Google usa las estadísticas de Google Analitics para mejorar los resultados de las búsquedas.

  15. ¿De donde sacas que es practicamente seguro?
    Afirmar eso sin pruebas es hablar por hablar.
    Es como los que dicen convencidos que anunciarse en adwords ayuda a posicionarse, pero hay quienes afirman convencidos que si ponen anuncios en adwords bajan sus posiciones. pura especulación sin base.

    Hace años que se habló de que usaban la toolbar, a día de hoy sigue siendo pura especulación.

  16. Hola Directorio Español, antes que nada que quede claro que respeto tu opinión, pero no la comparto.

    Símplemente es mi opinión y prácticamente un secreto a voces. Nadie puede asegurar nada al 100% ya que no disponemos de información privilegiada. Pero estoy prácticamente seguro que Google usa Analitics , Adsense, el historial de búsquedas y cualquier servicio para recoger información, estadísticas con el objetivo de mejorar la calidad de su algoritmo.

    Con todo el respeto del mundo es ingenuo pensar que Google no hace uso de toda esa información mientras no ponga en peligro la privacidad de las personas .

    Creo que dentro de la política de uso de Google Analitics no hay ningún mensaje que indique lo contrario, si ellos no hicieran uso de estas estadísticas seguro que lo advertirían. Es Lógico que una empresa privada haga uso de sus servicios y sus bases de datos para mejorar los otros sin atentar a la privacidad personal claro.

    Creo recordar que Marissa Mayer (Vicepresidenta de productos de búsqueda y servicio al usuario de Google) ha afirmado que Google hace uso de su enorme base de datos y de sus innumerables servicios sin poner en peligro la privacidad de las personas.

    Un Saludo.

    De todos modos tu opinión es completamente respetable.

    Saludos

  17. Pues Yo opino igual que Directorio Español y respeto obviamente tu opinion Pedro Perles pero para nada la comparto.

    No creo que Google utilice Analytics, ni AdSense, ni demás en su algoritmo de posicionamiento, y que narices, si tu puedes afirmarlo con rotundidad que estas prácticamente seguro, te diré que Yo estoy prácticamente seguro de todo lo contrario 😀

    Ironías a parte, no tendría demasiado sentido, pues tanto AdSense como Google Analytics y demás no se utiliza en la mayoría de lugares en Internet, entonces el comparar webs que los utilizan con web que no no seria demasiado valido.

  18. Cuando menos las mías y las de Pedro son especulaciones educadas, basadas en intuición calibrada y experimentos empíricos.

    Algunas referencias:

    Prueba de que Google está usando información de comportamiento para posicionamiento – SEOMoz

    Este análisis proviene de un experimento empírico con mucho mérito.

    Por otra parte, estaconfirmado que el indexador de AdWords y el indexador del motor de búsquedas de Google (Googlebot) comparten información, lo que a menudo resulta en mejor indexación cuando se utiliza Adwords. Este es un ejemplo directo de herramientas independientes compartiendo datos dentro de Google.
    También vemos que en Webmaster Tools Google ha agregado información sobre el número de suscriptores al RSS del sitio usando herramientas de Google como el Google Reader – qué diablos hace esa información (en teoría irrelevante) junto a otras estadísticas cruciales de posicionamiento?

    Así existen multitud de ejemplos que soportan las teorías e ideas expresadas en este hilo. Ya me pasé media hora de más desempolvando los enlaces, así que hasta aquí con ejemplos directos – pero existen más para el que quiera buscarlos.

    (Me disculpo por los enlaces en inglés, pero a veces es difícil conseguir información en el idioma de preferencia).

    Saludos.

  19. Al final este post esta siendo mas valioso por los comentarios casi que por el mismo post, sin desmerecer al post (y al que lo escribe), que al final ha sido el que ha provocado estos comentarios tan interesantes.

    Jose Oñate, primero agradecerte de la forma en la que comentas, el trabajo que se que da el buscar los enlaces que utilizas como referencia y demás, y me revienta ser tan simple como voy a ser, pero me sigue resultando difícil de creer. Y aunque el supuesto estudio esta referenciado por alguien como SEOMoz, y leyendo lo que he leído, el estudio no me parece lo suficiente riguroso, como para llegar a las conclusiones que ellos mismo llegan y que tu MUY BIEN apuntas.

    ¿Cual es tu opinión Jose Oñate? A parte de estudios. ¿No te parece que seria poco rigurosos por parte de Google, darle tanta importancia a los datos obtenidos a traves de una herramienta que no es usada por la mayoría de las webs?

  20. Telendro, al final un elevado porcentaje de gente usa Google como buscador, Analitics, Gmail, Adsense, Maps, … u otros servicios de Google y lo que intento decir es que Google hace uso de todos los servicios y de todas las estadísticas que recolecta en la base de datos y al final entre unas y otras un gran porcentaje de webs se ven implicadas por tanto no creo que sea poco riguroso.

  21. “¿No te parece que seria poco rigurosos por parte de Google, darle tanta importancia a los datos obtenidos a traves de una herramienta que no es usada por la mayoría de las webs?”

    Estoy completamente de acuerdo, es un tema complicado. En lo personal, como desarrollador de software, me sería muy difícil aplicar un algoritmo que no ofrezca información utilizable para (cuando menos) la mayor parte del índice.

    Sin embargo, hay algunos factores a considerar:
    1. La bendita barra del PR está en todos lados. SI se usara con fines estadísticos, pienso que los datos obtenidos a través de esta herramienta deben ser mucho más confiables que los obtenidos a través de herramientas similares de otras compañías (tipo Alexa, que es bastante acertado para el top 50k – 100k). De esta misma forma, muchas de las herramientas de Google son las principales en el mercado, así que su base de información es bastante amplia.

    2. Google no ha perdido tiempo en comprar servicios que entre otras cosas aportan con estadísticas bastante relevantes. En particular estoy pensando en Feedburner, que aunque se puede decir que lo adquirieron para ponerle publicidad (que está empezando a generar réditos), también sabemos que es una de las plataformas con la mayor base de datos de blogs en el mundo. Las estadísticas de Feedburner son muy comprometedoras (al igual que las de Google Reader), incluyendo datos del comportamiento de los lectores – el tema en cuestión. Y sabemos por el ejemplo que cité en mi comentario anterior (la aparición en Webmaster Tools de los usuarios suscritos a Google Reader) que Google parece tomarse muy en serio estos datos.

    3. Google es conocido por 2 rasgos importantes: empujar creativamente los límites tecnológicos en cuanto a resultados de búsquedas, y una dedicación decisiva por ofrecer los mejores resultados a cualquier costo. No dejan de sorprendernos las decisiones radicales que toman con regularidad.

    4. Por último y quizás más importante, desde la implementación del TrustRank (y resultados dudosos como ver a la Wikipedia en el top 10 de prácticamente cualquier búsqueda), esta claro que Google no tiene miedo de utilizar valores injustos (aplicados manualmente a un puñado de sitios, etc) si el resultado en general mejora la calidad de las SERPs. En teoría esto podría significar que a Google no le importa darle un empujón a los sitios que utilizan sus herramientas o que por cualquiera que sea el motivo han caído dentro del círculo de “buenos sitios”, aún si el contenido de otros con menor valor percibido o “Trust” pudiera tener mejores méritos en el mundo real. Al final siempre existe algún fondo en el algoritmo en el que se compromete la calidad de los resultados a cambio de una solución que se pueda aplicar automática y masivamente, como es el resultado de la fórmula original del PR (a mayores enlaces entrantes mayor reputación, sin importar la calidad real del contenido), que si bien tiene sus limitaciones y problemas, sigue siendo una medición bastante razonable.

    Sabiendo que Google no nos va a facilitar una lista de los factores de posicionamiento, no nos queda más que seguir juntando cabezas y especulando, o vivir en desconocimiento.

    En lo personal no me cabe duda que muchas de las herramientas periféricas de Google aportan a las SERPs, lo difícil está en determinar/adivinar cuales son y que peso acarrean (por el momento asumo que poco, pero pienso que la tendencia es a valorar cada vez más esta información periférica).

    – por cierto, estoy de acuerdo en que este ha sido un buen hilo, gracias a la participación de todos.

  22. En el otro post respondía en parte a los comentarios de aqui,

    Sólo comentar que si el tono molestó, no lo pretendí, como dice telendro , el post al final ha resultado interesante.

    voy a resumir mi “teoria” google hoy por hoy es tan manipulable y tan previsible que no está utilizando ningun “dato” desconocido.

    mira este caso:

    “themes wordpress” Sale en primera posicion en google en menos de un mes con “cuatro enlaces”,
    Mañana si me animo “más”

  23. Directorio español,

    Este sitio usa AdSense y Analytics, y dada su audiencia la mayoría de los visitantes tienen instalada la barra verde en sus navegadores.

    En lo poco que has dicho más pareciera que presentas pruebas en contra de tu propio argumento.

    Esperamos con ansias que la vida te llene del ánimo que precisas para sustentar tus palabras o limitar tu participación.

    Saludos.

  24. José, pero estarás de acuerdo que es absurdo que este en primera posición, sobre todo si es como dices de que usa adsense y Analytics, debería darse cuanta que “este sitio” va de otra cosa, que apenas “tenía visitas de gente interesada en “themes” y no permitir que subiera de la posición 30,
    Sin embargo lo pone delante de todas las paginas de themes, increíble…

    ¿Para eso usa necesita usar información “secreta triple”?

    Los enlaces que pones no veo que confirmen esas teorías.
    Decir que adsense y el buscador de google comparten información es indiscutible y nadie lo negó nunca. pero no en el sentido que algunos le dan de subir o bajar posiciones, o de facilitar la indexación etc,,,,

    lo de Seomoz Está bien pero no veo que confirme nada, experimentos aislados arrojan resultados peculiares.
    Todos hemos visto como dominios nuevos se ponen en 4 días en primeras posiciones y otros sufren durante meses penalizaciones de forma arbitraria, (tengo un dominio .org que posicionó muy bien ¿todos los org posicionan bien?)

    Creo que quienes tenéis que demostrar sois vosotros. de momento no veo mas que SOSPECHAS, YO TAMBIEN DUDO,
    pero entre AFIRMAR Y SOSPECHAR hay un abismo.

    Un caso que me pasó: Google indexó páginas a las que en “teoría” no tenía acceso, entonces deduje que era por la toolbar, eran páginas sin enlaces externos etc,,,, yo estaba seguro de eso, creaba paginas nuevas y zasss, las indexaba…
    Después mirarlo resultó que el sitio tenía un generador de sitemap que enviaba ping,

    Otro caso que analicé, y del que no saco ninguna ley universal pero que disocia adsense del buscador google,
    Páginas con adsense y visitas pero con nofollow que nunca fueron indexadas por el buscador.
    Esto además es algo fácil de ver por cualquiera. (después de muchos casos si podríamos sacar alguna ley “google”

  25. Directorio español,

    Pienso que tenemos una confusión en cuanto a los objetivos de esta conversación.
    La mayoría de los descubrimientos de vanguardia en el ámbito SEO no pueden ser científicos, porque es virtualmente imposible aislar todos los factores involucrados, especialmente partiendo desde que la lista de factores conocidos es subjetiva y difícil de comprobar (como el ejemplo de este mismo hilo, en que yo opino que las herramientas periféricas de Google son factores de posicionamiento, mientras que tú opinas lo contrario, y ninguno puede demostrar su punto con bases científicas).

    Sin embargo, como comunidad y considerando que estamos todos en la misma posición (buscando y compartiendo conocimientos mayormente empíricos), podemos tener una discusión abierta ofreciendo ideas y tratando de sustentarlas lo mejor posible.

    Siguiendo el ejemplo que pusiste sobre la barra de Google, decías que en algún momento pensaste que podía tener algún efecto sobre la indexación. Luego descubriste que no era el caso, o cuando menos había razones más coherentes para explicar el suceso (un generador de sitemaps). Este es un ejemplo del tipo de información que tratamos de compartir, y con algo de suerte podemos llegar a conclusiones mayores si las experiencias de todos los participantes son similares y tenemos suficientes pruebas para sustentar los hallazgos.

    En segundo lugar, lo del experimento visto en SEOMoz, yo pienso que arroja resultados bastante considerables, que sustentan mis propias teorías basadas en mis observaciones. Si tu opinas lo contrario, pues es respetable de igual forma. Yo comparto lo que conozco con el objetivo de informar sobre mis hallazgos, y de la misma forma me paseo por La Red aprendiendo de los hallazgos de otros (como bien puede ser leer a mis colegas aquí en SEOProfesional, a Telendro o SEOMoz). Algo es seguro, mientras más tiempo invertimos en esto más aprendemos sobre lo que ya se ha deducido, y más se afina nuestra intuición para descubrir otros factores.

    Por último, lo de los themes para WordPress,
    A mi no me sorprende en lo absoluto ver ese resultado en la primera posición. Aquí pones a relucir la diferencia entre tu intuición SEO y la mía. Asumes que todos van a estar de acuerdo en que esa página no debería salir primera, yo opino lo contrario. Lo que yo veo es que la página pertenece a un sitio español con buena reputación (recuerda que solo aparece primero en Google en español), en un sitio en el que se viene hablando con regularidad de WordPress y themes desde hace casi un año ( no se a que te refieres con que el sitio va de otra cosa). Además es una página nueva con un montón de enlaces (no se donde contaste 4, SiteExplorer le ve 5,400) muchos desde otros sitios relacionados que también tienen buena reputación. Esa página tiene total razón de estar entre los primeros resultados.
    Ahora, continuando el tema de este hilo, destaco también que este sitio usa AdSense y Analytics, y además tiene una campaña de AdWords con lo de themes wordpress. Tu lo llamas coincidencia, yo pienso que a lo mejor es la diferencia entre la tercera posición, y la posición en la que están hoy.

    Al final, son todas especulaciones, pero especulaciones educadas como las llamé en un principio. La diferencia está en que los profesionales de este sitio han sabido lo que hacía falta para ubicarse en primera posición, mientras que tú aún viendo el enlace en primera posición te cuesta creer que es posible. Sin ánimo de ofender ni mucho menos, quiero recalcar que en resumen esa es la razón por la que yo leo este blog con regularidad y no el tuyo (si lo tuvieres) o el de otros.

    Saludos.

  26. de la primera parte no tengo nada que comentar, creo que estamos de acuerdo, puntualizo que yo no niego que no utilice las “herramientas periféricas” (igual que no niego que use pitonisas) pero no lo puedo afirmar (por supuesto que es mas probable que use esas herramientas a brujas).

    Sobre Seomoz me parece estupendo que hagan esos estudios de campo, igual que me pareceren estupendos los análisis sobre que métodos puede estar incorporando google en el posicionamiento, pero diferenciando siempre entre lo que Google “reconoce y asume oficial o extraoficialmente” lo que es demostrable y de campos mas especulativos o incluso puras hipótesis.

    por ejemplo lo que comentas en el primer post: “Noviembre 10th, 2007 a las 21:33” me parece muy acertado y nada especulativo, simplemente desarrollas un aspecto que algunos desconocen.
    pero lo del tiempo en una web, o el uso de las stats de google ahora mismo es especulación pura. (y ya me imagino a la gente dejando los ordenadores encendidos etc, etc.)

    Sobre los themes lo siento pero me das la razón.
    no estoy valorando si es justo o no, valoro que si google CONSIDERARA LOS DATOS DE VISITAS DE ESA PAGINA ES IMPOSIBLE QUE ESTUVIERA LA PRIMERA EN MENOS DE UN MES.
    Pero no es algo sobre esta pagina, muchas de las que aparecen en primeras posiciones no deberían estar si Google tuviera en consideracion el tiempo que los usuarios están en esa paginas, (algunas tienen un solo theme y es el pool)
    Conclusion: google considera al “sitio en general” y los enlaces. Y tu dices lo mismo pero luego metes a Adsense y a Analytics sin decir como o porque han influido.

    A mi no me cuesta creer nada, ya dije antes: autocita “voy a resumir mi “teoria” google hoy por hoy es tan manipulable y tan previsible que no está utilizando ningun “dato” desconocido.”

    Pd: sobre seoprofesional no tengo nada que decir, aquí he leído cosas muy interesantes, por eso soy critico si se dan como ciertas cosas que son teorías. (insisto como teorías me parecen muy interesantes y para hacer algún experimento…)

    Pd2: tampoco yo leo tu blog y no te lo digo… (es broma, )
    En realidad esto me lo tomo como un divertimento,

    Pd3: a veces en los post se responde con un tono o se dice alguna incongruencia, pero yo lo justifico en que muchas respuestas se escriben mientras se habla por teléfono …

  27. ” ¿Qué quiere Google? Que los usuarios estén contentos. ¿Qué los hace contentos a los usuarios? Una web útil y la mejor experiencia posible. ”

    Totalmente de acuerdo, a la larga pensar en el usuario final es lo unico que funcionara… es la evolucion natural de cualquier servicio.

  28. Google no es tonto con esto del tiempo de permanencia o los clics seria demasiado vulnerable, como el ranking de alexa jej.

    Por ej. yo hace 2 meses que estoy posicionando una web “diseño web argentina” recibe 4 visitas x dia y ya esta en top10 optimzandola y consiguiendo gran cantidad de backlinks de mi tematica.

    Concuerdo totalmente con los enlaces en pie de pagina, todo el mundo sabe que alli va los intercambios, con el tema de las temicas lo comprobe con varios sitios es lo mismo debes conseguir backlinks donde puedas y de calidad (antiguedad, PR, posiicionamiento) pero el factor que te catapulta es conseguir enlaces desde sitios bien rankeados con tu keyword.

  29. Acabo de ñpostear y toy viendo que hay un link en Diseño Web estimo que estara saliendo ahora tmb je!.. pero yo no lo estoy colocando salta solo, no tengo relacion con la web dcip consulting es propio del blog? o algun chistoso?

Deja una respuesta