Leyendo la última entrada de Sergio Blanco sobre la evolución del SEO en internet me ha gustado mucho el comentario que ha realizado Antonio sobre la realimentación de google.
Básicamente el comentario dice que google toma encuenta nuestra respuesta frente a los resultados que nos muestra mediante el evento onclick calculando nuestro tiempo de respuesta.
“Esto lo que hace es que cuando hacemos click en un resultado, se lanza la petición de un pixel hacia google a la vez que se nos envía a la página elegida.
Desde ese momento, google cronometra cuanto tiempo tardamos en volver a hacerle una pregunta y si volvemos a preguntarle lo mismo. Si al poco rato volvemos a preguntarle lo mismo, es señal de que ese resultado no es oportuno y lo baja en los rankings.
POR ELLO
Todas las técnicas de alterar el ranking se ven afectadas por el uso que todos hacemos de los resultados, por lo que el mejor camino es hacer contenidos de calidad y vigilar el tiempo de rebote en nuestras páginas (descontados los factores inpage y offpage, estos los damos por supuestos).”
Estaba claro que el tiempo de permanencía en la página era un factor que google tenía encuenta pero la tasa de rebote hasta este momento yo no la tenía tan encuenta como factor SEO que afectara al posicionamiento.
Por lo que supongo que google realizará una media entre el tamaño de la página en Mb supongamos que una pagina tiene :
Web Page Size :
75607 Bytes = 75 KB
Code Size :
60268 Bytes = 60 KB
Text Size :
8039 Bytes = 8 KB
Asignando a cada KB de Texto sin contar Imágenes o Vídeo que supongo que también pueden averiguarlo un tiempo establecido de 30seg. KB tenemos en este caso que nos encontrariamos con un website de 8*30=240seg ( es decir unos 4 minutos ) pero como está claro que ninguno de nosotros suele leer de forma completa una página de un website deberiamos de corregirlo mediante por ejemplo digamos -33% del total del código de texto por lo que se quedaría entorna a los 160seg ( si no me equivoco ) .
Esto quiere decir que la media de tiempo de permanencia de un usuario para una búsqueda concreta de una página optimizada para esa búsuqeda concreta debería de ser de alrededor de 160seg antes de salir de ella por algún lado. ( En Analytics podeis verlo fácilmente )
Pero por otro lado existe la tasa de rebote.
Veamos el tema de la tasa de rebote, si el usuario llega a la página y rápidamente pasa a otra de nuestras páginas, la tasa de rebote de nuestra página descenderá pero si nuestro promedio de tiempo de permanecía de nuestra página optimizada para la búsqueda es muy bajo con respecto a la cantidad de KB de texto que tenemos esto no es bueno, por lo que tenemos que saber coordinar el tiempo de permanencía en la página con la tasa de rebote de la misma página.
Me explico, si yo llega a un website por una de sus páginas y estoy en ella leyendo el contenido supongamos alrededor de 2 minutos ( imaginaos que es el tiempo optimo para la cantidad de texto ) y luego cierro la página, esa página cara al buscador es OK pero si además de permanecer el tiempo que hemos dicho de 2 minutos luego sigo navegando en el website ( No voy a complicarlo más ) todavía mejor ya que he permanecido el tiempo optimo en la página y la tasa de rebote de esa página ha descendido con lo que se supone que las otras páginas del site también son relevantes o interesantes para la búsqueda realizada.
Ahora volvemos con el tema de Antonio:
“Desde ese momento, google cronometra cuanto tiempo tardamos en volver a hacerle una pregunta y si volvemos a preguntarle lo mismo. Si al poco rato volvemos a preguntarle lo mismo, es señal de que ese resultado no es oportuno y lo baja en los rankings.”
Bueno creo que esto queda bastante claro sin necesidad de explicarlo.
Ahora existe otro tema que es el tiempo de permanecía respecto a la posición en el buscador; me explico cuando navegamos solemos clickar intuitivamente a los primeros resultados de la búsqueda abriendolos en nuevas pestañas y luego ir mirandolos, por lo que el tiempo de permanencía de un usuario en una página no puede ser el mismo si está en 1º o 3º posicion para una búsqueda ya que la que está en 3º posición su tiempo de permanencia será mayor a estar en 1º posición, a no ser que el usuario encuentre lo que busca en la 1º o 2º posición, con lo que cerrará las anteriores páginas o las dejará abiertas subiendo mucho el tiempo de permanecía y dejando de ser el optimo para la cantida de texto en la página con lo que supongo que Google acturá de la siguiente manera:
Si X(tiempo) > T(Tiempo de permanencia medio de la página)
y
X(tiempo) > Y (tiempo optimo de permanecía)
El valor que le otorga Google tenderá a 0.
Con lo que ahora con todo esto debemos de calcular:
1º Nuestra posición en los resultados de búsqueda.
2º Tiempo de permanecía del usuario dependiendo de nuestra posición en los resultados de búsqueda.
3º Cantidad de texto de la página, imágenes, Vídeo, etc… ( Esto es fácil ponte un cronómetro y mira cuanto tardarías tu el leerla o pideselo a un colega 😉 )
4º Tasa de rebote de la página.
Toma ya, vaya brasa os he pegao 🙂
ja, te soy sincero son la 1:34 aqui y estaba leyendo pero como venia complicado lo deje, mañana de mañana lo termino de leer bien y te dejare mi idea, pero me gusto el post.
Me parece obsesivo :-).
De todas formas el tiempo de permanencia no me parece un factor decisivo, en analytics si no haces ningún clic dentro de la página mostrará cero aunque te tires una hora, asimismo, yo por ejemplo dejo muchas ventanas abiertas, por vagueza…
Respecto a la tasa de rebote, un blog suele tener una tasa de rebote alta, puesto que la gente suele entrar a ver el ultimo comentario, ya depende de como lo hagas, aquí obligáis a hacer un clic para ver el contenido :-), pero en otros entras lees el ultimo post y te largas sin hacer clic!!
Saludos!
Me has chafado el post, pero me has liado más que aclararme.
No es ni tan complicado ni tan extraño. Apliquemos la Logica de Cajón de Google: no mide el tiempo de permanencia en el site, mide el tiempo entre clics en sus página de resultados. Por supuesto debe descartar a los inquietos que abren los 4 primeros resultados en otras pestañas, cosa que yo hago para despistarle. Independientemente que Analytics cuente o no la visita como rebote, el buscador medirá las peticiones desde el mismo PC, y de ahí es de donde se realimenta.
Respecto al tamaño de la página en TEXTO/CODIGO es un factor que no se puede mezclar con nada de esto. Y que no aporta tampoco demasiado, teniendo en cuenta que Google coge el texto de la página lo filtra, lo tokeniza (no sé como traducir esto, ¿ponderar?) y la mitad de palabras no las cuenta, así que el ratio Texto/Codigo queda en nada.
Hasta el momento de la tasa de rebote es plausible la teoría, pero en la segunda opcion, suponemos que la mayoria de los usuarios abren en nuevas pestañas, con lo complicado que es entender el mundo de las pestañas para la mayoría de usuarios de la web; además estamos suponiendo que todas nuestras visitas llegan desde los buscadores: tenemos una web como, por ejemplo, http://www.ikariam.es que es una web donde, por simple, la tasa de rebote o la tasa de abandono es tendiente a 0, no por ello estará bien posicionada… Creo, Duque, que estoy mas cerca de la idea de Miguel…
Sinceramente, llega un momento en que pienso que lo mejor siempre es el contenido de calidad y que el sitio crezca por si sólo. Jajajaja, ahora, eso si que es dificil conseguirlo.
Saludos.
Si, eso es algo que mucha gente no tiene en cuenta, pero esta contemplado en los algoritmos de los buscadores.
Se puede llegar a posicionar una pagina en primer lugar para determinada palabra clave, pero si la reaccion de la gente al visitar esa pagina no es buena, ira bajando en las posiciones.
Lo 1º si no usas ni firefox, ni chrome, ni la toolbar, ni la web en si usa analytics, ¿conocéis alguna otra forma de medir por parte de Google el tiempo de permanencia en una página?
Y lo 2º, creo que se irán perfeccionando las técnicas para medir todos estos factores y poco a poco se le irá dando más y más importancia. Es un mundo nuevo. Probablemente no lleve más de 2 o 3 años midiéndolos (no lo sé, hablo totalmente a ojo) cuando lleva más de 10 indexando resultados, el índice que tiene de tiempos de permanencia, rebote, etc es extremadamente pequeño todavia.
Saludos
Paranoic seo, jaja. Pero me gustan estos desvaríos. Mooola
Duque Gracias, por este articulo aunque no estoy totalmente a fabor, lo que si esta claro que si ha cambiado las posiciones con el tiempo de permanencia, todas las web que entren desde la busqueda que esceda los 30 seg, son optimas y las web que se cierran y vuelven a la busqueda ya no lo son y las baja de las serp.
Esto puede ser bueno y malo a la vez, ya que si nos guntamos 50 personas podemos cambiar las posiciones de las serp, (puede ocurrir) creo que hay se puede equivocar el señor G.
Villa de Ayora, ¿porqué 50? En un determinado ránking de una determinada temática quizá puedan cambiar las serps entre 50 personas pero me temo que para temáticas mínimamente competitivas serán necesarias 50 si no 5000, 50000, 500000, 5000000…
Javier Lorente, 50 más que entran todos los días durante un mes pueden mover esa web y hacerla subir, ¿cuantos puestos? segun las web que esten delante, el problema que se puede manipular.
Tambien esos 50 pueden entrar varias veces al día , limpiando las cookies, etc. para no dejar rastro, creo que hay no puede ser bueno para el señor G.
Ojalá se tratase sólo de limpiar las cookies. Esta es la parte más oscura de la gran G, pero yo creo que mira mucho más allá de las cookies.
Gracias Duque por tu análisis…No me cabe duda que Google monitorea todos nuestros clic y sobre todo los back. No olvidemos tampoco el histórico de búsquedas del usuario, factor que definitivamente cada vez tomará más fuerza en el posicionamiento…
Don Google es bastante inteligente, tiene, ademas de los miles de geeks que trabajan para el, varios cientificos en la materia de buscadores.
Tal vez toda esa gente sepa algo de cookies, no les parece?
Saludos…
Interesante lo que ponen en Seroundtable de JohnMu http://www.seroundtable.com/archives/018944.html
I can tell you for sure that anyone visiting your site a few dozen times and hitting the back button on their browser is not going to impact your site’s crawling, indexing, or ranking at Google. That wouldn’t make much sense and would be too easy to abuse :-).
Lo único es que ya no se si creerme las versiones de Google, y como dicen en el post de Seroundtable dice que 12 pero …¿ y si son miles?
Hola.
Sobre el tema en cuestión, es algo que ya hace bastante tiempo que escuché, y creo que si que lo tiene google en cuenta.
Ahora bien, no se hasta que punto tiene lógica todo esto.
Os pongo un ejemplo que me está sucediendo con una de las páginas que llevo.
El porcentaje de rebote es altísimo, sobre una media del 60 / 70%. Pero ello es debido a que entra mucha gente por unas búsquedas específicas, por ejemplo cotizaciones en bolsa de una acción. La gente entra, ve eso que le interesa, y sale.
La pregunta es…¿Es eso malo? Pues a mi parecer no para el usuario, pero para los seo si. El usuario ha encontrado lo que quería, lo ha visto y se ha marchado. Nosotros simplemente le hemos dado la información que quería al instante.
Resumen de todo lo hablado. No se si esto que parece que ahora tiene en cuenta google, es la mejor forma de medir la satisfacción del usuario. Es todo más complejo que eso.
Preferiría que el usuario pudiera votar o algo parecido. Del tipo,¿te ha sido útil el resultado en la búsqueda que has solicitado?
Eso podría ser más justo, aunque pueda parecer una utopía.
De todas maneras, me corregireis, pero yo ya he oido campanas sobre este tema de que el usuario pueda dar su opinión a google.
Bueno, saludos a todos.
De echo el usuario ya puede comenzar a votar resultados en google.com mediante google search wiki :
http://www.seofemenino.com/2008/10/30/google-searchwiki/
Yo no creo que Google esté utilizando este factor para el posicionamiento. He hecho análisis de tráfico de varios proyectos con mucho tráfico y no he visto relación alguna. Con esto no quiero decir que en los próximos meses sea un factor. He creado un post en mi blog sobre el mismo tema (http://edgargranados.es/tasa-rebote-afecta-posicionamiento-serp/13/).
Hola! les dejo un link sobre tecnicas basicas de SEO, seguro a mas de uno le puede servir!
http://aprenderseo.wordpress.com/2008/12/19/11-estrategias-basicas-de-seo-para-principiantes/
Gracias,
Karina
Es posible que algo sí que influya esto, pero seguro que tiene un peso bajo en los resultados, o quizá no.
Es interesante, pero me parece poco fiable la manera de medir ese parámetro puesto que podrían falsearse muy fácilmente tanto voluntaria como involuntariamente.
Lo mejor es infiltrarse en google o tener un amiguete ahi para saber que pasa por la cabeza de ellos… 🙂
Buen post, google se ha convertido en la araña “mayor” del Internet, por eso es importante conocer como mide, las reglas para subir posiciones y con ello trabajar para mejorar el ranking del site.
Saludos