Aumenta el tráfico y tus conversiones con Ani e Iñaki

Lo primero es decir que Ani Lopez es un crack en cuanto a aprovechamiento de la información que podemos utilizar de google, también lo és Iñaki creando Dashboards orientados a negocio con Zoho y otras muchas cosas más de ambos pero centremosnos, foco, foco como diría Antonio Gonzalez Barrós XD

Bueno vamos a explicar tanto peloteo y vamos a empezar por Ani.

Muy muy resumido, si quereis saber más para eso está el post de Ani :

http://dynamical.biz/blog/web-analytics/matching-webmastertools-analytics-keywords-data-40.html

Lo que ha publicado en su último post es un excel que combina los datos que podemos extraer desde WMT y desde Analytics para saber de un vistazo que keywords podemos trabajar más y aumentar Goals que al final es lo que nos interesa.

Vamos a ver desde WMT existe la opción Tu sitio en la web->Consultas de búsquedas que es donde se nos muestra la cantidad de veces que alguna de nuestra páginas se muestra por una keyword en las SERPs de Google, pero claro esos datos no nos proporcionan la información suficiente como para tomar decisiones acertadas de negocio ya que puede ser que si mejoro posiciones por una keyword que tengo en una posición media de 8 a pongamos 5 puede ser que me traiga más tráfico pero el esfuerzo puede no compensar la cantidad de conversiones obtenidas.

Hablamos siempre de conversiones ya que pueden entrar en juego muchas más métricas a tomar en cuenta, por ejemplo veo que tengo la posibilidad de mejorar una keyword que me puede traer mucho tráfico porque es una Top keyword, pero no me percato que el tiempo de permanencia en el sitio es muy bajo y el rebote exageradamente alto, todo el tiempo que haya estado trabajando esa keyword si no modifico la landign page no servirá de nada ya que no lograré aumentar los Goals aunque aumente el tráfico porque la landing no está bien orientada a la conversión ya que me lo están indicando otras métricas que desde WMT no puedo ver de un vistazo.

Por otra parte aunque en la última versión de Analytics podemos asociar los datos de WMT a nuestra cuenta pero sigue sin darnos los datos que necesitamos, así solo nos ofrece: Impresiones, Clics, Posición media y CTR con lo que estamos en las mismas, ahora bien combinando los datos que podemos extraer de tráfico de búsqueda orgánica desde Analytics con los datos de WMT es cuando podemos sacar buenas conclusiones.

Ej.

Con el excel que sacamos ( ya explica Ani como hacerlo , no voy a volver a hacerlo yo) es cuando podemos comenzar a tomar autenticas decisiones viendo que keywords nos ofrecen una mayor cantidad de goals y el esfuerzo que tenemos que hacer para mejorar nuestras posiciones en las SERPs , puede ser que una keyword por la que tenemos pocas impresiones nos este trayendo más goals en una posición 11 mientras que otra topkeyword en una 10 nos da infinitamente más impresiones y tráfico pero menos goals, así que deberíamos orientarnos a la que nos ofrece más Goals aunque tengamos menos impresiones, aquí entran muchas más consideraciones pero bueno todo esto es muy simplificado.

Por cierto yo incluiría en el Dashboard que propone Ani Visitas nuevas y Visitas recurrentes, para saber el % medio de conversión por visita nueva y recurrente ya que lo más normal no es convertir con la primera visita sino a la 2 o 3 pudiendo así tener más claro el tipo de usuario que me convierte y cual es la keyword que más me convierte por visitas nuevas y recurrentes.

Por ejemplo puedo estar desechando una keyword por la cual mis usuarios recurrentes me convierten muy bien a la segunda visita por intentar potenciar otras keywords que me ofrecen conversiones por una sola visita.

Bien ahora seguimos con Iñaki. ( muy resumido que ya me he cansado de escribir y si queréis más pues los contratáis que la navidad está cerca y hay que pedir los regalos a los reyes )

Un vez hemos decido a por keywords orientarnos para conseguir más goals mediante el panel de Ani llega el BI de Iñaki con Zoho donde podremos desgranar cuales son nuestros productos más rentables pudiendo segmentarlos por sexo , edad , beneficio , geolocalización, etc… aquí tenéis un ejemplo de un BI construido por Iñaki : Panel de control

Con lo que podemos imaginarnos que si unimos los 2 informes obtendría un panel de BI brutal viendo como el esfuerzo orientado a ciertas palabras clave esta impactando directamente con las ventas de ciertos productos que puedo segmentar y orientar mejor a mi publico objetivo o bien a mi stock de producto para eliminar de mi almacén.

Las posibilidades de segmentación con unos pocos datos son exageradas, puedo calcular el punto muerto de beneficio de una palabra clave según su posición en buscadores y ver si destinando más recursos a una mejor consecución de posiciones lo convierto directamente en % de aumento de ingresos trasformando así posiciones en SERPs por Cash que es lo que entienden los Contables.

Ah por cierto el H1 es muy importante ( Miau )

Distancia de Levensthein

La distancia de Levensthein , o distancia entre palabras es el número mínimo de operaciones requeridas para transformar una cadena de caracteres en otra.

Mas info: http://es.wikipedia.org/wiki/Distancia_de_Levenshtein

Esto aplicado al SEO puede llegar a ser muy beneficioso. Podemos solucionar el que si nos enlazan mal desde una página externa hacia una página de nuestro sitio evitar el mostrar un error 404 cuando el robot o el usuario siga el enlace, no perdiendo así la autoridad del enlace y evitando la mala experiencia de que el usuario se encuentre con una página 404.

Para que os hagáis una idea más clara, si yo enlazo a http://www.programasok.com/ates.html veréis como os redirecciona automáticamente a http://www.programasok.com/ares.html evitando así devolver un 404.

El enlace a los scripts son estos:

WordPress Plugin: http://pro.virante.com/404/predictive404.txt
Drupal Module: http://www.socialseo.com/
Generic PHP Code : http://pastebin.com/P35zHGDW

 

 

Segundo Congreso SEO Profesional

Los dias 11 y 12 de Noviembre de 2011 ( 11/11/11 ) se celebrará el II Congreso SEO Profesional.

En el II Congreso SEO Profesional participarán algunos de los mejores SEOs de España y del extranjero, en el siguiente enlace tenéis a los ponentes http://www.congresoseoprofesional.com/ponentes/

Contará con un programa de lujo y seguro que alguna que otra sorpresa que nos reserva Miguel López. Sin duda es uno de los eventos de más nivel en España en cuanto a SEO se refiere comparable con el SMX o él SEOPro que se realizan en Reino Unido y este año sin duda el Panda será uno de los puntos más tratados y del cual se hablará en el congreso, por lo que si te has visto afectado no dudes en que se darán soluciones para superarlo.

Mi experiencia personal del año pasado fue muy buena ya que el nivel tanto de los ponentes como de la gente que acudió fue muy alto por lo que recomiendo a todo el mundo que pueda que vaya.

Daos prisa por que >> Quedan menos de 25 15 entradas con descuento <<

Anchor Text con término exacto o con coincidencia parcial

Comienza septiembre y con él las tipicas promesas de apuntarse al gimnasio, dejar de fumar, comer sano y aprender Inglés 😛 así que esta vez me he tirado a por aprender inglés ya que dejar de fumar ya lo hice, apuntarme al gimnasio lo cambie por levantamiento de jarras de cerveza y comer sano es antisocial así que al tema.

La idea es que voy a ir traduciendo artículos del Inglés que vea al Castellano con un doble proposito mejorar mi Inglés y ofreceros la mejor información que pueda de webs en Inglés.

Perdonarme si hay cosas mal traducidas; pondre siempre la fuente por si alguién quiere leer el original.

Bueno comenzamos con el último Whiteboard Friday o lo que podríamos llamar clase del viernes de Seomoz.

Wistia

Transcripción al Castellano lo mejor que puedo XD.

Bienvenidos a otra edición de la clase de los viernes de Seomoz. Mi nombre es Cyrius. Yo hago SEO ( Soy SEO ) en SEOmoz. Esta semana quería hablaros sobre el anchor text. Todas las semanas me llegan correos, estoy seguro que a ti también, de webmasters preguntandome por enlaces, y algunas veces me preguntan por los Anchor text con la keyword exacta en el enlace ( En el original en Inglés habla de termino exacto bueno es más o menos lo mismo ) para tratar de rankear mejor. Es esta una buena práctica. Funciona bien. Pero las cosas combian en el mundo del SEO.

1º Término Exacto

Antiguamente, si tu querias rankear por algo, tu táctica era simple. Si tu palabra clave era cerezas, solo tenias que intentar conseguir la mayor cantidad de enlaces hacía tu sitio web por la palabra clave cerezas. Aquellos que han estado practicando este método se han dado cuenta que desde hace más o menos un año y medio ya no funciona tan bien ( No es una traducción literal por supuesto ). Si tienes muchos enlaces por las mismas palabras clave esto podria hacerte daño ( perjudicarte ). Es por eso que decimos que es una tactica del 2009.

Ahora con el nuevo algoritmo de Googel Panda, nosotros hablamos de otro ambito totalmente distinto de señales de rankeo,  como indicadores de compromiso ( esto serían métricas del sitio páginas vistas, tiempo en el sitio y demás ) , señales sociales ( twitter, facebook, digg, +1, etc… )  . Incluso si al final la coincidencia no es del todo exacta ( se está refiriendo a los anchor text de los enlaces ) al final, existe una gran cantidad de información que Google y otros motores de búsqueda cogen de estas señales de los enlaces ( del contenido de los enlaces y de alrededor ), y eso es de lo que queriamos hablarles hoy.

2º Coincidencia parcial

Ahora, una de las cosas que más se pasan por alto son los enlaces con coincidencia parcial, y yo soy un enamorado ( apasionado ) de la coincidencia parcial. Yo relamente me dejo llevar por ellos desde hace tiempo ( Vamos que los utiliza ). Ahora todo es coincidencia parcial. La gente no entiende que es la coincidencia parcial. La definición técnica sería para coincidencia parcial sería una anchor text que almenos contiene una palabra clave dentro del contenido. Por ejemplo si tu palabra clave es cerezas, esto podría contar como una coincidencia parcial en un Anchor text: Bing ( es la variedad de la cereza ) son las mejores cerezas: Me encantan las cerezas; Bing son increibles. Yeah ( Che ) es probable que no esten hablando exactamente sobre ello ( Cerezas Bing ) pero técnicamente existe una coincidencia parcial en el anchor text.

Si eres un fan de los factores de ranking que SEOmoz hizo para el 2011 2011 Ranking Factors vimos que uno de los factores era la fuerza de la coincidencia parcial dentro de los anchor text vs la coincidencia exacta. Ahora en general, si miras las métrica de root domain ( puff esto lo podríamos traducir como dominio principal )  la correlación entre el ranking y los dominios con la palabra clave exacta en el enlace es de 0,17. En igualdad de condiciones ( más o menos ) la fuerza de la coincidencia parcial de un enlace es 0,25. Significativamente más fuerza en la relación entre enlaces con coincidencia parcial que con la palabra clave exacta ( Se está refiriendo a los rankings en Google ). Por lo que en igualdad de condiciones parece que la gente rankea un poco mejor si tienen más contidad de enlaces con coincidencia parcial  que si teine enlaces con coincidencia exacta aunuqe la gente va en contra de esto. ( Se refiere a que la gente prefiere enlaces con coincidencia exacta ; Me acuerdo de Kico que quiere enlaces por Pincha Aquí Jajaja ) .

Me gustaría explicarles si me dan la oportunidad ( Más o menos ),  si ustedes pudieran tener 300 enlaces con enlaces de coincidencia parcial o 300 enlaces de coincidencia exacta la mayoría de webmaster elegirían esta última pensando que es la mejor política. ( Toma resumen en 2 líneas ). Aunque estadisticamente la mejor opción es que los enlaces contengan algunas de las tus palabras clave exactas para aumentar lo que sería tu long tail por las cuales puedes rankear y conseguir más tráfico. Vas a rankear mejor por tus palabras clave ( o más bien por tus palabras clave objetivo ) y este método está garantizado para el futuro. Mientras que Google va a ir dandole menos importancia cada vez a los enlaces por las palabras con coincidencia exacta, a ti este método te va a llevar a conseguir valor para terminos de long tail teniendo además un perfil de enlaces más natural. ( Más o menos )

3. Contexto, Ubicación y Relevancia.

¿Como hacer que los enlaces cuenten si no tienen la palabra clave en el anchor text?. ¿Cuales son las otras señales de contexto que google mira o  tienen encuenta? Bien, lo primero de todo es que van a mirar las señales on-page de la página que te está enlazando. Si está intentando rankear por cerezas Bing lo que quieres es que la página que te enlace tenga como título la palabra cerezas. Este es un artículo que escribio Rand hace años de como crear la perfecta página optimizada “The Perfectly Optimized Page.” ( aunque no tiene nada que envidiarle a la que presento Ferando Muñoz ) Todas estas señales on-page son las que deseamos para que nos enlacen H1, Alt en las imágenes, uso de la palabra clave, etc…. son aparte con las que Google interpreta que en esa página se habla sobre las cerezas Bing.  Si te esta enlazando lo más probable es que interprete que ese enlace es sobre las cerezas Bing.

Contexto, Google cada vez es más sofisticado y puede interpretar sobre que trata una página ( peloteo a google ) .  Por ejemplo si tu tienes una parte de publicidad Google puede interpretar que es una sección de publicidad ( joder esto no es tan dificil pero bueno ) . Si tu tienes un enlace en una sección de publicidad probablemente este enlace no cuente mucho ( no tenga mucho valor ). Lo mismo si tu tienes un enlace sobre cerezas Bing en una página de monos en la barra lateral probablemente Google sabe que no hablas sobre cerezas por lo que no le dará mucho valor ( resuminedo ). Si se ve que es un anuncio pagado no va a contar para mucho. Por lo tanto el contexto, las señales on-page y la optimización que usted desearia para su propia página es donde quiere ver su enlace.

4º El futuro de las señales de los enlaces.

Google se gasta mucho dinero para intentar aprender a entender el contexto de las páginas web. Los días de los motores de búsuqeda tontos los hemos dejado atrás. Google está mejorando y mejorando sobre entender las páginas web, si lees patentes de google, que ha muchos de nostros nos gusta hacer ( nivel de frikismo máximo ) , SEO by the Sea ( Blog SEO ) es un gran blog para leer, ellos miran las patentes y las analizan. Google está probando aprender a saber si una review ( revisión ) de un sitio es positiva o negativa. Por ejemplo si tienes un enlace y existen palabras alrededor diciendo que tu negocio de Pizzeria apesta o que es maravilloso podrá calificarlos de forma distinta. Ahora, todo esto es teoria, no tenemos los datos ni los echos que apoyen estas teorias pero las patentes nos dicen que es hacia donde va el futuro. Los perfiles de Autor que Google esta usando, ¿ se pueden preguntar, tiene esta persona autoridad ? Si Rand Fishkin te enlaza con el anchor text sobre SEO , Google podría decidir en el futuro que Rand Fiskhin es un experto sobre SEO y su enlace sería más importante que el de Joe schmoe porque el no conoce su perfil de Autor.

Para terminar, el sistema de juego era fácil ( se refiere al tema de los enlaces con concordancia exacta ) por eso se fué ( cambió, ya no vale ) . En el futuro el juego será mucho más duro. Los motores de búsqueda  son cada vez más sofisticados intentandose parecer a los humanos ( Más o menos ). Por lo tanto tenemos que hacer las páginas para humanos, escribir para humanos, enlazar como humanos, etc… La estrategia a largo plazo es trabajar los anchor text y las señales de los enlaces para que trabajen para nosotros.

Gracias a todos.

http://www.seomoz.org/blog/beyond-exact-match-anchor-text-to-next-generation-link-signals-whiteboard-friday

Bueno como vereis la traducción no es ni mucho menos perfecta, lo que espero es que os hayan quedado claros los conceptos y que agradezcais esta traducción con unos enlaces a Malavida que uno tiene que ganarse el Pan  por diferentes anchors text como La mejor página de descarga de software gratuito, Expertos en Software, Blog de Software o lo que más o guste. XD

Como seducir al panda

Después de que el Panda haya pasado voy a intentar proponer algunas soluciones en general que se pueden aplicar para intentar recuperar parte del tráfico que hemos perdido, estas soluciones están basadas en lo que he leido o he visto por lo que pueden o no pueden funcionar, pero en ningún caso deberían perjudicar.

1º Cuando se habla de contenido duplicado no es solo referente al contenido que escribimos sino también al código que pintamos en nuestra página por lo que es posible que te estés volviendo loco creando un contenido de buena calidad para tus artículos pero mientras tanto el 90% restante de código que aparece en tu sitio es igual al 80% de todas tus páginas mostrando en todos los sitios de tu web los mismos enlaces, artículos promocionados, banners, imágenes y demás historias por lo que yo comenzaría por intentar cambiar el código que el robot ve dependiendo del sitio donde nos encontremos de la página.

2º El tema de los comentarios que tanto está dando de que hablar si son buenos o malos y si perjudican o no perjudican.

Los contenidos propician la creación de contenido fresco en la página por lo tanto código nuevo para indexar, por lo que cuando el robot vuelve a pasar por ella y ve que se han realizado cambios que afectan al contenido puede ayudar para levantar la página de nuevo en los resultados de búsqueda para ofrecer las páginas con el contenido más actualizado sobre un tema.

Por otra parte si hablamos de los buenos o buenos comentarios está claro que yo prefiero tener un comentario en el cual el usuario introduzca alguna palabra clave referente al tema sobre el que versa el articulo que un texto donde ponga: “Esta chido”

Pensemos un poco con la cabeza, no es que los comentarios te vayan a perjudicar pero tampoco te va a beneficiar un comentario que no aporta nada a tu contenido y lo único que hace es meter morralla.

3º Eliminación de páginas basura. Las páginas basura son todas aquellas páginas que no son útiles para el usuario dentro de nuestro sitio por ejemplo para que quiero tener yo indexada la página 8 del listado de programas más descargados del último mes de la categoría navegadores por ejemplo en Malavida. ¿Alguién va a realizar esa búsqueda en Google? Pues por supuesto que no, pensemos cuales son las páginas más importantes de nuestro sitio y concentremos nuestra relevancia en ellas.

  1. Decide which URLs are your most valuable and ensure they are indexed and well optimized
  2. Remove any extraneous, overhead, duplicate, low value and unnecessary URLs from the index
  3. Build internal links to canonical, high-value URLs from authority pages (strong mozRank, unique referring domains, total links, are example metrics)
  4. Build high-quality external links via social media efforts

Más info en Vseo

4º Mejora de la indexación de tu sitio.

Has probado alguna vez a pasar Gsitecrawler por tu web, has visto cuales son las páginas que más tardan en cargar o las que están duplicadas, has creado un mapa web de tu sitio para que el robot  pueda acceder bien a todas las partes de tu sitio, etc… no me quiero enrollar con esto ya que es más de lo mismo, fijate bien que los robots indexen lo que tu quieres y lo que no quieres que no lo indexen, no tienes por que darle de comer al oso bambú hasta que reviente, solo el que le hace falta ya que si no comerá el que quiera y el resto se lo dejará sin comer.

5º Publicidad.

Publicidad si, MFA no. Al igual que todos a mi también me gusta sacarme un extra con la web pero no inundo mis páginas con bloques y bloques de publicidad, si no que intento orientar uno o dos bloques lo mejor posible para que el usuario pinche en la publicidad, prefiero tener 100 visitas y que me pinchen 10 veces que tener 1000 visitas y que me pinchen 20 veces, la cuestión es no inundar el usario de publicidad ya que si nuestra resolucion de pantalla normal es de 1024×768 lo que no podemos hacer es mostrarle 3 bloques de 336×280 ¿ que cantidad de contenido le queda al usario para leer ?

6º Contenido

Si ya de por si, si tu web no es ninguna autoridad en su campo por lo que el tiempo de permanencia del bot de Google en cada una de tus páginas es bastante bajo y además tu le pones tu contenido debajo de 200Kb de código pues como que va a ser peor no?

Yo te recomiendo unas Estructuras limpias y html semantico , sin mucha mierda de código por arriba del contenido para darle de comer bien al panda.

7º Microformatos

Comienza a utilizar los microformatos dependiendo de la orientación de tu página, puedes utilizarlos para definir desde una serie de televisón hasta un evento deportivo como un partido del Madrid, le estarás dando más información a la bestia con lo que puede que te quiera más, por cierto no te olvides de la nueva etiqueta de authorship

8º Diversifica tus visitas, aunque esta claro que el orgánico puede ser la mayor fuente de tus visitas no debes olvidar que existen otros canales gratuitos para obtener visitas y fidelizar usuarios:

Si se la he robado a SEOMOZ pero como ellos han pasado de tener una ronda de inversión de nosecuantos millones pues seguro que no les importa, he Rand. Podría haber enlazado también ha casares pero SEOMOZ mola más. XD

9º Linking C blocks – Es decir consecución de enlaces desde sitios de distinta clase C y desde páginas de autoridad, unas de las páginas que según searchmetrics ha ganado bastante visibilidad en los motores de búsqueda ha sido kioskea.net puteandome a mi en las búsquedas por descargas de programas cuando las fichas de sus programas son una autentica basura podeis comprobar cualquier descarga, pero sin embargo como el site tiene solamente así como que  links desde  Domains pues vamos que se nos ha puesto a todos por delante.

Claro el problema es conseguir esos enlaces desde sitios de autoridad verdad y que además según el tio Rand no es interesante hacerlo mediante directorios, dofollow comments, public profiles o Link echanges, na casi na lo que dice el tio, solo tienes que posicionarte como prescriptor para que te autoenlacen sin tener que ir a buscar esos enlaces por lo que  propone al principio 90% de relation ship mientras que un 10% en creation content  e ir modificando estos porcentajes hasta que sean 10% relation ship 90% creation content XD que fuerte.

Wistia

10º Por último que es lo que yo estoy haciendo para intentar mejorar por culpa del puto Panda es:

– Reducir la cantidad de código duplicado en las páginas

– Intentar mejorar la experiencia del usuario con la página haciendola más amigable para que favorezca la navegación por la misma.

– Eliminar toda la cantidad de contenido duplicado o páginas de baja calidad que encuentre ya sea mediante Analytics, WMT, Gsitecrawler, etc…

– Eliminar anuncios

– Intentar aumentar la interacción de la página con medios sociales Facebook , Twitter, +1 de Google

– Relacionar contenidos

– Creación de contenidos utiles orientados por keyword

– Etc…

Bueno espero que con todo esto que os he puesto pueda ayudaros a seducir al panda.

Si no según el propio Google esto es lo que podeis hacer: http://www.google.com/support/forum/p/Webmasters/thread?tid=76830633df82fd8e&hl=en

“Our recent update is designed to reduce rankings for low-quality sites, so the key thing for webmasters to do is make sure their sites are the highest quality possible. We looked at a variety of signals to detect low quality sites. Bear in mind that people searching on Google typically don’t want to see shallow or poorly written content, content that’s copied from other websites, or information that are just not that useful. In addition, it’s important for webmasters to know that low quality content on part of a site can impact a site’s ranking as a whole. For this reason, if you believe you’ve been impacted by this change you should evaluate all the content on your site and do your best to improve the overall quality of the pages on your domain. Removing low quality pages or moving them to a different domain could help your rankings for the higher quality content.”

Afectado por Panda?

Si te has visto afectado por Panda y has visto disminuir tu tráfico Errioxa propone estos puntos de control que para él son los más interesantes:

  • El número de URLs que traen tráfico desde Google haya descendido
  • El número de keywords que traen tráfico hacia una URL  también desciendan
  • Las palabras principales para cada URL siguen bien posicionadas, las que pierden son las de Long Tail

Ahora bien como podemos monitorizar estos puntos para controlar al Panda.

El número de URLs que traen tráfico desde Google haya descendido

En Analaytics:  Contenido-> Páginas de destino principales -> Comparación con mes anterior o periodo de tiempo que queramos.

El número de keywords que traen tráfico hacia una URL  también desciendan

Esto podemos mirarlo de forma Micro o Macro.

Micro en Analaytics:  Contenido-> Páginas de destino principales ->seleccionamos la página -> palabras clave de acceso ->comparación con mes anterior o periodo de tiempo que queramos ->Para verlo mejor en Vistas ” Comparación ”

Macro en Analytics: [ ( Contenido-> Páginas de destino principales ) / ( Fuentes de tráfico -> Palabras clave ) ] ->Comparación con mes anterior o periodo de tiempo que queramos.

Con esta métrica macro veremos la evolución de nuestras visitas por Long Tail.

Las palabras principales para cada URL siguen bien posicionadas, las que pierden son las de Long Tail

Para trackear las posiciones teneis varias opciones, a mi me gusta mucho el Rank Tracker aunque es de pago, pero si buscais algo gratuito para pocas keywords podeis utilizar el Free Monitor for Google http://www.cleverstat.com/en/google-monitor-query.htm

Existen más indicadores que podéis utilizar para ver en que medida os ha afectado Panda, como:

Ver si tenéis una sección en Ingles y ver si las  visitas desde EEUU , UK y demás países Angloparlantes han disminuido.

Ver si el porcentajes de visitas nuevas a descendido.

Etc…

Podría google estar utilizando el cálculo lógico

Podría google estar utilizando el cálculo lógico para deducir el contenido válido?

La lógica examina la validez de los argumentos en términos de su estructura, (estructura lógica), independientemente del contenido específico del discurso y de la lengua utilizada en su expresión y del los estados reales a los que dicho contenido se pueda referir.

Se que es un rayote pero se podría deducir en un % si el contenido de un sitio es válido si dado un enunciado verdadero a partir de un sitio de autoridad dedujera otro u otros que también se tienen como válidamente verdaderos mediante formulaciones y reglas de simbolización.

Por poner un ejemplo:

Photoshop es un software de retoque fotográfico de  Adobe

p ↔ q

Ahora bien si p ↔ q en un sitio de autoridad existe una relación entre Adobe y Photoshop.

Por lo tanto si yo escribo un contenido donde hablo de Adobe y Photoshop por lógica el contenido en un % es válido ya que al p ↔ q desde un sitio de autoridad mi contenido en un % también es válido.

Ahora bien si implemento reglas lógicas definiendo p,q,r,s,t,u,v,…. podría desarrollar un método donde podría obtener una base en la cual una vez definidos unos argumentos verdaderos pudiera identificar sitios válidos para buscadores.

Se que esto es mucho más complicado pero como he comentado antes son rayotes SEO 😛

Como devuelven los resultados los buscadores

Cuando estuve en el SearchCongress de Barcelona me quede con una diapositiva que nos puso Ricardo Baeza de su libro donde explicaba el proceso de como almacenaban y devolvían los resultados de búsqueda los buscadores.

Según este grafo los buscadores tendría directamente cacheadas queries y documents de gran uso para no tener que estar atacando continuamente a sus indices de clusters con búsquedas de los usuarios, cosa que me parece de lo más lógica.

Pero lo que realmente me interesaba era la arquitectura basada ​​en clusters para el módulo de búsqueda mediante racimos donde se contiene un índice de toda la colección, es decir, el índice se reparte entre los servidores m en el clúster. Los racimos n se utilizan para producir réplicas n del índice general.

Pero bueno aunque me interese la arquitectura de como se almacenan y se devuelven los datos, lo que realmente me importa es el algoritmo de ranking y en este caso parece como si fuera realmente un sumatorio de algoritmos pudiendo comenzar por el algoritmo de HITS + Algoritmos vectoriales como el LDA sumando el del Page Rank y así continuando tanto con algoritmos de combinaciones lineales de distintos factores relevantes como el que plantea Ricardo R(p,Q) = & BM25(p,Q) + (1− &)PR(p) como el que ya plantemos hace tiempo R(A,k)=P1*C1(k,F1(A,k))*F1(A,k)+…+Pn*Cn(k,Fn(A,k))*Fn(A,k) Lo que queda claro es que no podemos estar seguros y únicamente con la experimentación e IR podremos ir mejorando.

en_USEnglish