Congreso SEO — > Ojobuscador 2.0

Javier Casares, uno de los mejores SEO de nuestro País Organiza el Congreso Ojobuscador 2.0 en Madrid, abajo tenéis el enlace, y la lista de ponentes. Si hay gente realmente intersada en conocer algunos de los trucos mas novedosos o experiencias seo de otras empresas seguro que debe interesarles acercarse al congreso.

No se exáctamente de que temas se va a tratar pero seguramente veamos de los mas sencillo a lo más complejo aunque estoy convencido que que se aprenderá mucho, yo intentaré no perdérmelo siempre que el trabajo me respete.

Aunque no les conozco todavía saludos a Javier y Tomy ya que últimamente soy un fiel lector de ojobuscador y de sus post.

http://www.ojobuscador.com/

  • David Arias Aguilera (Dávilac)
  • Carlos Castillo
  • Andreas Dzumla
  • Dr. E. García
  • Héctor García Puigcerver (Kirai)
  • Benjamin Gessmann
  • Ariel Guersenzvaig
  • Carlos Solís
  • Martí Manent
  • Antonio Mas Gómez
  • Manuel Montilla

El Software para un profesional SEO

Hay en el mercado un sinfín de programas y software para gente especializada en el posicionamiento WEB. Aquí solo comentaré algunos y agradeceré cualquier tipo de comentarios al respecto para mejorar el post.

En primer lugar es importante analizar los logs para ello se puede usar los siguientes programas algunos son gratuitos.

phpMyVisites 2.2
AWStats 6.3

o el surftats que es de pago.

En segundo lugar debéis analizar las entradas de links, para ello la mejor forma de hacerlo es poniendo link: delante del sitio web que queráis analizar.

Si queréis hacerlo de forma porfesional se pueden usar aplicaciones seo profesionales como

seo élite,
seo administrator,
seo studio,
IBP, etc …

La mayoría de estas aplicaciones son de pago y suelen estar en inglés lo que dificulta el análisis de las palabras claves que llevan acentos y eñes. Por tanto no son al 100 % de mi agrado aunque reconozco que son muy potentes.

Para analizar las palabras clave podéis usar el Google Trends

Destacar las keywords y el título es de lo mas importante en la optimización de código

Cuantas veces te has preguntado que es lo que tienes que cambiar de tu código html, php, asp  o jsp para que ganes posiciones en los buscadores.

Bién pues sobre todo vamos a destacar el título, los marcadores 

  h2, h3 … y la negrita … tus palabras clave deberían de ir destacadas de esta forma.

Otro aspecto que me gustaría destacar es la densidad de palabras clave. No me seais cafres y no hagáis SPAM, debéis inventad una forma de combinar las Keywords para que la frase tenga sentido.

Supongo que ya has hecho el analisis de tu web y has analizado las palabras clave, bien pues ya puedes ir destacándolas de la manera que os he explicado ya que los buscadores lo valorarán.

El top 10, las mejores webs según Alexa

<>En el anterior post comentamos que si nos fijamos en la puntuación Alexa, esta puntuación se muestra de orden decreciente, siendo la puntuación mas baja la página con mejor alexa rank. Este mes la nº 1 es Yahoo y os muestro los mejores en la foto ….

Para que sirve Alexa Rank y cual es su credibilidad

Bien como de costumbre en primer lugar haré una breve descripción para la gente que anda un poco despistada.

El Alexa rank es una especie de “medidor de tráfico” o mejor dicho yo lo calificaría como un  un “medidor de peticiones” es decir, en realidad lo que se consigue cuando se instala la herramienta de Alexa rank es enviar a los datacenter de Alexa todas las páginas que vamos viendo, de esa forma con todas las peticiones webs que hacemos (y enviamos a alexa) ellos consiguen elaborar una puntuación de cuales son las webs más visitadas.

En cuanto a su credibilidad diría que es mas bien poca para los números elevados y máxima para los números mas pequeños. Es decir, una web que tiene un rank alexa de 200 es una web realmente visitada y los datos alexa son realmente creibles, pero entre el intervalo [200.000- etc …] es realmente fácil manipular el rank alexa si visitas tu mismo con frecuencia tu web y tienes instalada la barrita alexa. Ya no digo nada si tienes un ciber y pones tu web como página de inicio.

Como se puede observar vemos el Alexa rank de una web en su barra.

la importancia de los metatags

La verdad es que su importancia cada vez más va decreciendo, los buenos buscadores como  Google y YAHOO ya no los tienen en consideración.

Personalmente creo que la mejor solución es ponerlos tanto la “description”  como las “keywords” ya que todavía hay muchos buscadores que los tienen en consideración y seguro que no son motivo de penalización mientras estén bien sintetizados.

uso de la etiqueta rel=”nofollow”

Bien esta etiqueta es una especie de parche que usa para indicar que no quieres que se siga un determinado enlace. Bien porque no quieres hacer publicidad directa de la Web, o porque no te interesa votar esta página

En definitiva, si queremos hacer mención de una página Web pero no queremos que la página sea seguida por las arañas (spiders) de los buscadores podemos hacer uso de la etiqueta rel=”nofollow” de las siguientes 2 maneras:

<a href="paginaweb.html" rel="nofollow">

o si quieres que se aplique a todos los enlaces de esa página puedes ponerlo en el meta

<meta name="robots" content="index, nofollow">

Como ver el pagerank de Google en diferentes datacenters

Una de las manías de los posicionadores es conocer el pagerank de una página y a menudo es frecuente que este pagerank varíe dependiendo del sitio donde nos situemos. Esto es debido a que google tiene diferentes datacenter que suministran la información de los pagerank.

Estos datacenter se actualizan aproximadamente cada 3 meses pero nadie puede asegurar a ciencia cierta cuando será la práoxima actualización.

Si deséas conocer cual es tu pagerank en diferentes datacenter lo puedes hacer mediante esta web se puede visualizar el pagerank en 18 datacenter diferentes. http://livepr.raketforskning.com/

Trucos para posicionar una página WEB

Bien, os dejo una serie de instrucciones que podeis seguir para conseguir incrementar las posiciones en los buscadores.

1  – conseguir enlaces directos tipo href=”http ….” alt=”palabras clave ”  y las palabras clave como anchor text
2  – titulo de la pagina, Palabras clave y como mucho solo poner el nombre de la empresa para no perder la identidad.
3  – Frescura, Google y los mejores buscadores prefieren páginas que se actualicen.
4  – No usar frames, google no los reconoce ni entra a leerlos, ni indexa las paginas de los iframes
5  – Servidor de calidad con buen ancho de banda.
6  – buen analisis de las keywords, usar herramientas de SEO profesionales o Google Trends.
7  – modificar metas, no esta claro su importancia, es mas para los buenos buscadores no valen de nada, pero mas vale tenerlas bien optimizadas.
8  – intercambio de links, buscar buenos directorios y paginas con alto pagerank si puede ser de vuestra misma temática.
9  – texto justificado, esto quizá es un bulo, pero la verdad es que queda mejor
10 – no publicarse en directorios con granja de enlaces
11 – en los Weblog o foros si posteais en estos podéis firmar con las palabras clave.
12 – poner robots.txt
13 – hacer foro y Weblogs de vuestra temática.
14 – las paginas nuevas dan muchos saltos esto hay que aprovecharlo.
15 – en msn se dice que los vinculos internos deben estar escritos como http:// ….
16 – los enlaces de texto son mucho mejores que los banners para poder posicionar tu página.
17 – y para gente malintencionada, (desde mi punto de vista no demasiado ético) se puede denunciar una web con spam report.

Ventaja de posicionamiento entre los Blogs y sitios normales

En respuesta a porque los blogs son mejor valorados y mejor posicionados en los buscadores que los sitios normales se puede decir lo siguiente…

En realidad nadie tiene ventaja sobre nadie, ni creo que los buscadores valoren mejor un dominio simplemente porque sea un Blog. Pero lo que si es cierto es que que las empresas importantes que elaboran y liberan los blogs (WordPress, Creativecommons, … ) han diseñado verdaderas obras de arte en repetición/densidad de palabras clave enlaces entre los post, títulos bien optimizados y resaltados, relaciones muy completas entre ellos, en definitiva han creado unas estructuras ideales para su indexación …

En el mundo SEO esto no es un misterio, pero estoy convencido que muchas personas que esciben en blogs no se dan cuenta de ello … pero cada vez que insertan una entrada consiguen optimizaciones que son ideales para incrementar posiciones en los buscadores gracias a la correcta optimización de código que llevan por defecto estas estructuras, y debido a ello muchas personas que tienen un Blog consiguen posicionamiento e indexación sin prácticamente ocuparse de optimizar código.

Muchos sitios Web normales (no gestionados por SEOs) no son tan dados a ello ya que olvidan enlazar contenidos entre webs del mismo sitio, no se preocupan tanto de modificar los títulos representativos, generalmente no actualizan contenido fresco, no resaltan las palabras clave, etc …

Por todo esto, generalmente una persona que escribe en un Blog acaba indexando, optimizando y posicionandolo sin prácticamente darse cuenta porque elabora un sitio muy bien estructurado, fresco y optimizado prácticamente por defecto gracias al panel de administración. Pero esto no quiere decir que los Blogs sean mejor vistos por los buscadores que los sitios normales.