Herramientas automáticas de análisis SEO

Un colega me preguntó ayer si existe una herramienta de análisis onpage de tu página que te diga si está bien optimizada. En realidad no soy muy amante de este tipo de herramientas pero si no te puedes pagar a un buen SEO, más vale esto que nada.

Personalmente la que más me gusta es http://www.woorank.com/, considero que está muy completa y te proporciona un informe tanto onpage como offpage.

Entre sus características:
– Estima visitas en base a Alexa y a Compete
– Páginas indexadas
– Páginas internas más populares
– Optimización de URL, Meta description y Meta Keywords
– Optimización de Title y cabeceras
– Optimización de imágenes (comprueba alt)
– Ratio texto/HTML
– Página en Flash o Frames
– Análisis de páginas internas (Ratio, title, etc …)
– Redirección del www
– Robots.txt
– Sitemap
– Idioma
– Microformatos
– Errores W3.ORG
– Dublin Core
– Geo Meta Tags
– Backlinks (Web, directorios, Social media)
– Usabilidad y facilidad de lectura de la web
– Favicon
– Información de los servidores y tiempo de respuesta.
– Compresión Gzip
– Análisis de competencia
– Whois del dominio

Otra que no puedes dejar de visitar es http://www.cuwhois.com/, aunque tiene un gran defecto frente a woorank y es que los análisis de las páginas se cachean y no puedes ver un análisis en tiempo real.

Robots.txt para WordPress

Esta mañana analizando los logs de mi blog he visto como había varios errores, estos eran provocados cuando el robot (spider) de búsqueda intentaba descargarse el robots.txt, evidentemente era un grave error que debería haber contemplado antes.

Analizando un poco los directorios de WP 2.0 vemos que podemos dehabilitar para los motores a prácticamente todos los que vienen por defecto.

el archivo robots.txt quedaría así

User-agent:*
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/
Disallow: /fotos/

evidentemente si quisieramos hacerlo por buscador individualizado usariamos como user agent al spider correspondient de cada buscador. googlebot, scooter, ….

Cuidado con el contenido duplicado, Google muestra sus cartas.

Me ha costado un poco hacer la traducción, resulta complicado a veces sacar tiempo para todo, 🙂 aquí tenéis el enlace Google Webmasters del original y mi pequeño resumen:

– En primer lugar destacamos que la traducción de los textos en idomas diferentes no es considerada contenido duplicado ya que una persona puede buscar información en diferentes idiomas.

– Si escribes contenido duplicado es importante que no dejes que quede visible para las arañas de búsqueda, para ello puedes usar el robots.txt

– Todos y cada uno de los enlaces internos de nuestra Web o Blog debe seguir una estructura que sea lógica y jerárquica. Por ejemplo /directorio, /directorio/ o /directorio/página y en caso de cambiar dicha estructura deberemos hacerlo mediante la redireccion 301

– Tenemos que hacer uso del dominio específico (.es, .cat) si el contenido de aquello que hemos publicado en nuestra web se refiere exclusivamente a un pais o a un territorio. (esto es importante hacerlo así y no mediate un subdominio o una carpeta)

– Hemos de evitar el contenido repetido del sitio (headers, siders y footers) al igual que no enlazar hacia una web sin contenido.

– Por último comentar que a la hora de enlazar no es lo mismo una href con el triple w que sin el, de ese modo también debemos enlazar el contenido original si se utilizan feeds.

Trucos para posicionar una página WEB

Bien, os dejo una serie de instrucciones que podeis seguir para conseguir incrementar las posiciones en los buscadores.

1  – conseguir enlaces directos tipo href=”http ….” alt=”palabras clave ”  y las palabras clave como anchor text
2  – titulo de la pagina, Palabras clave y como mucho solo poner el nombre de la empresa para no perder la identidad.
3  – Frescura, Google y los mejores buscadores prefieren páginas que se actualicen.
4  – No usar frames, google no los reconoce ni entra a leerlos, ni indexa las paginas de los iframes
5  – Servidor de calidad con buen ancho de banda.
6  – buen analisis de las keywords, usar herramientas de SEO profesionales o Google Trends.
7  – modificar metas, no esta claro su importancia, es mas para los buenos buscadores no valen de nada, pero mas vale tenerlas bien optimizadas.
8  – intercambio de links, buscar buenos directorios y paginas con alto pagerank si puede ser de vuestra misma temática.
9  – texto justificado, esto quizá es un bulo, pero la verdad es que queda mejor
10 – no publicarse en directorios con granja de enlaces
11 – en los Weblog o foros si posteais en estos podéis firmar con las palabras clave.
12 – poner robots.txt
13 – hacer foro y Weblogs de vuestra temática.
14 – las paginas nuevas dan muchos saltos esto hay que aprovecharlo.
15 – en msn se dice que los vinculos internos deben estar escritos como http:// ….
16 – los enlaces de texto son mucho mejores que los banners para poder posicionar tu página.
17 – y para gente malintencionada, (desde mi punto de vista no demasiado ético) se puede denunciar una web con spam report.

es_ESEspañol