SEO Resumen en una infografía

Alfred Smith publica una interesante infografía donde se muestra todo el proceso SEO.

Destacar la importancia que le da al factor social media 45%, desde mi punto de vista un poco excesivo, para mi onpage, external links y social media tienen prácticamente un reparto equitativo, no hay que dar más importancia a uno que a otro.

No obstante la infografía no tiene desperdicio …

seo-resumen

Falsos mitos y dudas del seo

Esta es una charla de nivel medio/avanzado donde se habla de aspectos de dudas que tienen SEOs de nivel medio. A veces son dudas típicas donde nadie conoce la verdad absoluta, pero que hay antecedentes, experiencia y pruebas que indican, a priori, cual el mejor camino a tomar.

Javier Martinez Seco y Jose Miguel Ferrero nos asesoran sobre ello.

JavierMrt

Este es mi resumen:

  • Javier considera que es mejor mantener la marca y hacer fuerza con el mismo dominio antes que dividir en muchos proyectos con las palabras claves ya que si no al final divides la fuerza del dominio (backlinks y reputación conseguida) y dedicas mucho más esfuerzo en programación. Personalmente estoy de acuerdo, pero hay veces que si el OBJETIVO CLARO A NIVEL ESTRATÉGICO es una keyphrase muy competida y tienes un dominio nuevo sin relevancia ni presupuesto para conseguirla a lo mejor no te queda otro remedio
  • La intención de los usuarios es muy importante, si conseguimos menos del 30% de rebote es que estamos haciendo bien las cosas.
  • El TLD que elijas da igual entre los dominios genérico. Com. Net. Org. Posicionan igual. Estoy de acuerdo pero si puedes a nivel de imagen prefiero el .com ya que al final por defecto es el que más se recuerda
  • Si vas a hacer algo internacional registra el. Com y luego los idiomas los divides en carpetas /es /en y toda la fuerza para el mismo dominio. Totalmente de acuerdo, esto está demostrado que funciona mejor que los subdominios pero a mi por ejemplo se me ha dado el caso que he tenido que hacerlo por subdominios ya que había que programar cosas diferentes en cada idioma o balancear la carga por cada idioma, por tanto a nivel técnico resultaba más sencillo hacerlo por subdominio
  • El country code si se tiene en cuenta por los buscadores, por tanto es más complicado posicionar algo en inglés en un .es. Esto es más que evidente, nada que discutir
  • Los link dependiendo de donde vienen hace que Google te sitúe en una zona geográfica.
  • Si tengo fontaneroalicante.com y me enlazan de la India carece de total sentido. Mi opinión al respecto es que probablemente ahora todavía hay gete que les funcione en algunos casos pero tarde o temprano Google evolucionará y estas prácticas están abocadas al fracaso, vale la pena evitarlas
  • La marca es más bonita que la keyword incluso te permite cambiar de modelo de negocio. Insisto hay casos puntuales en que yo he tenido que tomar una decisión contraria a esta opinión, pero como norma general esto es lo mejor, además si hay keyphrases competidas siempre puedes optar por el long tail, si haces un buen estudio de keywords, por tanto si tu dominio de la marca está ganando autoridad estarás en disposición de posicinar esas keyphrases
  • Hay que conseguir enlace relevantes del país donde estés
  • Dependiendo de vuestra relevancia Google visita más o menos la url
  • Imaginemos una tienda de 60 productos. Lo que no podemos hacer es generar miles de url si diferenciamos productos por color. Talla, género, etc… Para ello hay que tener en cuenta el INDEX y el FOLLOW. En la paginacion habría que indexar la primera página que es la que compite por la palabra clave. Las páginas consiguientes seria NOINDEX FOLLOW. Para que siga los enlaces (en este caso los productos) pero que no las indexe para que no compitan con la página inicial.No hay nada que decir, es de cajón que no puedes tener miles de páginas indexadas compitiendo por la misma keyphrase y menos si tu site no tiene autoridad, es de cajón
  • Si tu dominio no es relevante y tiene que leer 12.000 url no lo va a hacer. Incluso hay experimentos que demuestran que en estos casos lee el título la url y las etiquetas.
  • El servidor que este en un país o en otro sí influye y irá más lento en el retraso si nuestros visitantes están en España. Para mi influye mucho más el tiempo de carga que la localización del servidor, pero evidentemente si puedes tener el servidor en el país con la IP del país pues mejor, todo suma
  • El contenido es lo más importante y sobre todo saber repartir el contenido entre la home y las interiores
  • Cuidado con el scroll infinito. Mejor la paginación
  • las extensiones.html .asp .php o / no influye.
  • Si puedes tener un dominio para todos los países eso es lo mejor
  • A la hora de contratar un SEO, si este se interesa por tu producto es el SEO vale. Tiene que analizar. Ver porcentajes de conversión, etc…
  • Todo es trakeable
  • La fuerza de las redes sociales es inmensa. Hay que estar es todas. Sobre todo en Google plus.
  • Los comentarios hacen que un post sea más relevantes. Y si tiene enlaces desde las redes sociales pues mejor que mejor
  • El meta keyword ya no se mira. Ahora solo vale para adsense y mostrarte anuncios relacionados.
  • No debes usar ajax para contenido que quieres posicionar
  • Google no puede pasar tras los formularios
  • Cuidado con los contenidos duplicado de los productos de los proveedores
  • La Wikipedia es un ejemplo de contenido bien hecho
  • Lo más importante del CMS es la indexabilidad y la paginacion.
  • WordPress es el mejor según Javier
  • Las paginaciones de WordPress no son del todo buenas pero hay plugins que lo mejoran.
  • Drupal también es una buena opción. Pero es más orientado a desarrolladores.
  • No les gusta el usar temas de otros. Lo mejor es hacer el tema desde 0. Esto os lo puedo garantizar, te puedes basar en un tema hecho pero hay que repasarlo de arriba a abajo y adaptarlo no solo desde el punto de vista gráfico, sino desde el punto de vista de estructura de contenidos
  • El nivel de personalización de 1&1 es muy bajo. Con WordPress mucho más alto. Con Drupal más. Con un Framework más. depende donde quieras o puedas llegar
  • Hacerlo a mano supone que hay que estar al día en el SEO y costes muy elevados. Ahora está muy de moda el rel=autor de Google plus, por ejemplo y esto debería incluirse
  • Si cuidas lo microformatos te vas a diferenciar del resto.
  • El análisis es muy importante. Hay que medir los resultados.
  • El que hace bien las cosas no le afecta el algoritmo de Google.
  • Los 404 hay que dejarlos. Nada de redireccions a la home
  • Cuidado con los display none. Si piensas que puede estar mal, si huele mal, lo más probable es esté podrido.

Optimización del title en los attachment del wordpress

La mayoría de vosotros usáis el plugin All In One Seo Pack y para mi tiene un error de optimización cuando visualiza los attachments en nueva página. Os cuento que és y como se soluciona.

Cuando se inserta una imagen en el post como “url de entrada” …

Se autogenera una nueva página que se maqueta haciendo uso del archivo “image.php” que está en nuestra plantilla de wordpress.

El problema es que el All in one seo pack genera un TITLE como el siguiente:

post title + attachment title

Lo ideal sería que el title de esa nueva página fuera solo el “attachment title” o en caso de querer mantener los dos que metiera un guión o algo para separarlo. El problema es que ni modificando el header.php nos deja hacerlo.

Para conseguirlo se hace así:

1) abrimos el “aioseop.class.php” del plugin AIOSEOP
2) sobre la línea noventa cuando termina el código:

if( $this->aioseop_mrt_exclude_this_page()){
return;
}

insertamos el código

if(is_attachment()) {
return;
}

3) ahora ya podemos manejar el TITLE desde el header.php

if (is_attachment())// tuneo el title
{
echo "<title>".$post->post_title."</title>";
} else {
?>
<title>< ?php wp_title(''); ?>< ?php bloginfo('name'); ?></title>
< ?php
}

Experiencia práctica de cambio de IP, servidor, redirección y optimización del código

Solo quiero apuntar una experiencia práctica y progresiva que he tenido en un proyecto que oscila entre 800.000 y 1.200.000 visitas/mes. Es muy complicado por no decir imposible saber si los incrementos son debido a esos cambios ya que influyen cientos de factores, pero bueno, aquí tenéis la experiencia vivida …

1. Cambio de URL de todo el site

Se optó por una estructura diferente de url intentando que fueran más cortas, se introdujo una redirección 301 y se actualizó el sitemap.xml

Repercusión del tráfico tras 1 mes: incremento insignificante del tráfico, alrededor del 2%. Quizás la buena noticia aquí es que no hubo pérdida alguna

2. Cambio de servidor e IP

El servidor estaba en otro país y se incluyó un servidor mucho más rápido y una IP Española. También se pasó el servidor a NGINX

Repercusión de este cambio: tiempos de carga muy inferiores y subida de un 8% en aproximadamente 1 mes.

3. optimización del código

A nivel de seo estaba correcto pero se hicieron optimizaciones en los microformatos, cambiar tablas sin sentido por divs, eliminar espacios y tabs, minimizar la carga de scripts y diseño integral a partir de la hoja de estilos, carga de archivos no dinámicos desde otros servidores para mejorar la carga concurrente, compresión gzip…

Repercusión tras 2 semanas: incremento del 3% del tráfico.

Microformatos SEO, como gestionar eventos y fichas

En los tiempos que corren tenemos que actualizar nuestro código al detalle, para ello no sé si alguna vez os habéis parado a pensar porque salen estos resultados …

Posicionar Eventos

Para conseguir gestionar los eventos y que Google lo interprete correctamente debemos usar el microformato “hCalendar” aplicando la clase “vevent”. Si lo consideramos podemos introducir también la clase “geo”

<div class=”vevent”>
<a href="http://urldelevento.es" class="url summary">Título del Evento</a>
<abbr class=”dtstart” title=”2011-04-10″>10 Abr 2011</abbr>-
<abbr class=”dtend” title=”2011-04-13″>13 Abr 2011</abbr>,
en <span class=”location”>Alicante</span>
<span class="eventType" title="Concert"></span>
<span class="geo">
<span class="latitude"><span class="value-title" title="38.8405098" ></span></span>
<span class="longitude"><span class="value-title" title="0.1084899"></span></span>
</span>
</div>

Posicionar una ficha personal o de una empresa

En este caso usamos la clase vcard tal y como vemos en el ejemplo.

<div class=”vcard”>
<a class=”url fn” href=”http://ponemosurldestino.es”>http://ponemosurldestino.es</a>
<div class=”adr”>
<span class=”type”>Trabajo</span>:
<div class=”street-address”>Ap. Correos 2017
<span class=”locality”>Alcobendas</span>,
<abbr class=”region” title=”Madrid”>Madrid</abbr>
<span class=”postal-code”>28108</span>
<span class=”country-name”>Spain</span></div>
</div>
<div class=”tel”>
<span class=”type”>Work</span> +34.333.333.333
</div>
<div class=”geo”>Lugar:
<span class=”latitude”>38.840509854931064</span>,
<span class=”longitude”>0.10848999023437</span>
</div>
</div>

Fechas en Inglés

Tened cuidado de introducir la fecha dentro tel title en formato “Año-mes-día” sino la liamos. Si además queréis especificar la hora se poneYYYY-MM-DDThh:mm:ss, por ejemplo 2011-04-10T21:00:00 dentro del title de la clase dtstart. Ver ISO Date Format

Como saber el longitude y el latitude del Maps

Centra el Google Maps al lugar donde se celebra el evento y pega este código en el navegador.

javascript:void(prompt(”,gApplication.getMap().getCenter()));

Fuentes

Si quieres ampliar la información te recomiendo la lectura de …

Microformats ORG
Javier Casares
Google Answer
Your Seo Sucks
mangas verdes

Error 503

Que hacer ante un error 503 ?

error 503

Lo primero es que un error 503 se genera normalmente ante una sobrecarga del servidor, lo que hace que exista un problema de indexación si en esos momentos nos están rastreando los robots de los buscadores.

Asi que como se estan poniendo las cosas en donde los tiempos de carga son fundamentales no es cuestión de tener este tipo de errores.

Podemos solucionarlo de varias formas:

  1. Restringiendo la entrada a nuestro website mediante un archivo .htaccess baneando la ip de los robots que no nos interesan que nos rastreen y que nos consume mucho ancho de banda ya que estos robots suelen pasar bastante de nuestro archivo robots.txt
  2. Utilizar el robots.txt para al igual que anteriormente no permitir la entrada de estos robots y dejar que solo se rastree lo que nosotros queremos, con lo que ahorraremos en ancho de banda gastado.
  3. Desabilitar los feeds ( no es muy buena idea pero puedes hacerlo sobre todo si te copian contenido )
  4. Utilizar distintos métodos anteriormente comentados para optimizar los tiempos de carga

Pero realmente lo que nos interesa a nosotros es trabajar sobre este error para que google no nos penalice al encontrarse con él por lo que debeis de incluir en vuestro archivo .htaccess el siguiente código que envia a los robots de google a un archivo de error 503.php y le dice que vuelva dentro de 3600 segundos mientras que al usuario lo manda a una página de error 404 :

Options +FollowSymLinks
RewriteEngine On
RewriteBase /
RewriteCond %{HTTP_USER_AGENT} ^.*(Googlebot|Googlebot|Mediapartners|Adsbot|Feedfetcher)-?(Google|Image)? [NC]
RewriteCond %{REQUEST_URI} !^/cgi-bin/error/503\.php [NC]
RewriteRule .* /cgi-bin/error/503.php
RewriteCond %{REMOTE_HOST} !^1\.1\.1\.1
RewriteCond %{REQUEST_URI} !^/cgi-bin/error/404\.php [NC]
RewriteRule .* /under-development-explain.html [R=302,L]

Si utilizais CGI debeis de incluir este archivo 503.php para decirle a los robots de google que vuelvan a pasar dentro de 3600 segundo, 1 hora.

<?php
ob_start();
header('HTTP/1.1 503 Service Temporarily Unavailable');
header('Status: 503 Service Temporarily Unavailable');
header('Retry-After: 3600');
header('X-Powered-By:');
?><!DOCTYPE HTML PUBLIC "-//IETF//DTD HTML 2.0//EN">
<html><head>
<title>503 Service Temporarily Unavailable</title>
</head><body>
<h1>Service Temporarily Unavailable</h1>
<p>The server is temporarily unable to service your
request due to maintenance downtime or capacity
problems. Please try again later.</p>
</body></html>

Herramientas para SEO y para Social Media

Muchas veces me preguntan que herramientas solemos usar para gestionar el linkbuilding, hacer analítica web, controlar el social media en los diferentes perfiles sociales, analizar tu reputación online, mejorar el posicionamiento, optimizar tu código, generar keyphrases…

Pues aquí va un post de LMDIAZ

 

 

Búsqueda

Educación

Facebook

Fotografías

Gestión del tiempo

Monitorización

Publicación

SEO

Trabajo en equipo

Twitter

Vídeo

Varios

  • + de 25 herramientas para la web 2.0

 

 

Evitar errores de rastreo y redireccionar los links rotos

Uno de los problemas que nos advierte Google Webmaster Tools son los errores de rastreo, estos son enlaces entrantes hacia nuestra página donde se está encontrando un error 404.

Desde Webmaster tools podemos visualizar estos errores de rastreo. Así obtendremos la información de la página enlazada que no se visualiza correctamente y la página que origina en enlace.

Como podemos ver, este error de ejemplo, es debido a que los permalinks cambiaron su estructura.

Existe un plugin llamado Dean’s Permalink Migration que hubiera solucionado este error con facilidad, no se porque no lo instalamos en su momento.

No obstante suele ocurrir que al enlazarnos el otro site cometa un error al introducir la url, de ese modo lo que tenemos que hacer (a no ser que quieras contactar con el webmaster para que lo corrija) es introducir una redirección 301 del enlace erroneo al enlace correcto. Para ello puedes realizar una redirección htaccess, una redirección mediante PHP o ASP, o si usas wordpress puedes usar el plugin redirecction

Pasos para posicionarse

Está web te ira indicando como debes dar los pasos para posicionarte correctamente en los buscadores.

“Bajo Construcción” – Cuidado antes de dar una web de alta …

No tengais prisa en comenzar a dar de alta todos vuestros sitios en buscadores y directorios si estos no tienen una estructura bien realizada y con todas sus páginas con contenido ya que estareis callendo en uno de los típicos errores que no comenten los SEO .

Bajo Construcción

Ejemplos de estas páginas con contenidos vacios serían páginas de enlaces pero sin enlaces, directorios por ciudades o provincias pero sin ninguna web dada de alta en esas categorías, páginas de ayuda sin contenido, Blogs dentro del website pero sin contenido, Foros vacios , etc…

Es mejor que las páginas que no tengais con contenido no las enlaceis desde el indice u otra parte de vuestra web ya que si no teneis contenido en la página para que quereis enlazarlas si realmente no vais a mostrar nada, eso solamente incrementa artificialmente el indice de vuestro website cosa que no gusta mucho a Google así como a otros buscadores.

Aparte de poder ser muy perjudiciales cara al posicionamiento el tener páginas vacias dentro de nuestro website nos hace estar perdiendo usabilidad y accesibilidad ya que podeis estar mareando al usuario y perderlo porque al entrar dentro de una página vacía puede pensar que el sitio está todavia en construcción y marcharse. Para evitar esto y que Google no rastree vuestras páginas antes de estar terminadas simplemente no debeis darlas de alta en el buscador ni añadir ningún enlace hacia ellas.

Una vez tengais vuestro sitio terminado debeis revisar si todas las URLs de vuestro website son perfectamente accesibles para los spider comprobando que ningún enlace está roto y para ello podeis utilizar esta herramienta web gratuita enlaces-rotos. Por supuesto tambien debereis de revisar las metatags de vuestras URLs para que esten perfectamente definidas cada una con su Title, Description y Keywords optimizadas así como crear un arhivo robots.txt en el indice de vuestro website para decirle al buscador que páginas quereis que no sean indexadas.

Tambien debereis controlar que vuestro sitio no tenga contenido duplicado a causa de la URL canónica .

Una vez realizado esto debereis de dar de alta vuestro website en Google y seguir los consejos de como mejorar rápidamente nuestro posicionamiento.

Con todo esto no digo que si teneis un website muy grande tenga que estar totalmente terminado antes de comenzar a promocionarlo y darlo de alta, sino que no lleneis el indice de vuestro website con enlaces a categorías y páginas que no tienen ningún contenido, es mejor ir incluyendo las páginas poco a poco que todas de golpe y sin contenido.

El efecto de Bonus

El efecto Bonus

El efecto de Bonus radica en que cuando damos de alta un website nuevo en la red existen ocasiones en que los buscadores ofrece nuestro website en los primeros puestos ( normalmente entre las tres primeras páginas de resultados ) para los resultados de búsquedas de nuestras palabras clave aunque nuestro website tenga muy poco tiempo de vida, eso si este efecto de Bonus es durante un corto periodo de tiempo.

Esto tiene una lógica muy clara y es que tanto Google como cualquier otro buscador al indexar un website nuevo lo relaciona con contenidos nuevos en la red por lo que es mucho más dificil para el usuario acceder a ellos si su posicionamiento es bajo para las palabras clave de ese website por lo que como comentaba anteriormente se produce un efecto de Bonus para que el sitio sea más visible durante un corto periodo de tiempo y los usuarios puedan encontrar nuevo contenido recien publicado en la red relevante con los terminos de búsqueda y las palabras clave del website.

Despues de un periodo corto de tiempo el website vuelve a la posición que le correspondería desde un principio, pero durante ese periodo de tiempo el website ha podido mostrar sus artículos, notícias, etc… he incluso ganar enlaces entrantes debido ha este efecto de Bonus.

Asi que ya sabeis cuando deis de alta un website tener bien preparados artículos o notícias relevantes para conseguir el mayor número de enlaces y tráfico hacía vuestro website durante este periodo de efecto de Bonus.

Aproximación a como ordena los resultados de las búsquedas Google

Tras obtener la lista de páginas que contienen las palabras buscadas (k), las ordena según el resultado de la función de ranking. El valor más alto se corresponde con la primera posición.

Su fórmula es:

R(A,k)=P1*C1(k,F1(A,k))*F1(A,k)+…+Pn*Cn(k,Fn(A,k))*Fn(A,k)

Donde

  • R(A,K) es la función de ranking para la página A y las cadena de búsqueda (keyword) k.
  • Pn es el Peso del Factor n
  • Cn(k,Fn(A,k)) es el Corrector de Factor n para la cadena de keyword k y el valor del Factor para keyword en la página
  • Fn(A,k) es el valor del Factor n para la página A y la keyword k

Factores

Llamamos factores a cada uno de los parametros medidos por el buscador:

  1. Densidad de la keyword en el cuerpo (body) de la página
  2. Densidad de la keyword en el título de la página
  3. Número de enlaces que apuntan a la página con la keyword en el texto del enlace
  4. PageRank de la página
  5. Antiguedad del dominio
  6. Peso de la Página
  7. Número de enlaces rotos de la página
  8. ….

Cada uno de los factores puede ser dependiente/independiente de la página (A) o/y de la keyword.

Peso de la página: dependiente de la página, independiente de la keyword
Frecuencia de busquedas de la keyword: independiente de página, dependiente de keyword

Fn(A,k) calcula el valor del factor n para la página, por ejemplo la densidad de página www.ejemplo.com/pag1.htm para la keyword trabajo es 0,023 (2,3%)

Correctores

Los correctores permiten adecuar los valores de los factores. Son funciones que matizan los valores de los factores dando mayor valor a ciertos rangos.

Cn(k,Fn(A,k)) calcula el corrector para el factor n y la keyword k, dependiendo del valor

Se ve claro con un ejemplo.

Supongamos que la densidad del 2,3% para la palabra “trabajo” google la considera óptima dando un valor de 1 a C_densidad(”trabajo” , 2.3%), el factor de C_densidad podría implementar la siguente tabla

x=densidad C_densidad(”trabajo”,x)
0 0
0-1% 0.5
1%-2% 0.75
2-3% 1
3-4% 0.6
4-5% 0.2
5-8% 0
9-15% -0.5
16-100% -1

Resaltamos los valores negativos, que en la practica suponen restar puntuación de la ranking para densidades superiores al 9% (antiSPAM). El valor del Corrector varía dependiendo de la keyword. De esta forma con k=”para” al ser una palabra común la densidad umbral para obtener valores negativos se aumenta (ej al 25%)

Peso

El peso permite establecer la importancia relativa de todos los factores. El peso de cada factor es un valor entre 0-1. La suma de todos los pesos es 1.

De esta forma es facil ajustar el ranking dando mayor o menor importancia a ciertos factores. Se estima que el peso del factor PageRank era alto en el pasado (ej 0.2) y se ha bajado en la actualidad (ej 0.05), dando más importancia relativa (aumentando el peso) de otros factores.

Efecto Sandbox

El efecto sandbox es el resultado de la valoración del factor “Antiguedad de Enlaces Entrantes”. Según el modelo propuesto

  • El Peso es 0.2 (un 20% del total),
  • El Corrector está entre 0 y 1
  • La función que evalua el factor es el (sumatorio normalizado de los enlaces con el anchor k hacia nuestra página * antiguedad en dias del enlace) – la media para la cadena buscada, es decir el resultado puede ser negativo (enlaces recientes) o positivo (enlaces antiguos)

A más antiguedad y número de los enlaces con el anchor k, mas valor de la función.

El factor de corrección es una función que depende de la frecuencia de búsqueda del término k. De esta forma un término muy buscado da un valor alto (cercano a 1) y un termino poco buscado un valor bajo (cercano a 0)

C(k,Fn(A,k))=min(1 , 1.1^(X/100000)-1)
siendo x=número de busquedas del la cadena k en la ultima semana

Por ejemplo para la k=”ojos de cristal” con 493 busquedas, C=0.000469989597, es decir el efecto sandbox casi no existe.

Para “posicionamiento en buscadores” con 536234 busquedas, C=0.667099999, por existe un sandbox fuerte

Para “mp3″, con 9823430 busquedas, el C=1, por lo que el efecto sandbox es máximo.

De esta forma, una cadena muy buscada, tendrá más en cuenta el valor de la antiguedad de los enlaces, si estos es muy recientes el resultado es negativo bajando nuestro resultado global para la cadena k.

Las cadenas poco buscadas, al ser el Corrector cercano a 0, la antiguedad afecta poco.

¿Cual es el problema? Que el cálculo es muy costoso para calcularse en tiempo de búsqueda, por lo que se calcula cada 2 o 3 días.

Esto provoca que desde que creamos una página, hasta que se ve afectada por esta variable, pasa este tiempo, provocando resultados mejores durante los 2 o tres primeros dias (no esta calculada la variable para nuestra página, no hay resultados negativos) con lo que estará relacionado con el Efecto Bonus.

Como mejorar rápidamente nuestro posicionamiento.

Una de las maneras de mejorar rápidamente nuestro posicionamiento frente a los buscadores más importantes es incluir dentro de nuestro sitio un sitemap estandarizado. Esto quiere decir que los grandes buscadores se han puesto deacuerdo en seguir todos el mismo protocolo para decidir como deben de hacerse los sitemaps ó mapas del sitio.

Podeis encontrar información de como deben realizarse los sitemaps desde el website Sitemaps.org .

Una vez leais como deben de hacerse y cual es el protocolo adecuado podreis utilizar una herramienta para crear sitemaps automaticamente, podeis descargarla desde el siguiente enlace Herramienta para crear sitemaps unicamente debeis descomprimir el archivo .zip y subir los dos archivos incluidos que son generador.php y sitemap.xml a la raiz de vuestro sitio y teclear la url donde este el archivo generador.php Ej. http://www.tusitio.com/generador.php entonces el generador os creará el archivo sitemap.xml que ya podra ser rastreado por los robots.

Despues de realizar esto lo aconsejable es que si teneis una cuenta en google vayais a las herramientas para webmasters de google y deis de alta vuestro website indicando donde teneis ubicado vuestro sitemap al robot de google ya que así os indexará más rapidamente y mejor todas las páginas de vuestro website.

Espero que Google y los grandes buscadores os indexen y posicionen rápidamente mediante estos metodos, ya nos contareis vuestras experiencias.

No te relaciones con estos websites

  1. Páginas que requieren links recíprocos: creo que la idea sería que si un sitio posee secciones donde se proponen links recíprocos, es porque el mismo no tiene la calidad suficiente para lograr enlaces naturales. (medianamente de acuerdo)
  2. Que no exista una política de privacidad: lo cual denotaría que el sitio no cuida los datos de sus visitantes y a la vez podría significar que el mismo no cumple ciertos lineamientos profesionales mínimos. (medianamente de acuerdo)
  3. Fecha desactualizada de copyright o de última modificación: denotaría que el sitio está desactualizado y dejado de lado por sus propietarios (totalmente de acuerdo).
  4. Páginas de error que no usan Error 404. (muy de acuerdo)
  5. Gran cantidad de de enlaces entrantes provenientes de granjas: El sitio está relacionado a malos vecindarios, dime con quien te juntas y te diré quien eres (Totalmente de acuerdo).
  6. Links muertos: una página con links salientes que no llevan a ningun lado, denota poco profesionalismo y desactualización. (totalmente de acuerdo).
  7. Gran cantidad de links salientes: una página con muchos links salientes generalmente no es bien vista por los buscadores; se recomienda que no exceda los 100. (muy de acuerdo)
  8. No hay un formularios, dirección de email o número telefónico de contacto: Quien administra la web, un fantasma? (muy de acuerdo).
  9. Alto nivel de salidas: los usuarios permanecen poco tiempo en nuestro sitio y se van a otro. (totalmente de acuerdo).
  10. Mucho contenido duplicado: el sitio es una mera copia de otro u otros y tiene poco o nada nuevo que aportar. (totalmente de acuerdo).
  11. El propietario tiene otros dominios penalizados o baneados: el dueño del sitio tiene malos antecedentes (bastante de acuerdo).
  12. El sitio posee sendos links de afiliados de programas de una conocida y dudosa ética (muy de acuerdo)
  13. El dominios del sitio previamente fue usado para actividades de spam: ahora los malos antecedentes son del dominio no del usuario. (totalmente de acuerdo).
  14. Estancamiento: El sitio nunca cambia ni crece (totalmente de acuerdo).
  15. Direcciones URL demasiado largas, con muchos parámetros y carpetas (medianamente de acuerdo)
  16. Mayor porcentaje de links de afliados versus links de salida normales (totalmente de acuerdo).
  17. Pocos links de salida relevantes: es bueno tener links de salida relevantes relacionados al contenido (bastante de acuerdo).
  18. Pocos links entrantes relevantes: Es muy conocido que cuanto mas links entrantes a nuestras páginas tengamos y mas relacionados estén a nuestra temática es mayor el impacto positivo en el posicionamiento así como en la remisión de visitas directas (totalmente de acuerdo)
  19. Todos los links entrantes se dirigen a la página principal solmante: eso podrá denotar un clara contrucción de links no naturales. (totalmente de acuerdo).
  20. Links de salida a sitios de dudosa calidad o que hacen spam; al tener links hacia estos sitios es como que nuestras páginas están votándolos (totalmente de acuerdo)
  21. Lenguaje y contenido adulto en un sitio para todo público. (muy de acuerdo).
  22. Errores de ortografía (muy de acuerdo).
  23. Contenga títulos no relacionados al contenido. (muy de acuerdo).
  24. Poco interés por parte de sitios sociales (no estoy de acuerdo).
  25. Errores de programación (muy de acuerdo).

Google Sitelinks y Snippets

Los Google Sitelinks son links que aparecen listados debajo de la url principal de un sitio de referencia o especializado en alguna temática, enlazando diferentes categorías o partes del website bien definidas ( Puede realizarse mediante Google-Analytics si el sitio utiliza este sistema de estadísticas ) que deberian aparecer como resultados suplementarios cuando realizamos una búsqueda en Google relativa a ese sitio o esa temática.

Un Ejemplo :

Google Sitelinks

Para obtener el privilegio de tener Google-Sitelinks para nuestro sitio Google unicamente nos da una pequeña información de lo que son desde webmastercentral. Que traducido al Español (Traducción por SEOcharlie) seria :

Solamente mostramos vínculos de sitios en los resultados cuando consideramos que estos serán útiles para el usuario. Si la estructura de su sitio no permite que nuestros algoritmos encuentren vínculos de sitios de calidad o no consideramos que su sitio tenga vínculos relevantes para la consulta del usuario, no los mostraremos.

Nota aparte es una especie de bug que han comentado desde SEOblog y que es ” se viene repitiendo en todos los google sitelinks , es que a parte del primer resultado en donde apareceren estos google sitelinks , el segundo resultado tambien es de la misma web, cosa que a mi parecer es un fallo. ”

Todo esto que hemos comentado esta muy bien incluido lo del bug ya que nos beneficiaría si nuestra web apareciera listada en los resultados con Google-Sitelinks pero y si nuestra web no tiene esos privilegios.

¿Que podemos hacer?

En este caso es cuando entran en juego los Snippets que los consideramos como el conjunto del Título, Descripción y URL que nos muestra un buscador a la hora de devolvernos los resultados de una consulta.

Como Google no nos considera como un sitio de referencia intentemos que el usuario si lo haga al leer nuestro Snippet ya que este al leer los primeros resultados de una búsqueda se decidira principalmente por el conjunto de Título, Descripción y Url que aparezca en los resultados que se ajuste a la búsqueda que ha realizado.

Un Ejemplo :

Snippets

En esta búsqueda por Televisor nos aparece un primer resultado de pixmania para el cual los Snippets no están optimizados mientras que en ciao al contrario si lo están.

Nos damos cuenta rapidamente al entrar en el website de ambos de los fallos de uno y los aciertos del otro.

Pixmania :

1º En pixmania el título de la página no sigue un orden donde el usuario pueda leerlo y entenderlo rápidamente para que se incline por entrar en nuestra página y no en otra.

2º Como el texto de la búsqueda Televisor no sale en su totalidad en la metadescription, Google entonces utiliza el texto de la web donde salen las palabra clave de la consulta como es en este caso, mostrando en la description texto de distintos anuncios que para nada están optimizados para un buscador.

3º La Url en pixmania aunque lleve la palabra clave es mucho mas larga que en ciao por lo que consideramos que será una página mucho más profunda dentro del website que la de ciao e inconscientemente suponemos que la navegación por el website puede ser más costosa y dificil de acordar o apuntar en caso que queramos volver a ella. Aunque creo que la Url es el valor de menor importancia dentro de los Snippets aunque no por ello despreciable claro está.

Ciao :

1º En ciao el título de la página sigue un orden donde el usuario pueda leerlo y entenderlo rápidamente para que se incline por entrar en nuestra página y no en otra.

2º Aunque en la metadescription del sitio no se encuentre el texto de la búsqueda Televisor en la página aparece una pequeña descripción de lo que podemos encontrarnos en la página perfectamente optimizada para los buscadores la cual es :

¿En busca de una nueva tele?, encuentra aquí una amplia variedad de televisores LCD de marcas como Loewe, Philips, Sony y muchas otras más. Encuentra en esta sección el Televisor pantalla LCD que necesitas con gran calidad de Video. Si te decides por un proyector para tu equipo Home Cinema cambia de categoría en Ciao.

Daros cuenta de la utilización de las palabras en negrita, la distancia entre ellas y la utilización de signos de puntuación para delimitar frases que pueden aparecer como description en los buscadores.

3º La Url en ciao lleva la palabra clave y es mucho más corta que en pixmania por lo que consideramos que nos será mucho más accesible en caso de desear volver y aparte es mucho más agradable a la vista que una url muy larga.

Una vez estudiados ambos casos nos damos cuenta que no debemos obsesionarnos tanto con la primera posición para una búsqueda ya que realmente el usuario preferira pinchar sobre un resultado que le oporte la información que está buscando antes que pinchar sobre el primer puesto de un resultado que no le oporta claremente la información que busca. También puede optar por pinchar en el primer resultado por que es el primero pero seguramente también pinchara en los siguientes que más concuerden con la búsqueda de información que desea.

La pregunta ahora es:

¿Como podemos optimizar nuestros Snippets?

Via Xeoweb:

1.- Un título demasiado largo que es cortado con puntos al final… y no tiene sentido completo no acaba de ayudar demasiado al usuario. Google muestra un max. de 65 caracteres.


2.- La descripción del snippet puede ocupar 1 o 2 líneas. Que sean 2 lo considero más positivo ya que siempre ocupa más en pantalla
, Google muestra un descripción max. de 150-160 caracteres. Entre 80 y 120 creo que da buenos resultados. Para la URL muestra un max de 80 caracteres.


3.- Si en el snippet sale la descripción dmoz hay que utilizar la etiqueta NOODP para mejorarla. Hay descripciones dmoz que pueden no ser de nuestro agrado, o demasiado cortas (ocupan una línea en el snippet) como se menciona en el punto anterior.


4.- En las consultas más importantes hay que lograr que se destaquen las palabras en el título o / y en la descripción. Ayudaría a captar más la atención del usuario.


5.- Hacer uso de la meta description. Google la suele utilizar cuando en la consulta hay palabras que van en la description. De esta forma evitamos que la descripción esté formada por palabras sueltas de la propia web.


6.- El snippet debe ir dirigido para el tipo de usuario al que está orientado la página concreta a la que será llevado.

7.- Intentar destacar el nombre comercial de la web al principio reforzando la marca (branding).

Fuentes de información y agradecimientos a :

Fran de Xeoweb por su inestimable capacidad para compartir conocimientos con :

Usabilidad en los Snippets

Etiqueta Descripcion y datos que muestra google

Ivan García de Seoblog.

Seoblog

Otras Aportaciones:

Copperfie

SEOcharlie

Copando posiciones

Podemos obtener un mayor número de clicks hacia nuestra web sin aparecer en las primeras posiciones de distintas maneras en Google, una de ellas es mediante la optimización de los snippets que ya comentamos hace algun tiempo y otra es mediante la ampliación de resultados dentro de nuestra propia web.

Esto podemos realizarlo incluyendo en el Título de nuestros artículos keywords relacionadas con su categoría, aunque esto no asegura siempre la ampliación de resultados.

Si en los resultados apareciera nuestro artículo ampliado Google mostrará primero el artículo y luego la categoría relacionada .

Curso Ingles
Tambien podemos hacerlo creando Títulos para nuestros artículos incluyendo Keywords iguales con páginas de la misma categoría.

Frank

Existen más combinaciones para obtener resultados ampliados y así copar las primeras posiciones con resultados dobles, es cuestión de ir estudiandolas poco a poco viendo los resultados que ofrece Google.

Según un estudio realizado de la Cornell University este es el % de clicks dependiendo de la posición al aparecer en los resultados, por lo que si aparecemos con resultados ampliados es más probable que tengamos una mayor cantidad de clicks.

Click distribution

Fuente información de la imágen : Francisco Pearson

Google Local Bussines Center

Google Local Bussines Center es una especie de páginas amarillas de Google integrado con Google Maps, lo interesante de este servicio es que al darnos de alta añadiendo nuestra empresa ademas de aparecer listados en Google Maps podemos aparecer en los resultados de Google para búsquedas relacionadas con nuestro negocio en un area geográfica determinada.

Ej. Coches Jávea

Coches-Jávea

Esto puede reportarnos muchos visitantes al aparecer listados en los primeros puestos de los resultados sin haber echo un gran trabajo de posicionamiento web incluyendo además dentro de los resultados nuestra ubicación en el mapa de Google Maps.

Para ello unicamente debemos de darnos de alta desde Google Local Bussines Center y al cabo de un par de semanas nos llegará una carta enviada desde California.

Google Local

Dentro de ella encontraremos los datos con los que se dieron de alta la empresa y un número PIN que deberemos de introducir junto con nuestra cuenta de Google siguiendo los pasos que indican en la carta para validar los datos enviados.

Ej.

Google Local Bussines Center

Google Local Bussines Center

Imágenes Via : Soy SEO

El valor de las imágenes

Con la llegado de Google Universal Search las imágenes que mostramos en nuestro website adquieren todavía más una mayor importancia debido a que si aparece una de nuestras imágenes en primera posición para una busca competida puede ofrecernos una gran tráfico de personas interesadas en nuestros productos, una muestra de ello es por ejemplo la siguiente captura :

Tijeras

Para ello debemos de optimizar nuestras imágenes al máximo ofreciendo a los spider la mayor información posible sobre estas incluyendo en el código html las etiquetas Alt, Title, Weight, Height , y nombrando la imágen con la palabra con la que la queremos posicionar.

Un ejemplo seria :

<img src=”../imagenes/nombrequequierasposicionar.gif” alt=”Nombre para posicionar” title=”Descripción para posicionar” height=”100″ width=”100″ />

Un saludo. DUQUE

Mapa de navegación

SlickMap CSS es una hoja de estilos idóneo para hacer una lista de elementos de HTML en un mapa de navegación tan encantador como el que veis .

En la Web lográis bajar los ficheros precisos para entender y responder el proceso, admitiendo ofrecer una original y distinguida navegación entre el contenido de cualquier Web.

Un excelente recurso para la categoría de Utilidades para diseño.

es_ESEspañol