Cumpleaños de Ramón Gómez de la Serna

Hoy dia del Cumpleaños de Ramón Gómez de la Serna vamos a hablar sobre su vida y obra, así como sobre el Aniversario de la muerte de Ramón Gómez de la Serna hace 46 años.

También vamos a explicar como google acorta las URLs 😛

Si os habeis dado cuenta últimamente Google acorta las URLs de forma que en el snippet ya no muestra la dirección completa si no que unicamente muestra las partes de la URL relacionada con la búsqueda como por ejemplo para el Cumpleaños de Ramón Gómez de la Serna :

cumpleanos-de-ramon-gomez-de-la-serna
cumpleanos-de-ramon-gomez-de-la-serna

Esto lo realiza tanto acortando las URLs por delante como por detrás :

cumpleanos-de-ramon-gomez-de-la-serna-2
cumpleanos-de-ramon-gomez-de-la-serna-2

Además si os dais cuenta en las 3 primeras páginas de google casi todas las URLs que aparecen antes de que se llenen los resultados de las SERPs tiene el nombre o variaciones del nombre de la búsqueda dentro de su URL por lo que como todos ya sabíamos es un factor que Google toma muy en cuenta a la hora de posicionar.

Ahora y para finalizar el que quiera saber algo sobre Ramón Gómez de la Serna que se vaya a este sitio http://www.ramongomezdelaserna.net/

Organización de Arquitectura Interna de un Site

La arquitectura interna de un site podemos estructurarla de diversas formas, pero creo que estructurarla mediante categorías y tags es una buena opción, ahora vamos a definir la diferencía de cada una de ellas y como se complementan.

Los tags, o keywords, son términos simples que hablan de una propiedad o característica de la información, pero no la define ni la agrupa jerárquicamente. Es información sobre la información, o un metadato. Un nodo o unidad de información puede tener uno o más tags, relacionados o no, cada uno de los cuales se refiere a una característica específica del objeto, pero que no lo clasifica o categoriza. Por ejemplo:

Manzanas

fruta, vegetales, postre, verde, roja, dulce

En este caso, cada uno de los tags habla sobre una propiedad del objeto Manzana, pero no son categorías a la que éste pertenezca. Se trata de una estructura plana de términos que lo caracterizan, en un esquema de es o tiene.

Mientras Las categorías son un sistema de asociación de contenido con uno o más temas. Permiten definir y agrupar la información estableciendo relaciones. Las categorías tienen estructuras planas (un nivel) o jerárquicas (múltiples niveles), estos niveles de jerarquía no es conveniente que pasen de más de tres, ya que cuanto mayor es la profundidad del site más complicado es que el spider profundice y lo recorra completamente. Los níveles establecidos mediante la categorización establecen una relación de dependencia del tipo pertenece a.

Por ejemplo:

* Recetas
o Postres
+ Fruta
# Manzanas
# Peras
# Naranjas
# Sandías

Dado que ambos esquemas son diferentes, pero no son opuestos, es posible utilizarlos simultáneamente para obtener una mayor riqueza en la organización de la información. Una estructura de clasificación es útil, por ejemplo, para establecer un esquema de navegación jerárquico.

Los tags, permiten alimentar muy precisamente un buscador, porque identifican los términos más relevantes de un contenido. Esto es particularmente importante para contenido no textual, como fotografías, videos y audio, casos en los que no es fácil extraerlos automáticamente.

Un factor adicional de los tags es el uso en esquemas colectivos, conocidos como folksonomía, en que cada usuario puede agregar tags a diferentes contenidos, de modo que se complementan entre ellos y ayudan a describir de modo más completo al contenido.

Los tags deben contribuir a alimentar las descripciones de contenidos mediante los metadatos, y de este modo se puede mejorar o precisar los resultados de búsqueda.

En suma, hemos visto que:

* las categorías ordenan y agrupan contenido
* los tags hablan de características del contenido, pero no lo agrupan
* las categorías pueden ser jerárquicas
* los tags son planos, sin jerarquías
* las categorías determinan a qué pertenece el contenido
* los tags hablan de qué es o que tiene el contenido

Fuente: http://www.webstudio.cl/blog/tags-y-categorias/

Google se hace el harakiri

Jajajaja. Es que me parto. Está tan paranoico Google con la venta de enlaces, la manipulación del PageRank y los enlaces antinaturales creados sólo para ayudar a las webs a posicionarse que hoy ha ocurrido lo más divertido que he visto en años: Google ha penalizado a su división japonesa, Google.co.jp, por comprar a bloggers para que escribieran reviews sobre sus productos y los enlazaran. Como si se tratara de una web cualquiera, la central de Google ha dado ejemplo y le ha cortado la cabeza a Google Japón por su grave pecado. El PageRank de Google.co.jp ha bajado de 9 a 5. Y Matt Cutts explicándolo por Twitter… Que me da la risa.

¿Se tratará de otra broma de Google para hacernos creer que no son una malvada multinacional y que aún siguen siendo dos amiguetes jugando en un garaje con piezas de Lego o se tratará de una penalización de verdad? ¿Querrían los enlaces para posicionarse en Yahoo y Live? ¿Están tan obsesionados con la venta de enlaces que empiezan a ver fantasmas por todas partes? ¿Se les secó el cerebro como a Don Quijote de tanto leer libros de black hat y confunden a los molinos con gigantes? ACTUALIZO: ¿O tal vez sea, como dice Isaac Sunyer en los mismos comentarios de este artículo, una maniobra publicitaria de Google para avisar a los webmasters de que van realmente en serio con las penalizaciones por la venta de enlaces y que no tienen favoritismos ni se casan con nadie? (gracias por el apunte, Isaac ;))

Sea como fuere, ha sido tronchante, se mire por donde se mire

Me pregunto qué será lo próximo. ¿Se banearán a sí mismos de Adsense? (bueno, no es Adsense exactamente pero ya me entendéis, me refiero a los enlaces patrocinados de Adwords que salen en las búsquedas). ¿Quién será el próximo en caer? ¿Google.fr, Google.fi? ¿O tal vez Google.es…?

Variante de la teoria del primer enlace

Me avisa via email David de http://www.promocioning.com que Sara Bosch de http://www.posicionapro.com/ ha realizado un experimento poniendo en duda la teoria del primer enlace.

Ha continuación os dejo el enlace:

http://www.posicionapro.com/blog/teoria-del-primer-enlace.html

Para mi existe una variable a tener encuenta dentro del planteamiento que ya le he comentado y que es la siguiente :

“Realmente lo que se quiso demostrar con la teoria del primer enlace era que google solo tenia encuenta el Anchor Text del primer enlace hacía la página que ambos enlaces apuntaban.

Por lo que si en tu experimento el primer enlace no tiene Anchor Text es normal que google tome encuenta el segundo. “

La desigualdad en los resultados de búsqueda

Parece obvio que mientras algunas búsquedas sorprenden por la enorme calidad de los resultados, otras lo hacen por lo contrario. En estas últimas muchas veces los primeros resultados muestran webs irrelevantes o sin contenido, o bien con éste bajo mínimos. A grandes rasgos podemos clasificar las búsquedas en cuatro grandes grupos. Por supuesto, todo este artículo se basa en mis experiencias personales, tanto como usuario como webmaster y, en menor medida SEO, siendo un punto de vista como otro cualquiera que no pretende sentar cátedra. En cuanto a los grupos, éstos pueden ser:

1) Búsquedas poco competidas o muy específicas y por tanto no manipuladas por el SEO. Aquí el algoritmo muestra su debilidad o su fortaleza, dependiendo del caso. Que los resultados sean buenos o malos en este caso es una especie de lotería. A veces son buenos por el long tail de buenas webs con un buen SEO o por el long tail de webs que son populares (es decir, enlazadas naturalmente, las cuáles son minoría) y no necesitan de SEO (a grandes rasgos, ya que no hay que conformarse nunca y una buena optimización puede incluso mejorar estas webs). A veces los resultados son malos porque no hay una estructura de enlaces (contados como votos) que ayude al algoritmo a ordenar las posiciones, pudiendo aparecer cualquier cosa.

2) Búsquedas relativamente frecuentes pero no optimizadas por SEO’s (“terreno virgen” por así decirlo). Aquí se deja a la suerte la ordenación (long tail, si existe, mediante links naturales como un enlace suelto en una página de noticias, un blog que casualmente habla de mi página, vaya usted a saber con qué anchor text, ningún enlace relevante, etc., etc.). El resultado, al igual que en el primer caso, es impredecible, a veces bueno, a veces malo.

3) Búsquedas muy competidas y sobreoptimizadas, con webs de contenidos mediocres subidas muy arriba por hábiles SEO’s. Esto es evidentemente malo para el usuario y para Google. Los resultados son manipulados de forma negativa, destrozando la calidad de los mismos.

4) Para terminar señalaremos el que parece el caso ideal tanto para el usuario como para Google: contenidos desde aceptables (el mínimo de calidad) hasta excepcionales ayudados por el empujoncito que unos buenos SEO‘s han sido capaces de dar. El buen SEO siempre deberá tender hacia esta estrategia, la cuál es la más ética, segura y estable, no siendo tan vulnerable a cambios de algorimo ideados precisamente para luchar contra el caso 3.

Por supuesto, puede haber más combinaciones.

Me gustaría aprovechar el artículo para tratar de desmitificar la creencia general de que Google odia el SEO. Sinceramente, no lo creo. Google odia el spam, que es muy diferente, pero adora el buen SEO. Al igual que para Google no hay nada peor que manipulaciones interesadas de su índice sin aportar calidad a cambio, al tiempo no hay nada mejor para él que webmasters y SEO’s que actúen con ética aportando buenos contenidos y optimizándolos para hacer el trabajo más fácil a sus motores de búsqueda y mejorar los resultados.

Hace poco leí un artículo muy interesante sobre las oportunidades perdidas por muchas webs con buen contenido por no conocer el mínimo imprescindible de optimización (cosas como “click aquí”, “bienvenido a tal.com” y otros errores garrafales). También es interesante la lectura de este artículo sobre el arte de enlazar escrito en Sigt. Espero que los disfrutéis. 😉

P.D. Encantado de volver a escribir aquí después de un año. Saludos a todos los lectores, especialmente a Duque y Pedro. 😀

Redirecciones 301 automaticas

Desde hace tiempo tengo Descargar Windows Vista un blog en el cual utilizaba url dinamicas para los post que escribía pero me decidí a actualizarlo ya que ahora tengo un chico que escribe en él y como todos sabemos las url estáticas son mucho mejores a la hora del posicionamiento.

Ahora el problema que se me planteaba era el tener que ir url por url realizando una redirección 301, Puff ni de coña menudo peñazo, bueno el tema está en que buscando algún plugin automático que me lo hiciera encontre Dean’s Permalinks Migration un plugin en el cual introduces tu configuración de url antigua ( yo utilizaba /p?=%post_id% ) y te crea automaticamente la redirección 301 para todas tus páginas. 🙂

Establecer orientación geográfica en Google

Dentro de Webmaster Tools de Google tenemos una opción para establecer la orientación geográfica de nuestro sitio.

orientacion-geografica-google.png

También tenemos la opción de realizar un subdominio o carpeta al estilo www.tusitio.com/en/ o en.tusitio.com para asociar nuestro sitio a una orientación geográfica y además también se encuentran varias alternativas como las mencionadas en este post com ó es .

WordPress 2.5 en Español

Nueva actualización a WordPress 2.5 en Español con plugins y archivos optimizados frente a los buscadores, incluyendo la administración en Español y un template traducido al Español compatible con WordPress 2.5.

Podeis descargarlo desde el siguiente enlace :

Descargar WordPress en EspañolDESCARGAR WORDPRESS 2.5 EN ESPAÑOL OPTIMIZADO POR SEOPROFESIONAL.

Tiempo de Carga del website

Como todos sabemos el tiempo de carga de un website es fundamental principalmente por varios motivos :

  1. No podemos hacer esperar al usuario para ver nuestros contenidos
  2. Mejor rastreo de nuestro website por parte de las arañas al tener que estar menos tiempo esperando para rastrear el contenido por lo que podrán rastrear más y más profundamente.
  3. Según Matt una página no debería de pasar de los 5 segundos de carga

Bueno existe muchas maneras de reducir los tiempos de carga de la web algunas de ellas son :

  1. No anidar tablas.- Cuando una diseña un estructura muy compleja, ésta toma más tiempo en cargar. Y esto porque Internet Explorer cuando carga una tabla, carga inmediatamente su contenido. Por lo que, si usted tiene tablas que incluyen otras tablas, el proceso se tornará largo. Este problema no es tan malo con Firefox, porque éste analiza el contenido y ve la mejor de cargarlo. La mejor alternativa, para estos casos, es usar un diseño CSS. De lo contrario, sólo reduzca sus tablas.
  2. Optimizar imágenes.- Sobre la optimización de imágenes ya hemos hablado antes y aquellos tips aún siguen siendo eficaces. Sólo decir, que si usan Photoshop, no olviden utilizar “Guardar para web” o “Save for Web” cuando efectivamente guarden su imagen para subirla a la Web.
  3. Imágenes al mínimo.- Trate de reducir la cantidad de imágenes en su web sin que pierda visión y efecto. Ya todos conocemos que a más cantidad de imágenes, mayor tiempo de carga de la web.
  4. Formatear la etiqueta IMG.- Esta es una buena idea de predefinir las dimensiones de las imágenes. Esta información le indica al navegador cuanto espacio debe dejar para que se cargue la imagen antes de que se haya cargado. Este es un ejemplo:
    <img src=”tuimagen.gif” width=”200px” height=”100px”>
  5. Usar la misma imagen.- Trata de usar la misma imagen para todas las páginas de tu sitio Web, no importa que sea la portada o una página secundaria. Esta es una excelente manera de evitar que se este descargando imágenes repetidas y más bien se utilice la caché del navegador. Este mismo ejemplo se aplica a las películas flash, javascripts y todo elemento externo.
  6. Reducir los espacios en blanco.- Revisa el código de tus ficheros y elimina todas las líneas innecesarias. Esto reduce dramáticamente el tiempo de carga.
  7. Utilizar CSS en un fichero externo.- Esto se basa en el mismo principio del punto 5. Si uno escribe el CSS en el header de cada página, el navegador lo descargará una y otra vez. Por el contrario, si esta en un fichero externo y todos hacen referencia a él, el navegador lo descargará la primera vez y luego utilizará la caché. Por otra parte, no olvides eliminar los espacios en blanco del fichero CSS. Un ejemplo del enlace al CSS en el header de cada Web es:
    <link type=”text/css” rel=”stylesheet” href=”../otros/estilos.css”>
  8. Utilizar Scripts en ficheros externos.- Esto funciona de la misma manera que el anterior. Por ejmplo, para requerir un fichero javascript utilizamos:
    <script type=”text/javascript” src=”tufichero.js”></script>
  9. Administrar el texto.- Si las páginas tienen un texto excesivamente largo, el tiempo de descarga será mucho mayor. Resumir ideas y ser conciso, no es una mala idea para hacer una página más fácil de leer y más rápida de cargar.
  10. Separar las páginas largas.- Si tus páginas son muy largas, es preferible dividirlas en dos. Esto reduce el tiempo de carga y es manejable.

Via : Baluart

  • Hacer menos peticiones HTTP.
  • Añadir cabeceras “expires”.
  • Comprimir tus ficheros (gzip, deflate).
  • Minimizar la cantidad y el tamaño del HTML, CSS y Javascript.

Via : Sigt

Bueno con que busqueis por google encontrareis más métodos pero fundamentalmente me gustaría que mirarais el que explican en Unijimpe “acelerar la carga web mediante la clase class.compressor.php

P.D.

Podeis calcular vuestros tiempos de carga desde Pingdom Tools

Si quereis aprender más sobre usabilidad podeis visitar el blog de Usolab y el foro de Xeoweb sobre Usabilidad y Accesibilidad.