Como conseguir trabajo con SEO

El otro dia una amiga me comento que en su trabajo estaban apunto de realizar un ERE y que estaba moviendose ya para buscar trabajo por las distintas webs que existen de empleos.

Yo le comente que siendo una profesional de su campo que por que no aparte de buscar trabajo por los sitios de empleo aumentaba su visibilidad en Internet para que la encontraran cuando las empresas buscaran un perfil profesional como el suyo.

Claro ella me dijo que como se hacia eso XD jejeje bueno le dije, lo primero es tener un perfil profesional en la red y para eso solo tienes que abrirte una cuenta en Linkedin.

Yo estoy posicionado como Responsable SEO en google mediante mi cuenta de Linkedin, no es que yo busque trabajo, más bien me faltan horas para todo el que tengo por suerte, pero si que me he decidido ha realizar este artículo para todo aquel que quiera mejorar su visibilidad en Internet a la hora de encontrar trabajo.

Lo primero es como hemos comentado abrirte una cuenta y rellenar la mayor cantidad de campos de tu cuenta para que tu perfil se lo más completo posible.

Lo segundo es introducir el trabajo profesional que este buscando dentro de tu Nombre, por ejemplo como yo he echo en :

Responsable SEO Felipe Antonio García Ochando.

Lo tercero es introducir el trabajo profesional que estas realizando actualmente en tu actual empresa correspondiente a el trabajo que estas buscando.

Por ejemplo en mi caso:

Responsable SEO en Ontecnia

Si has tenido algún otro trabajo anterior donde también has trabajado del perfil profesional que andas buscando pues a que esperas para introducirlo también:

Responsable SEO en Searchmedia

Luego vincularía mi cuenta de twitter en caso de tenerla a mi cuenta de Linkedin ya que como vereis vuelve a aparecer :

Actividad de Responsable SEO

Luego dentro de lo que sería mi experiencia y especialidades volvería a aumentar la cantidad de veces que aparece el trabajo por el que quiero posicionarme si realmente lo he tenido anteriormente.

Bueno creo que habeis captado la idea. Por otra parte también le aconseje que subiera alguna presentación que hubiera realizado y si no tenia que se creara una con los trabajos que había realizado para que si alguién entrara en su perfil puediera ver los trabajos que había hecho.

Por supuesto el tener un Blog donde demuestre que está al día en las últimas tendencias de su campo creo que es un requisito fundamental ya que estas demostrando que no estas desfasado y que estas en contacto con la comunidad de tu perfil profesional.

Le dije también que se dejara de tanto Facebook y que le pegara más al twitter ya que es mucho más sencillo tener un entorno de gente que te siga con una gran reputación dentro de un campo o área que se te agreguen como amigos al facebook.

Por último y como no podía ser de otra manera le dije que se enlazará a su cuenta desde todos aquellos sitios que pudiera y que estuvieran relacionados con su actividad, por ejemplo desde su propio blog, desde foros de su área profesional, desde su perfil de twitter, etc…

Con todo esto ya tiene faena para rato 😛 pero cuando alguien busque en google por ejemplo como es mi caso Responsable SEO aparecerá la primera teniendo más posibilidades de encontrar empleo al tener una mayor visibilidad en buscadores.

Bueno espero que esto os ayude ha alguno que este en su misma situación.

Seguimos mejorando el ROI

Otras de las formas de seguir mejorando el ROI de nuestro sitio es mediante las principales páginas de salida, está claro que cuando alguien entra a nuestro sitio por algún sitio tiene que salir y no se va a quedar toda la vida en él, pero podemos saber si por la página que ha salido es por que ha encontrado lo que buscaba o por que no ha encontrado lo que buscaba y al final se ha largado.

Bien para saber esto debemos de ir a nuestro Analytics y ver las principales páginas de salida de nuestro sitio.

Con esta métrica podemos distinguir cuales son las principales páginas por las que abandonan nuestro sitio, pero como he dicho antes no significa que la página por la que nos abandonen sea por que no han encontrado lo que quieren.

En este caso como en el anterior yo utilizaría la clasificación ponderada para orientarme a que páginas mejorar, si pinchais en porcentajes de salida, os aparecerá la clásificación ponderada y se ordenarán para orientaros a que páginas dirigiros a ver.

Como veis la primera que me ofrece es una con un porcentaje de salida del 89% mientras que la segunda del 92%, significa esto que encuentran lo que quieren más en la primera que en la segunda y por eso tengo un mayor porcentaje de salida en la segunda que en la primera.

Tachan, tachan, púes NO solo con estas métricas no puedo saberlo debo de incluir el porcentaje de tiempo que ha estado el usuario en la página ya que este puede haber llegado a la página leer lo que estaba buscando y largarse o por el contrario llegar a la página, no encontrar lo que buscaba y de la misma manera largarse.

Vamos a verlo un poco más detenidamente, si vemos la permanencia del usuario en el primer resultado del 89% nos damos cuenta de que no ha encontrado lo que buscaba ya que su tiempo en la página no es muy alto:

Si vemos las palabras clave por las que ha accedido podemos verlo más fácilmente:

Como veis los tiempos de permanencia son una mierda, OJO que no quiere decir que yo no sepa que ese contenido no es el que busca el usuario.

Ahora bien si vemos la segunda del 92% :

Nos damos cuenta que el porcentaje de tiempo en la página es 3 veces el de la anterior con lo que aunque el porcentaje de salida de la página sea superior no por ello significa que no estemos ofreciendo al usuario lo que busca, al contrario ofrecemos lo que busca, lo lee y luego se pira.

Como veis los tiempos son mucho mejores aunque existan todavía algunos por los que el promedio del tiempo en la página sea bajo, pero sin embargo vemos tiempos de ¡¡¡ alrededor de 10 minutos !!! simplemente tenemos que mejorar el contenido por las palabras clave de acceso que su tiempo medio es bajo y habremos conseguido una página cojonuda.

Con lo que hoy hemos aprendido que:

1º Como orientarnos a mejorar las principales páginas de salida mediante la clasificación ponderada

2º No nos podemos fiar de la métrica de principales páginas de salida sin contrastarlo con el tiempo medio en la página

3º Como mejorar las principales páginas de salida orientandonos a nuevos contenidos por las palabras clave con un bajo porcentaje de tiempo en la página.

P.D. Mi padawan sigue con el concurso de la chirimoya a ver si me poneis algún enlace, que no solo de buen contenido vive el SEO.

Como aumentar el ROI

El otro día Ani Lopez escribió un gran artículo sobre cual era la principal medida que se debería de tomar en cuenta en el SEO y cual es el lema que debe de seguir todo SEO :

The objective of SEO is to bring to your site the maximum amount of non-paid converting traffic.

Traduciendolo con mi Inglés de casa algo así como : EL objetivo del SEO es conseguir la máxima cantidad conversiones sin tener que pagarlas.

Es decir no nos limitemos al orgánico, las fuentes pueden venir de muchos sitios ya sea email, tráfico directo, favoritos, otrás páginas, branding, newsletters, suscripciones, medios offline, foros, feed, etc…

Fuente: http://www.seomoz.org/blog/traffic-source-diversity-is-essential-for-successful-seo

Una vez que tenemos esas visitas hacia nuestro sitio desde distintos medios lo que nos importa realmente es que esas visitas conviertan y para ello tenemos este gráfico que fija claramente cuales son los posibles pasos que un usuario puede realizar en nuestra web:

Fuente: http://dynamical.biz/blog/web-analytics/measuring-seo-performance-37.html

El usuario 1 que llega a nuestro sitio y rebota.

El usuario 2 que llega a nuestro sitio, navega y rebota.

El usuario 3 que llega a nuestro sitio, navega y convierte.

Nuestro objetivo es que el usuario 1 y 2 pasen a ser como el usuario 3 pero ahora bien como lo consigo yo.

Bien en este momento es cuando debemos de fijarnos en si le estamos ofreciendo al usuario lo que quiere cuando llega a nuestra página para que convierta.

Para ello ya comente que la utilización de la clasificación ponderada es algo tremendamente útil para mejorar la conversión de nuestro sitio, y si después de una optimización de la clasificación ponderada lo unimos a una optimización de paginas de destino principales por palabras clave tendremos fácilmente una mejora en el ROI de nuestro sitio.

Ahora bien si despues de leer esto no tienes ni idea de optimizar una página para una palabra clave o de como sacar un informe de optimización de páginas de destino por palabras clave de acceso mediante Analytics siempre puedes hacer un refrito de cualquier post que hable sobre la importancia de las redes sociales XD

Dedicado a Rtayar 😉

Mejorando el htaccess

Bueno esto mejor si no sabeis que haceis no lo toqueis.

Estas son unas reglas para mejorar las cargas de vuestras páginas a nivel de servidor Apache con el .htaccess

Voy comentando cada una de las líneas para que la entendais.

#Con este codigo no indexa en los resultados del buscador los sitemaps

<Files ~ “^(sitemap|sitemap-image|sitemap-video)\.xml$”>
Header set X-Robots-Tag “noindex”
</Files>

#Fin del codigo del para no indexar los resultados de los sitemaps

#ETag

Header unset ETag
FileETag None

#Fin ETag

#Compresion con la libreria zlib

php_value zlib.output_compression 16386

#Fin de la compresion con la libreria zlib

#Compresion con gzip servidores Apache 2.X

AddOutputFilterByType DEFLATE text/html text/css application/x-javascript video/x-mp4

#Fin compresion con gzip

#Cacheo imagenes y flash 30 dias

<FilesMatch “\.(ico|pdf|flv|jpg|jpeg|png|gif|js|css|swf)$”>
Header set Cache-Control “max-age=2592000, public”

</FilesMatch>

#Fin cacheo imagenes y flash

#Cacheo archivos xml y txt 2 dias

<FilesMatch “\.(xml|txt)$”>
Header set Cache-Control “max-age=172800, public, must-revalidate”
</FilesMatch>

#Fin cacheo archivos xml y txt 2 dias

#Cacheo archivos html y htm 1 dia

<FilesMatch “\.(html|htm)$”>
Header set Cache-Control “max-age=86400, must-revalidate”
</FilesMatch>

#Fin cacheo archivos html y htm 1 dia

Repito que esto si no sabeis lo que haceis mejor no tocar yo ya me he cargado varias veces mi sitio haciendo el bestia con mejoras de configuracion para Apache y al final termino con el Apache derribado XD

Canibalizar

Estos puntos son para que no os canibaliceis vuestros propios contenidos en Google.

1º Podeis utilizar la meta “noindex,follow” para que google no indexe algunas partes de vuestra página web que podria considerar como contenido duplicado, recordar que con noindex desaparecerán esos resultados de google.

2º Utilizar la etiqueta canonical hacia la página que queramos de distintas URLs que muestren el mismo contenido Ej.

http://www.prueba.com/zapatos/hombre/talla42

http://www.prueba.com/zapatos/guci/talla42

http://www.prueba.com/zapatos/hombre?talla=42

3º Utilizar la nueva metaetiqueta que introdujo google para indicar de donde se ha obtenido el contenido.

Ahora mismo no encuentro el enlace, si alguien lo tiene que deje un comment please.

4º Utilizar claramente Metas distintas en todo nuestro sitio, es un curro pero es necesario.

Esto podeis orientaros desde GWT en el apartado de Sugerencias en HTML – Metadescripciones duplicadas.

5º Utilizar UGC es decir comentarios y aportaciones del usuario para generar contenido fresco, util y relevante sobre el contenido.

He dicho relevante no spam 😉

6º Utilizar la herramienta de http://www.webconfs.com/similar-page-checker.php si pensais que varias de vuestras páginas son muy parecidas e introducir textos distintos que el léxico español es muy amplio.

7º Utilizar Xenu para crear un Mapaweb de vuestro sitio.

Bueno solo son unos pequeños consejos. Suerte

Error 503

Que hacer ante un error 503 ?

error 503

Lo primero es que un error 503 se genera normalmente ante una sobrecarga del servidor, lo que hace que exista un problema de indexación si en esos momentos nos están rastreando los robots de los buscadores.

Asi que como se estan poniendo las cosas en donde los tiempos de carga son fundamentales no es cuestión de tener este tipo de errores.

Podemos solucionarlo de varias formas:

  1. Restringiendo la entrada a nuestro website mediante un archivo .htaccess baneando la ip de los robots que no nos interesan que nos rastreen y que nos consume mucho ancho de banda ya que estos robots suelen pasar bastante de nuestro archivo robots.txt
  2. Utilizar el robots.txt para al igual que anteriormente no permitir la entrada de estos robots y dejar que solo se rastree lo que nosotros queremos, con lo que ahorraremos en ancho de banda gastado.
  3. Desabilitar los feeds ( no es muy buena idea pero puedes hacerlo sobre todo si te copian contenido )
  4. Utilizar distintos métodos anteriormente comentados para optimizar los tiempos de carga

Pero realmente lo que nos interesa a nosotros es trabajar sobre este error para que google no nos penalice al encontrarse con él por lo que debeis de incluir en vuestro archivo .htaccess el siguiente código que envia a los robots de google a un archivo de error 503.php y le dice que vuelva dentro de 3600 segundos mientras que al usuario lo manda a una página de error 404 :

Options +FollowSymLinks
RewriteEngine On
RewriteBase /
RewriteCond %{HTTP_USER_AGENT} ^.*(Googlebot|Googlebot|Mediapartners|Adsbot|Feedfetcher)-?(Google|Image)? [NC]
RewriteCond %{REQUEST_URI} !^/cgi-bin/error/503\.php [NC]
RewriteRule .* /cgi-bin/error/503.php
RewriteCond %{REMOTE_HOST} !^1\.1\.1\.1
RewriteCond %{REQUEST_URI} !^/cgi-bin/error/404\.php [NC]
RewriteRule .* /under-development-explain.html [R=302,L]

Si utilizais CGI debeis de incluir este archivo 503.php para decirle a los robots de google que vuelvan a pasar dentro de 3600 segundo, 1 hora.

<?php
ob_start();
header('HTTP/1.1 503 Service Temporarily Unavailable');
header('Status: 503 Service Temporarily Unavailable');
header('Retry-After: 3600');
header('X-Powered-By:');
?><!DOCTYPE HTML PUBLIC "-//IETF//DTD HTML 2.0//EN">
<html><head>
<title>503 Service Temporarily Unavailable</title>
</head><body>
<h1>Service Temporarily Unavailable</h1>
<p>The server is temporarily unable to service your
request due to maintenance downtime or capacity
problems. Please try again later.</p>
</body></html>

Ola

Durante el SCB aprendí un concepto nuevo al que se le llamo Ola por parte de http://www.fantomaster.com/ donde se exponia que en Internet se producen Olas u Oleadas de información sobre temas concretos por ejemplo el caso de Libia.

Gráfica por la búsqueda Libia en Trends :

libia

Lo anterior es lo que podríamos denominar una Ola y la idea que se planteaba era la de montar Olas es decir ser  Surferos:

Al ser surferos iríamos cogiendo Olas, no las cogeríamos todas como los auténticos surferos, pero las Olas que cogieramos nos proporcionarían popularidad, visibilidad y relevancia.

Así que a surfear 🙂

No voy a explicaros ahora como coger una Ola ya que sería una tontería, sería lo mismo que yo me metería a surfear el cantabrico el primer día que me dieran una tabla.