El pasado sábado di una ponencia sobre SEO en el brand and bloggers. Me han pedido que suba la presentación… pues aquí la podéis descargar.
Saludos
Herramientas SEO
El pasado sábado di una ponencia sobre SEO en el brand and bloggers. Me han pedido que suba la presentación… pues aquí la podéis descargar.
Saludos
Resumen del Hangout donde se comentan algunos de los típicos errores SEO con;
Este és el resumen que he hecho yo:
Ayer me preguntaban como podemos saber quien copia el contenidos de mi web y que podemos hacer para remediarlo.
En primer lugar saber que hay programas como http://www.copyscape.com/ que te indican quien copia tu cuntenido, otra técnica es pillar un trozo de texto y pegarlo en el buscador de Google.
Yo diferenciaría varios tipos de copias dependiendo si te copian contenido o fotografías:
En este caso yo no haría caso, al poner un enlace están indicando, de cara al buscador, que el autor eres tú por tanto deberías posicionar antes que ellos además de ganar un enlace. Sucede a veces que sitios de más autoridad posicionan antes que tú, en este caso yo prefiero dejarles publicar el artículo a que me quiten el enlace, pero ahí puedes decidir tú.
En este caso yo intentaría localizar al autor e indicarle que tiene que referenciarnos poniendo un enlace al post original o retirar su contenido. Normalmente si eres amable suelen hacerte caso.
Si tu servidor lo aguanta ni te preocupes, esto te va a traer beneficios en seo sobre todo en el posicionamiento en google images. Hay veces que usan tu foto en un foro de muchísimo tráfico, ahí solo te queda la opción de pedirles que la eliminen o que la suban a su servidor y te referencien como a autor de la foto.
Hay que pedirles que incluyan un enlace para indicar que somos los autores de esa fotografía.
Un colega me preguntó ayer si existe una herramienta de análisis onpage de tu página que te diga si está bien optimizada. En realidad no soy muy amante de este tipo de herramientas pero si no te puedes pagar a un buen SEO, más vale esto que nada.
Personalmente la que más me gusta es http://www.woorank.com/, considero que está muy completa y te proporciona un informe tanto onpage como offpage.
Entre sus características:
– Estima visitas en base a Alexa y a Compete
– Páginas indexadas
– Páginas internas más populares
– Optimización de URL, Meta description y Meta Keywords
– Optimización de Title y cabeceras
– Optimización de imágenes (comprueba alt)
– Ratio texto/HTML
– Página en Flash o Frames
– Análisis de páginas internas (Ratio, title, etc …)
– Redirección del www
– Robots.txt
– Sitemap
– Idioma
– Microformatos
– Errores W3.ORG
– Dublin Core
– Geo Meta Tags
– Backlinks (Web, directorios, Social media)
– Usabilidad y facilidad de lectura de la web
– Favicon
– Información de los servidores y tiempo de respuesta.
– Compresión Gzip
– Análisis de competencia
– Whois del dominio
Otra que no puedes dejar de visitar es http://www.cuwhois.com/, aunque tiene un gran defecto frente a woorank y es que los análisis de las páginas se cachean y no puedes ver un análisis en tiempo real.
Muchas veces me preguntan que herramientas solemos usar para gestionar el linkbuilding, hacer analítica web, controlar el social media en los diferentes perfiles sociales, analizar tu reputación online, mejorar el posicionamiento, optimizar tu código, generar keyphrases…
Pues aquí va un post de LMDIAZ
Búsqueda
Educación
Fotografías
Gestión del tiempo
Monitorización
Publicación
SEO
Trabajo en equipo
Vídeo
Varios
En ocasiones, vemos que google reatrea e indexa páginas duplicadas o sin contenido causadas por unos parámetros en la URL.
Esto ocurre muy frecuentemente en OsCommenerce (debido a las sesiones) o a Vbulletin (Debido a las traducciones).
Para evitarlo es muy sencillo.
1. Vamos a Google Webmaster Tools
2. Damos de alta el sitio y seguimos el proceso de verificación para identificar que somos los propietarios
3. Vamos a Información del Sitio -> Configuración -> Organización de Parámetros y ahí indicamos que ignore el parámetro.
Aunque puedas apoyarte en herramientas como KeywordToolExternal u otras muchas para averiguar lo que busca la gente en general. Tambien es importante saber lo que tus lectores están buscando en tu web en particular. De esa manera podrás conseguir en primer lugar incrementar visitas y en segundo lugar podrás ofrecer o perfeccionar el contenido que demanden tus lectores.
Bien, si el proyecto está realizado mediante programación a medida lo más sencillo es controlar esto mediante tu base de datos. Es decir, haces un “insert” por cada búsqueda realizada y almacenas la fecha y hora para posteriormente hacer un seguimiento.
No obstante, es posible que algunos de vosotros no podáis o no tengáis conocimientos suficientes para hacer esto, buen pues os voy a dar alternativas para conseguirlo.
Si utilizáis wordpress podéis instalar el plugin Search Meter.
No obstante yo os recomiendo otra solución basada en Google Analytics ya que es muy eficaz y que te aportará toda la potencia del gestor (tiempo de permanencia, rebote, visitas únicas, etc …)
Analytics -> Segmentos Avanzados -> Crear Segmento
Luego dentro de “dimensiones” vamos a “Contenido” y arrastramos “Página” dentro de “dimensión o métrica”
Luego dentro de condición seleccionamos “contiene” y en valor ponemos “index.php?s” (en el caso de wordpress) o le ponéis el patrón de url que use vuestro CMS para las búsquedas.
Pues ya tenemos el segmento creado.
Ahora os vais a la página de analytics de siempre y justo debajo de donde dice “Mis cuentas de Google Analytics” podéis seleccionar ese segmento y observar lo que la gente está buscando.
Bueno esta vez vamos a explicar como hacerle ver a un cliente de forma fácil y sencilla su visibilidad en Internet respecto a los principales buscadores.
Para ello voy a utilizar una de mis webs en concreto esta de Videojuegos como ejemplo.
Lo primero que tenemos que tener es un Sitemap.xml que en este caso se encuentra en http://www.videojuegosok.com/sitemap.xml; si no teneis el plugin de sitemap.xml instalado es fácil instalarlo y configurarlo para wordpress, si por el contrario no utilizáis wordpress podeis utilizar Gsite crawler para crear un sitemap.xml de vuestro sitio.
Una vez que accedéis al sitemap.xml copiáis las URLs sobre las que queráis comprobar la visibilidad en buscadores, yo solo he copiado las principales de videojuegosok y he pasado del las tags ya que son demasiadas y me desvirtuaría bastante la visibilidad de mi sitio, además pensar que esto es para un cliente medio con un site que podríamos decir que no utiliza tags ya que la cosa se complicaría bastante más.
Debéis de tener también instalado en vuestro ordenador Open Office ( es gratuito ) , bueno pues bien creais un documento nuevo de hoja de calculo y pegais las urls que habeis copiado con lo que se os quedará algo tal que así :
Una vez realizado esto borráis las columnas que no sean necesarias y os quedáis únicamente con la primera de ellas que es la que nos va a servir. Una vez copiamos esa columna no la llevamos a un nuevo documento de texto y la pegamos tal que así :
Una vez tenemos esto vamos reemplazando automaticamente hasta que nos quede una lista como la siguiente:
Una vez realizado esto nos descargamos el programa Ranck Tracker que nos deja utilizar una demo pero que para lo que queremos nos sirve si quereis algo más pofesional toca pagar.
Una vez descargado e instalado introducimos la url a chequear siendo en este caso www.videojuegosok.com, le damos a siguiente y ahora seleccionamos los motores de búsqueda que queremos utilizar, en este caso voy a emplear Google.es ( La web ) , le damos a siguiente y nos dice que introduzcamos las keywords de búsqueda siendo en este caso el nombre de las URLs del cliente que hemos obtenido anteriormente ( aquí podemos introducir más keywords si queremos pero ya no estariamos siendo fieles al criterio de URLs ) , le damos a chequear y a esperar 🙂 .
Una vez que termina de chequear todas las keywords le damos a Report y ya tenemos nuestra visibilad como podeis apreciar en la imagen de más abajo:
Como podéis comprobar por cierto mi visibilidad es una mierda después de la crujida que me ha pegado Caffeine jajaja bueno ya subiremos otra vez.
Bueno espero que os haya servido 😛
Queda poco más de un mes para que comience el Search Congress en Valencia y creo que es momento de informar de las actividades, ponentes y de dónde y cómo asistir.
Durante los días 1 y 2 de octubre se va a celebrar en el Oceanográfico de la Ciudad de las Artes y las Ciencias de Valencia el Search Congress Valencia 2009 un congreso donde se busca y fomenta el conocimiento y estudio de los Buscadores así como el search marketing. El día 1 de octubre se centrará en los workshops en las oficinas del oceanográfico y el día 2 de octubre se centrará en las ponencias en el auditórium Mar Rojo del Oceanografic de València.
Podéis ver la lista de actividades en el programa del Search Congress Valencia 2009, si una vez leído estáis interesados en asistir podéis comprar anticipadamente las entradas aquí.
Por mi parte puedo asegurar que asistiré e incluso puede que me acompañe alguien más del equipo de SEO Profesional, el hecho de tener en casa un evento de esta magnitud es una ocasión que no se puede desaprovechar 😉
Bueno pues este es un post express para facilitaros el plugin de no category para wordpress que lo que hace es quitar la carpeta /category/ que por defecto nos crea WordPress y que cara al SEO vale para poco.
No os preocupeis si ya teneis categorias indexadas en google ya que según el autor del plugin realiza una 301 para todas las categorias hacia la nueva URL.
Algunas caracteristicas del plugin :
myblog.com/my-category/
andmyblog.com/my-category/my-post/
.