Utilizar Robots.txt

Bueno esto es la guía para webmasters de google :

Ya se que muchos de vosotros sabeis utilizar perfectamente el archivo Robots.txt pero seguro que existe mucha gente que no tiene ni idea y normalmente no se ponen a buscar en la guia de webmasters de google por eso lo dejo aquí a mano para que sea más fácil encontrarlo y utilizarlo.

Por cierto hace poco tiempo Vseo me comento que le hizo mucha gracia ver que incluian estas líneas en el Robots.txt :

# 1. A robot may not injure a human being or, through inaction, allow a
# human being to come to harm.
#
# 2. A robot must obey orders given it by human beings except where such
# orders would conflict with the First Law.
#
# 3. A robot must protect its own existence as long as such protection
# does not conflict with the First or Second Law.

La verdad es que es muy bueno, me lo apunto para mis Robots.txt; por si alguien no se da cuenta son las leyes de Isaac Asimov.

En Castellano :

# 1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra #daño.
#
# 2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas #órdenes entran en conflicto con la Primera Ley.
#
# 3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en #conflicto con la Primera o la Segunda Ley

Bueno, siguiendo hablando del Robots.txt también me han dicho algunas personas que google se lo pasa por el forro algunas veces pero ya eso son experiencias de cada uno, yo lo suelo utilizar junto con el nofollow para manejar el LinkJuice pero eso ya pa gusto los colores.

También tengo que deciros que algunas veces al utilizar el Robots.txt para capar secciones de una web una vez que google ya las tenia indexadas he sufrido una fuerte bajada de posiciones.

Bueno os dejo con la guia de webmaster.

Uso de un archivo robots.txt para controlar el acceso al sitio

La forma más fácil de crear un archivo robots.txt es usar la herramienta de generación de archivos robots.txt de las Herramientas para webmasters de Google. Una vez que haya creado el archivo, puede usar la herramienta de análisis de archivos robots.txt para asegurarse de que su comportamiento sea el esperado.

Cuando haya creado el archivo robots.txt, guárdelo en el directorio raíz de su dominio con el nombre robots.txt. En esta ubicación es donde los robots buscarán el archivo. Si se guarda en otro lugar, no lo encontrarán.

También puede crear el archivo robots.txt de forma manual, mediante cualquier editor de texto. Debe ser un archivo de texto con codificación ASCII, no un archivo HTML. El nombre del mismo debe estar en minúsculas.
Sintaxis

El archivo robots.txt más simple utiliza dos reglas:

* User-Agent: el robot al que se aplica la siguiente regla
* Disallow: la URL que desea bloquear

Estas líneas se consideran una única entrada en el archivo. Puede incluir todas las entradas que desee, así como varias líneas Disallow y varios user-agents en una misma entrada.
¿Qué debe incluir la línea “User-agent”?

Un user-agent es un robot específico del motor de búsqueda. La base de datos de robots web incluye muchos robots comunes. Puede configurar una entrada para que se aplique a un robot específico (mostrando el nombre) o para que se aplique a todos los robots (mediante un asterisco). El aspecto de una entrada que se aplica a todos los robots es el siguiente:

User-agent: *

Google utiliza varios robots diferentes (user-agents). El robot que utilizamos para nuestra búsqueda web es Googlebot. El resto de nuestros robots, como Googlebot-Mobile y Googlebot-Image, siguen las reglas configuradas para Googlebot, aunque también pueden definirse reglas específicas para ellos.
¿Qué debe incluir la línea Disallow?

La línea Disallow enumera las páginas que desea bloquear. Puede insertar una URL específica o un patrón. La entrada debe comenzar con una barra inclinada (/).

* Para bloquear todo el sitio, utilice una barra inclinada.

Disallow: /

* Para bloquear un directorio y todo lo que contiene, inserte una barra inclinada después del nombre del mismo.

Disallow: /directorio-sintitulo/

* Para bloquear una página, enumérela.

Disallow: /archivo_privado.html

*
* Para eliminar una imagen de la Búsqueda de imágenes de Google, añada lo siguiente:

User-agent: Googlebot-Image
Disallow: /imagenes/perros.jpg

*
* Para eliminar todas las imágenes de su sitio de la Búsqueda de imágenes de Google:

User-agent: Googlebot-Image
Disallow: /

* Para bloquear archivos de un tipo determinado (por ejemplo, .gif), añada lo siguiente:

User-agent: Googlebot
Disallow: /*.gif$

* Para evitar que se rastreen las páginas de su sitio, a pesar de que se muestren anuncios de AdSense en esas páginas, inhabilite el acceso de todos los robots que no sean de Mediapartners-Google. Esta opción impide que las páginas aparezcan en los resultados de búsqueda, pero permite que el robot Googlebot-Mediapartners las analice a fin de determinar los anuncios que se publicarán. El robot Googlebot-MediaPartners no comparte páginas con otros user-agents de Google. Por ejemplo,

User-agent: *
Disallow: /carpeta1/

User-agent: Mediapartners-Google
Disallow: /carpeta1/

*

Concordancia mediante patrones

Googlebot (aunque no todos los motores de búsqueda) respeta algunas concordancias mediante patrones.

* Puede utilizar un asterisco (*) para que la concordancia se establezca con una secuencia de caracteres. Por ejemplo, para bloquear el acceso a todos los subdirectorios que comiencen por privado:

User-agent: Googlebot
Disallow: /privado*/

*
* Para bloquear el acceso a todas las URL que incluyan un signo de interrogación (?) (concretamente, cualquier URL que comience por el nombre de su dominio, seguido de cualquier cadena, signo de interrogación y cualquier cadena):

User-agent: Googlebot
Disallow: /*?

* Para especificar la concordancia con el final de la URL, utilice $. Por ejemplo, para bloquear una URL que termine en .xls:

User-agent: Googlebot
Disallow: /*.xls$

Puede utilizar esta concordancia de patrones en combinación con la directiva Allow. Por ejemplo, si el signo ? indica el ID de una sesión, puede excluir todas las URL que las contienen para asegurarse de que Googlebot no rastree páginas duplicadas. Sin embargo, las URL que finalizan con dicho símbolo podrían ser la versión de la página que desea incluir. En este caso, configure su archivo robots.txt del siguiente modo:

User-agent: *
Allow: /*?$
Disallow: /*?

La directiva Disallow: / *? bloqueará cualquier URL que incluya el símbolo ?. Concretamente, bloqueará todas las URL que comiencen por el nombre de su dominio, seguido de cualquier cadena, un signo de interrogación y cualquier cadena.

La directiva Allow: /*?$ permitirá cualquier URL que acabe con el símbolo ?. Concretamente, admitirá cualquier URL que comience por el nombre de su dominio, seguida de cualquier cadena y el símbolo ?, sin caracteres después de este último.

Las URL distinguen entre mayúsculas y minúsculas. Por ejemplo, Disallow: /archivo_privado.asp bloquearía http://www.example.com/archivo_sintitulo.asp, pero permitiría http://www.example.com/Archivo_sintitulo1.asp.

Publicado por

Felipe García

Aprendiendo e intentando enseñar SEO

15 comentarios en «Utilizar Robots.txt»

  1. Hola, para bloquear el acceso a todas las url que incluyan un signo de interrogación ( ? ) sería ( Disallow: /*?* ), si pones ( Disallow: /*? ) creo que solo bloquea las que terminan por ( ? ).

    Un saludo.

  2. Good day! I know this is kinda off topic but I was wondering which blog platform are you using for this site?
    I’m getting tired of WordPress because I’ve had problems with hackers and I’m looking at alternatives for another platform. I would be awesome if you could point me in the direction of a good platform.

Deja una respuesta