Que es el Black Hat

¿ Que es el Black Hat ?

El Black Hat es el nombre que se dan a las técnicas penalizables por los buscadores, esto quiere decir que los buscadores reconocen ciertas acciones que los webmasters realizan en sus websites para obtener mejores
puestos dentro de los resultados naturales de los buscadores.

El Black Hat comenzó en el momento en que los webmasters se dieron cuenta que los resultados de los buscadores eran manipulables. A partir de aquí algunos webmasters comenzaron a darse cuenta que realizando
ciertas acciones los buscadores posicionaban mejor sus páginas frente a las de sus competidores en los resultados de búsqueda.

Algunos buscadores al principio, como Yahoo, eran grandes directorios ( Actualmente todavía mantiene un directorio de pago ) desde donde se daban de alta manualmente los websites y eran revisados por editores
al estilo dmoz, pero dado el crecimiento exponencial de internet tuvieron que comenzar a utilizar otras técnicas para poder seguir ofreciendoresultados relevantes a las búsquedas de los usuarios.

Los primeros buscadores como Altavista, uno de los más importantes antes de la aparición de Google comenzaron a utilizar robots, spiders o arañas para rastrear las cabeceras de las webs e incluir dentro de una base de datos sus resultados. Estas cabeceras de los websites proporcionaban en un principio información relevante ya que no estaban manipuladas conscientemente para obtener mejores posiciones que otros websites de tematica similar por lo que en principio era una fuente fiable para
los buscadores.

Un ejemplo de cabecera al principio de los buscadores sería :

<title>Lema de la empresa
: Empresa</title>

El título es lo que aparecerá
en la parte superior de los resultados.

<meta name=”robots” content=”all” />

Indicamos que damos permiso para
que nos indexen todos los robots.

<meta http-equiv=”Content-Language”
content=”es” />

La lengua en la que está escrito
el website.


<meta name=”keywords”content=”palabra clave, palabra
clave, palabra clave, ” />

Las palabras claves que creemos
que están más orientadas o relacionadas con nuestro sector o temática.

<meta name=”description” content=”Breve descripción
para mostrar sobre que tema o servcios pueden encontrar en nuestra web.”

/>

Estas cabeceras eran las que los robots de los primeros buscadores rastreaban y almacenaban en su base de datos, por lo que cuando alguien introducía una palabra clave en el buscador este devolvía los resultados más aproximados a esa palabra clave con la base de datos de cabeceras de websites que manejaba.

Al principio las técnicas de Black Hat consistian en operaciones muy básicas como incluir una gran cantidad de palabras clave en la etiqueta keywords del website.

Los robots, arañas o spiders de los buscadores fueron mejorando ya que estos al darse cuenta que
las etíquetas de las páginas eran manipuladas indebida y conscientemente para aumentar el posicionamiento ya no eran una fuente fiable para mostrar resultados y comenzaron a leer el contenido de los websites.

Al mismo tiempo el Black Hat se adapto a las nuevas características de los robots, arañas o spiders y las técnicas evolucionaron, así se comenzo a incluir texto oculto dentro del website, introducir texto con una fuente muy pequeña del mismo color que el fondo de nuestro website o escribir una gran cantidad de veces las palabras clave por las que queriamos posicionarnos y aumentar
así su densidad, con lo que todo esto hacía que se produjera una sustancial mejora en el posicionamiento de la página que utilizaba estas técnicas.

Aunque estas técnicas tienen más de 5 años, piensa que no son útiles a largo plazo y pueden perjudicarte
mucho a corto plazo si el buscador se da cuenta que estas utilizando este tipo de técnicas penalizables, incluso expulsandote de sus resultados.

Estas técnicas de Black Hat como hemos comentado anteriormente están obsoletas pero todavía he visto algún caso donde pueden engañar durante un corto periodo de tiempo al robot del buscador y mejorar nuestro posicionamiento frente
a determinadas búsquedas.

El inundar las cabeceras de nuestras páginas con texto que no se adecue al contenido de nuestro website, o recurrir a técnicas penalizables es una tontería, existen métodos estudiados que pueden mejorar sustancialmente nuestros
resultados si somos capaces de aprovecharlos como en el caso de los snippets.

Los Snippets es lo que consideramos como el conjunto del Título, Descripción y URL que nos muestra un buscador a la hora de devolvernos los resultados de una consulta.

Intentemos que el usuario al leer nuestro Snippet después de realizar una búsqueda se decida rapidamente por nuestro website influenciado principalmente por el conjunto de Título, Descripción y Url que aparezca en los resultados y que se ajuste a la búsqueda que ha realizado.

Un Ejemplo :

En esta búsqueda por Televisor nos aparece un primer resultado de pixmania para el cual los Snippets no están optimizados mientras que en ciao al contrario si lo están.

Nos damos cuenta rapidamente al entrar en el website de ambos de los fallos de uno y los aciertos
del otro.

Pixmania :

1º En pixmania el título de la página no sigue un orden donde el usuario pueda leerlo y entenderlo
rápidamente para que se incline por entrar en nuestra página y no en otra.

2º Como el texto de la búsqueda Televisor no sale en su totalidad en la metadescription, Google
entonces utiliza el texto de la web donde salen las palabra clave de la consulta como es en este caso, mostrando en la description texto de distintos anuncios que para nada están optimizados para un buscador.

3º La Url en pixmania aunque lleve la palabra clave es mucho mas larga que en ciao por lo que consideramos
que será una página mucho más profunda dentro del website que la de ciao e inconscientemente suponemos que la navegación por el website puede ser más costosa y dificil de acordar o apuntar en caso que queramos volver a ella. Aunque creo que la Url es el valor de menor importancia dentro de los Snippets aunque no por ello despreciable claro está.

Ciao :

1º En ciao el título de la página sigue un orden donde el usuario pueda leerlo y entenderlo rápidamente para que se incline por entrar en nuestra página y no en otra.

2º Aunque en la metadescription del sitio no se encuentre el texto de la búsqueda Televisor en la página aparece una pequeña descripción de lo que podemos encontrarnos en la página perfectamente optimizada para los buscadores la cual es :

¿En busca de una nueva tele?, encuentra aquí una amplia variedad de televisores LCD
de marcas como Loewe, Philips, Sony y muchas otras más. Encuentra en esta sección el Televisor pantalla LCD que necesitas con gran calidad de Video. Si te decides por un proyector para tu equipo Home Cinema cambia de categoría en Ciao.

Daros cuenta de la utilización de las palabras en negrita, la distancia entre ellas y la utilización de signos de puntuación para delimitar frases que pueden aparecer como description en los buscadores.

3º La Url en ciao lleva la palabra clave y es mucho más corta que en pixmania por lo que consideramos que nos será mucho más accesible en caso de desear volver y aparte es mucho más agradable a la vista que una url muy larga.

Una vez estudiados ambos casos nos damos cuenta que no debemos obsesionarnos tanto con la primera posición para una búsqueda ya que realmente el usuario preferira pinchar sobre un resultado que le oporte la información que está buscando antes
que pinchar sobre el primer puesto de un resultado que no le oporta claremente la información que busca. También puede optar por pinchar en el primer resultado por que es el primero pero seguramente también pinchara en los siguientes que más concuerden con la búsqueda de información que desea.

La pregunta ahora es:

¿Como podemos optimizar nuestros Snippets?

Via Xeoweb:

1.- Un título demasiado largo que es cortado con puntos al final… y no tiene sentido completo no
acaba de ayudar demasiado al usuario. Google muestra un max. de 65 caracteres.

2.- La descripción del snippet puede ocupar 1 o 2 líneas. Que sean 2 lo considero más positivo ya que siempre ocupa más en pantalla, Google muestra un descripción max. de 150-160 caracteres. Entre 80 y 120 creo que da buenos resultados. Para la URL muestra un max de 80 caracteres.

3.- Si en el snippet sale la descripción dmoz hay que utilizar la etiqueta
NOODP para mejorarla. Hay descripciones dmoz que pueden no ser de nuestro
agrado, o demasiado cortas (ocupan una línea en el snippet) como se
menciona en el punto anterior.

4.- En las consultas más importantes hay que lograr que se destaquen
las palabras en el título o / y en la descripción. Ayudaría a captar
más la atención del usuario.

5.- Hacer uso de la meta description. Google la suele utilizar cuando
en la consulta hay palabras que van en la description. De esta forma
evitamos que la descripción esté formada por palabras sueltas de la
propia web.

6.- El snippet debe ir dirigido para el tipo de usuario al que está
orientado la página concreta a la que será llevado.

7.- Intentar destacar el nombre
comercial de la web al principio reforzando la marca (branding).

Una vez hemos estudiado nuestro
snippet e intentado mejorar, llega el momento de copar posiciones en
los resultados
mediante la ampliación de resultados
dentro de nuestra propia web.

Esto podemos realizarlo
incluyendo en el Título de nuestros artículos
keywords relacionadas con su categoría,
aunque esto no asegura
siempre la ampliación de resultados.

Si en los resultados apareciera
nuestro artículo ampliado Google mostrará primero el artículo y luego
la categoría relacionada .

Ejemplo :

Es posible que tu navegador no permita visualizar esta imagen.

Tambien podemos hacerlo creando Títulos para nuestros artículos
incluyendo Keywords iguales con páginas de la misma categoría
.

Es posible que tu navegador no permita visualizar esta imagen.

Existen más combinaciones
para obtener resultados ampliados y así copar las primeras posiciones
con resultados dobles
, es cuestión de ir estudiandolas poco a poco
viendo los resultados que ofrece Google.

Según un estudio realizado
de la Cornell University este es el % de clicks dependiendo de
la posición al aparecer en los resultados, por lo que si aparecemos
con resultados ampliados es más probable que tengamos una mayor cantidad
de clicks

.Es posible que tu navegador no permita visualizar esta imagen.
Con toda la información anterior
podemos ver como han ido evolucionando desde un principio las cabeceras
de los websites para intentar aparecer en las primeras posiciones de
los buscadores mediante en un principio técnicas actualmente penalizables
hasta técnicas totalmente legales y optimizadas para una mayor resultado.

Existen otras técnicas más
sofisticadas que han ido apareciendo dentro del Black Hat como pueden
ser :

Cloaking:

Se produce principalmente cuando
a un buscador se le muestra un contenido diferente al que se le muestra
al usuario, este contenido suele estar sobreoptimizado para obtener
un mejor posicionamiento en los buscadores.

Esta técnica se suele realizar
mediante el redireccionamiento a la página que esta sobreoptimizada
cuando desde nuestro servidor donde tenemos nuestro website recibimos
una petición de la ip o el robot del buscador .

Spamming y
Spam Linkbuiding:

Es un metodo para insertar
la mayor cantidad de palabras clave dentro del contenido que existe
en la página, así se aumenta artificialmente la densidad de palabras
clave de la página y el robot considera esa página como más relevante
para resultados de búsqueda por esa palabra clave.

Por lo general no se debe de
superar una densidad de palabras clave superior a un 10% de la cantidad
del texto ya que se considerará spamming.

Mientras que el Spam Linkbuilding
es aquel que se produce cuando se intenta dejar la mayor cantidad de
comentarios en blogs intentando ser el primero en comentar las últimas
noticias, comentando y poniendo enlaces en foros relacionados
con la tematica, etc…

Páginas Traseras o Granjas
de Enlaces :

Las páginas traseras son creadas
para para obtener enlaces desde páginas que en un principio no parecen
tener relación con la página a la que apuntan sus enlaces con las
palabras clave elegidas, es una de las técnicas más difíciles de
indentificar por los buscadores ya que es muy difícil encontrar la
relación entre ambas páginas si el webmaster es bastante inteligente
de alojar las páginas en disitintos servidores y sin ningún aspecto
aparente que las relaciona a falta de los enlaces.

Noscript y embed:

Esta técnica se utiliza introduciendo
las palabras claves por las que nos queramos posicionar dentro de los
tags noscript ya que los buscadores no leen Javascript por lo que lo
consideraran como texto, mientras que la mayoria de los navegadores
de los ususarios si leen Javascript y no lo verán.

Html Injection:

Introducción de enlaces de
manera ilícita dentro de websites aprovechando una vulnerabilidad de
su código.

Publicado por

Felipe García

Aprendiendo e intentando enseñar SEO

30 comentarios en «Que es el Black Hat»

  1. En el penúltimo párrafo aclariría que, como dices, el noscript está pensado para los enlaces dentro de javascript y que el robot no puede rastrear y el noembed para los enlaces dentro de Flash.
    Ambos mal utilizados frecuentemente para técnicas BlackSEO, añadiendo textos y enlaces que poco o nada tienen que ver con el Javascript o con el Flash.

  2. El tema de los CSS y el Black Hat se puede utilizar simplemente mostrando por ejemplo un texto con un px 14 pero teniendo una etiqueta H1 o H2 para un texto que realmente no debería de llevar esa etiqueta.

  3. Hola a tods alguien me puede decir como puedo encontrar los ip de una maquina en red , y como puedo cambiar su accesibilad de ayuda remota , gracias saludos bye.

  4. Las ultimas imagenes apuntan a imagenes en alguna cuenta de gmail, favor de publicarlas al folder de fotos. Grx

  5. No lo tomes a mal, pero qué descabellado lo que indicaste en este artículo, le llamás “mal optimizado” al vínculo que está primero, estar primero quiere decir que google lo consideró mejor que el que está abajo, cómo puede ser que vos digas que está mal optimizado.
    La definición de “optimizado”, no es un conjunto de aspectos que alguien describe o “le parece”, optimizada es la web que está posicionada. Ambas webs lo estan.
    Yo les sugiero que se enteren de cosas mejos documentadas, una, por ejemplo, el propio google, o sitios serios.
    http://www.posicionamientourl.com.ar

  6. Pingback: ¿ Que es el Black Hat ? @ eAPRENDE.com
  7. Pingback: POSICIONAMIENTO NATURAL, PAGE RANK « Suma Digital

Deja una respuesta

es_ESEspañol