Sobre el Spam y las Batallas Ganadas

Navegando plácidamente por la red, entre dormido y despierto y un poco lánguido por haber estirado mi rutina matutina (1. ducha, 2.emails, 3. ¿sigo en línea?, 4. desayuno), me topé con un halago que me ha inspirado a compartirles unos detalles sobre el spam masivo que nos afecta a diario.

Hoy me enteré de que Xrumer, uno de los principales programas para distribuir spam automatizado, me ha concedido la batalla, agregando hispamedios.com a la lista de “no spammear porque nos agarran.” La lista cubre portales de desarrolladores de software con suficiente sapiencia y dedicación para perseguir a los agresores spamisivistas (venga, que el idioma lo hacemos nosotros!)
Encabezando la lista vemos a los sitios oficiales de las conocidas plataformas PHP-Nuke y PhpBB, además de otros sitios dedicados enteramente a combatir el spam como Spamhuntress.

Pues es un orgullo estar en tan buena compañía, aunque no estoy seguro de cómo llegué ahí. No es novedad para los que me conocen que le tengo declarada la guerra al spam, pero dudo que Xrumer me tenga miedo exclusivamente por mis posiciones políticas. Es probable que el autor de la lista preste atención a los sitios que reporten agresores y ofrezcan soluciones. Se me ocurre que intenten dejarnos en paz para no incentivar las llamas del contraataque. Lo más seguro es que se hayan dado cuenta que les he bloqueado el acceso.

En fin, banderita blanca o no, hay guerras para las que no existe tregua. Total, ya me ha tocado subir de nivel todas mis cuentas de hosting para lidiar con los desbordamientos de ancho de banda que producen estos sistemas automatizados. Y justo pensando en eso es que escribo este post.

Bloqueando a los spammers
Una de las mejores formas de combatir el spam es tomarse el tiempo de reconocer los IPs agresores y bloquearlos desde el panel de control o el .htaccess. De esta forma minimizamos considerablemente el ancho de banda utilizado en estos ataques ya que en vez de cargar en desperdicio miles de páginas de contenido, el servidor niega completamente el acceso a estos IPs. Así también le damos menos trabajo a nuestras herramientas antispam.

Además, quién sabe, es posible que al reconocer el bloqueo estos programas automatizados dejen de intentar, y con algo de suerte continúen agregando nuestros sitios a las listas negras (blancas?)

Listas Antispam
Hay dos maneras de obtener la lista de los IPs agresores. La más divertida (a mi criterio) es analizar las estadísticas del servidor todas las semanas en busca de los visitantes que se repiten irracionalmente, y luego analizar las acciones de dichos visitantes para establecer cuales son sus intenciones con nuestro sitio.

La otra manera (más fácil) es copiar la lista de alguien que ya haya hecho este trabajo. (Hola!)
Esta es mi lista de IPs bloqueados en Hispamedios:

66.199.232.130
158.37.159.21
70.85.147.66
67.159.44.252
217.20.163.50
208.101.35.52
67.159.45.54
201.240.142.30
220.226.206.227
70.85.147.194
38.114.169.172

Yo solo he bloqueado agresores masivos confirmados, además son solo los que estaban atacando al sitio en cuestión. Algunos de estos atacaban cientos de veces al día (todavía recibo algo de spam de otras fuentes, pero en números más razonables). Le recomiendo ampliamente a todos los bloggers hispanos que bloqueen el acceso a estos IPs.

Hace falta recalcar que me la he llevado fácil. Conozco sitios que se ven obligados a bloquear cientos de IPs, por lo que existen además otras listas. En un sitio en inglés tuve mucho más trabajo, terminé bloqueando más de 40 IPs identificados manualmente, y después me tocó desactivar los comentarios hasta instalar alguna herramienta antispam.

Además estas listas no son definitivas ni la solución al spam – solo otra herramienta efectiva para agregar al arsenal.

Les dejo enlaces a otras listas para los que quieran protegerse al máximo:
* Lista de Rod McFarland – Lista generada automáticamente de IPs que enviaron spamentarios en los últimos 30 días – Universidad Simon Fraser, Canada.
* Blacklists en el Directorio de Google.

Que es eso del SMO

(SMO) o el Social Media Optimization es un termino que se utiliza para obtener la visibilidad social de una web mediante medios sociales como son podcast, video blogs, agregadores de noticias, blogs, redes sociales, plataformas de networking, etc…

Actualmente no basta solo con aparecer en las mejores posiciones en las SERPs de Google o de cualquier otro buscador ya que existen otros muchos metodos para conseguir tráfico de cálidad hacia nuestro sitio y ha esto es a lo que se dedica el SMO, principalmente en promover nuestro website incluyendo en él herramientas que permitan que una pagina web pueda ser fácilmente enlazada o agregada.

Agregadores

Cuidado con el contenido duplicado, Google muestra sus cartas.

Me ha costado un poco hacer la traducción, resulta complicado a veces sacar tiempo para todo, 🙂 aquí tenéis el enlace Google Webmasters del original y mi pequeño resumen:

– En primer lugar destacamos que la traducción de los textos en idomas diferentes no es considerada contenido duplicado ya que una persona puede buscar información en diferentes idiomas.

– Si escribes contenido duplicado es importante que no dejes que quede visible para las arañas de búsqueda, para ello puedes usar el robots.txt

– Todos y cada uno de los enlaces internos de nuestra Web o Blog debe seguir una estructura que sea lógica y jerárquica. Por ejemplo /directorio, /directorio/ o /directorio/página y en caso de cambiar dicha estructura deberemos hacerlo mediante la redireccion 301

– Tenemos que hacer uso del dominio específico (.es, .cat) si el contenido de aquello que hemos publicado en nuestra web se refiere exclusivamente a un pais o a un territorio. (esto es importante hacerlo así y no mediate un subdominio o una carpeta)

– Hemos de evitar el contenido repetido del sitio (headers, siders y footers) al igual que no enlazar hacia una web sin contenido.

– Por último comentar que a la hora de enlazar no es lo mismo una href con el triple w que sin el, de ese modo también debemos enlazar el contenido original si se utilizan feeds.

Ventaja de posicionamiento entre los Blogs y sitios normales

En respuesta a porque los blogs son mejor valorados y mejor posicionados en los buscadores que los sitios normales se puede decir lo siguiente…

En realidad nadie tiene ventaja sobre nadie, ni creo que los buscadores valoren mejor un dominio simplemente porque sea un Blog. Pero lo que si es cierto es que que las empresas importantes que elaboran y liberan los blogs (WordPress, Creativecommons, … ) han diseñado verdaderas obras de arte en repetición/densidad de palabras clave enlaces entre los post, títulos bien optimizados y resaltados, relaciones muy completas entre ellos, en definitiva han creado unas estructuras ideales para su indexación …

En el mundo SEO esto no es un misterio, pero estoy convencido que muchas personas que esciben en blogs no se dan cuenta de ello … pero cada vez que insertan una entrada consiguen optimizaciones que son ideales para incrementar posiciones en los buscadores gracias a la correcta optimización de código que llevan por defecto estas estructuras, y debido a ello muchas personas que tienen un Blog consiguen posicionamiento e indexación sin prácticamente ocuparse de optimizar código.

Muchos sitios Web normales (no gestionados por SEOs) no son tan dados a ello ya que olvidan enlazar contenidos entre webs del mismo sitio, no se preocupan tanto de modificar los títulos representativos, generalmente no actualizan contenido fresco, no resaltan las palabras clave, etc …

Por todo esto, generalmente una persona que escribe en un Blog acaba indexando, optimizando y posicionandolo sin prácticamente darse cuenta porque elabora un sitio muy bien estructurado, fresco y optimizado prácticamente por defecto gracias al panel de administración. Pero esto no quiere decir que los Blogs sean mejor vistos por los buscadores que los sitios normales.

es_ESEspañol