Resultados de mapas en google al buscar ciudades o pueblos

A partir de ahora cuando busquemos en Google alguna ciudad o pueblo en el buscador www.google.es saldra como primer resultado, o mejor dicho, antes del primer resultado un mini mapa con la localización de la ciudad o pueblo del cual hayamos realizado la búsqueda en google.

Dos ejemplos son Priego de Córdoba y Madrid:

Priego

Madrid

Cada vez más google esta copando los primeros resultados de búsqueda en su buscador algo que a muchos Seo´s no les está gustando nada.

¿ Qué opináis al respecto ?Personalmente pienso que esto beneficia al usuario por lo que estoy totalmente de acuerdo.

Un día sin Google

motores búsqueda

Es una pena no haber podido comentar esta noticia en su momento pero no por ello no me voy a hacer eco de ésta innovadora o polémica iniciativa.

La iniciativa se trata del “Día sin Google” y ha sido promovida por el portal AltSearchEngines.com que se declara de forma explícita no ser un portal anti- Google “This blog is not anti-Google” pero de todas modos ha realizado esta convocatoria con la intención de que durante el día 1 de abril los usuario de Internet no utilizasen el motor de búsquedas con mayor dominio en la red.

Para ello, el portal ofrece una lista de más de 100 motores de búsqueda alternativos al todopoderoso Google donde, por supuesto, no faltan Yahoo!, Windows Live Search, Ask y AltaVista.

Para los que puedan pensar que esta noticias se trata de una broma pro aquello del famoso día April Fool’s Day el portal afirma que se trata de una iniciativa sería y con la que pretende demostrar que puede existir Internet sin Google.

motor busquedael buscador

Search Wikia: Análisis sobre un posible buscador con motor social

Hace unos días se publicó en SearchEngineLand una entrevista con Jimmy Wales, cofundador de la Wikipedia y director de la compañía Wikia con la que tiene planes de lanzar un buscador que organizará sus resultados utilizando conceptos sociales aprendidos con la enciclopedia. Con las respuestas de Wales es posible formarse una idea de dónde se encuentran y hacia dónde se dirigen.

En la actualidad el proyecto (conocido anteriormente como Wikiasari) está recién en fase de planeamiento, aunque ya cuenta con más de $4 millones de presupuesto mayormente financiados por Amazon. En vista de que aún no se cuenta con un plan claro, muchas de las preguntas que tenemos para Wales no reciben respuestas contundentes, y se puede notar algo de idealismo infundando en muchas de sus opiniones.

Sin embargo, algunas de las premisas tienen sentido. Buscadores como Google hacen un gran trabajo de devolver resultados relevantes para muchas solicitudes, pero fallan miserablemente en muchas otras. Además, el esquema de funcionamiento que hace a Google destacar hoy en día podría estar limitado intrínsecamente, y es posible que una solución que incluya participación social por encima de algoritmos complejos brinde mejores resultados.

Prueba #1: Spam
Uno de los principales problemas que tiene un buscador es el spam de todas las formas. Están desde sitios que tienen contenido real y buscan empujarse un par de peldaños en los resultados, hasta sitios cuyo contenido es una descarada generación matemática de palabras clave sin sentido semántico, y que como método principal de promoción se dedican a llenar la red de enlaces no bienvenidos.

Para que un buscador funcione, no solo debe ser capaz de encontrar resultados relevantes entre las páginas genuinas en su índice, también debe ser capaz de reconocer el alto porcentaje de páginas que son solo spam y mantenerlas fuera de los resultados. Esto no es un asunto nuevo y vemos a los principales buscadores de hoy entablar una fuerte lucha a diario, con resultados mayormente positivos pero no perfectos.

Wales pretende resolver el problema del spam utilizando esfuerzo comunitario. Aunque él mismo no tiene claro en que forma podría funcionar esto, entre sus ideas especula que los usuarios podrían identificar a los sitios de spam y marcarlos como tal para que sean separados de los resultados. El problema con este método es que exige que se marque a todos y cada uno de los sitios manualmente, a diferencia de sistemas como el de Google que utiliza algoritmos avanzados para reconocer automáticamente a sitios dudosos. Además, permitir que usuarios intervengan en la penalización de sitios abre una caja de Pandora completamente nueva sobre problemas de manejo de comunidades con los que Google no tiene que lidiar y que hemos visto causar quizás aún más daño en la Wikipedia de lo que el spam le causa a Google.

Prueba #2: Recursos
Otra dura prueba que el Search Wikia tiene por delante es abastecerse de los recursos necesarios para competir con los gigantes que hoy gobiernan en el reino de las búsquedas.

Google aparenta tener el mayor índice de todos los buscadores, número que se mide – por su puesto – en billones de páginas que deben ser visitadas periódicamente, analizadas y reincorporadas al índice. Asumiendo que se dispone de una granja de servidores con la capacidad de almacenar una copia y respaldos de todo el Internet, el paso más duro es responder a solicitudes de búsqueda y devolver resultados adecuados instantáneamente basados en tremenda pila de información.

Google lo hace ver simple, pero nada más lejos de la realidad. Alcanzar el tipo de optimización y personalización de algoritmos para llegar a tal nivel de desempeño requiere una inversión en personal y conocimientos difícil de solventar con $4 millones que de seguro se irán solo en la adquisición y alojamiento de los primeros servidores experimentales y el sueldo de un puñado del equipo de desarrollo. Ni hablar de los gastos de adquisición y mantenimiento de la tremenda infraestructura, ni de los costos de los equipos, ni del ancho de banda necesario para visitar el Internet completo varias veces a la semana.

No todo es cuesta arriba
Aún teniendo en cuenta todos los problemas que esperan con ansias a quien intente competir con Google, Jimmy Wales tiene muchas cosas a su favor. En primer lugar está su indudable experiencia gestionando redes sociales, siendo el cofundador y planeador de la Wikipedia; sitio que probablemente es el primer y más importante exponente de un proyecto basado en colaboración social que ha rendido grandes frutos.

Sin duda no es extraño al requerimiento de recursos, considerando que aunque la Wikipedia no es sino una minúscula fracción de lo que es la Web entera, sabemos que sostiene algunos millones de páginas y da servicio a un tráfico exorbitante. Tampoco es extraño a organizar comunidades y sacar adelante proyectos novedosos.

Conclusión
En mi opinión hay un largo trecho que recorrer antes de que el Search Wikia pueda ser reconocido como un buscador entre los grandes, y sabemos que habrá que esperar algunos años antes de verlo funcionando en toda su gloria. Sin embargo, si la idea de un buscador basado en aportaciones comunitarias es gestionable, ¿a qué otra persona querríamos encomendarle la labor?

Por ahora nos queda esperar, y para los más aventureros echar una mano.

¿ existe manipulación en los buscadores, uso de información privilegiada, favoritismo ?

Hoy voy a poner una cuestión sobre la mesa, con ello no quiero que se interprete nada fuera de las observaciones, solo se pone sobre la mesa una apreciaciones que son como poco significativas y vienen a demostrar que puede ser que las grandes empresas que gestionan los buscadores pueden estar haciendo uso de información privilegiada, lo cual no quiere decir que está mal, ni sea ético, simplente quiero hacer notar dichas observaciones y plantear unas preguntas …

Para hacer el análisis voy a a usar las direcciones (microsoft.com, google.com, yahoo.com, mp3.com y apple.com) y se analizará la cantidad de enlaces de enlaces entrantes que hay.

Esta prueba o este análisis se basa en una hipotesis de que todos los buscadores recorren todos los sitios de Internet y por tanto deben recorrer mas o menos los mismos sitios. Por tanto si las Spiders recorren TODO Internet …. ¿ porque hay tanta diferencia en sus sitios indexados ? … ¿ son transparentes cuando nos muestran los backllinks ? …

si buscamos en windows live (antiguo MSN) observamos que google tiene una mayoría de enlaces entrantes, mas del 70 % y microsft tiene un porcentaje bastante mas elevado de backlinks respecto a los otros motores de búsqueda…

“Microsoft.com” 3,242,657 resultados 7 %
“Google.com” 33,773,352 resultados 73.2 %
“Yahoo.com” 6,464,003 resultados 14 %
“MP3.com” 1,195,416 resultados 2.7 %
“Apple.com” 1,436,868 resultados 3.1 %

si buscamos en Google para las mismas direcciones observamos que ahora Yahoo es el que mas entradas tiene (Desfase más que apreciable, interpretamos por tanto que Google nos muestra un porcentaje reducido de los backlinks que tiene realmente indexados)…

“Microsoft.com” 132.000 que enlazan con www.microsoft.com 2.1 %
“Google.com 1.910.000 que enlazan con www.google.com 30.3 %
“Yahoo.com” 2.350.000 que enlazan con www.yahoo.com 37.2 %
“mp3.com” 1.790.000 que enlazan con www.mp3.com 28.4 %
“Apple.com” 121.000 que enlazan con www.apple.com 2.2 %

si buscamos en Yahoo observamos que microsoft no tiene tal porcentaje como dicen en Live …

“Microsoft.com” (4,052,518) 2.3 %
“Google.com (130,758,300) 71. 9 %
“Yahoo.com” (35,996,228) 19.8 %
“MP3.com” (9,127,028) 5%
“Apple.com” (1,894,581) 1%

1) Como primera observación podemos ver en el análisis destaca que el buscador yahoo ofrece muchos mas resultados que el resto de buscadores, prueba de ello es que este es el mas utilizado para analizar los backlinks, incluso te permite ver 1000 de esos backlinks divididos en 20 páginas de 50. La primera pregunta a realizarse es …

¿porque un buscador tiene en consideración tantos backlinks y otros como google no los tienen o no los muestran? ¿solo muestran los que tienen en cuenta? ¿Que pasa con los que referencian?

2 ) Podemos ver que microsoft.com tiene un porcentaje mucho mas elevado (mas del triple) en “su Windows Live” que en Yahoo o google respecto a los otros dominios.

¿hacen uso de información privilegiada para indexar mejor sus contenidos?

3) Es sorprendente que únicamente google muestre un porcentaje de backlinks mayor en Yahoo que de él mismo. Esto no me lo explico, podemos ver que en live y en Yahoo el mayor nº de backlinks correspondería a Google en un 70 %.

¿tan diferente es el Spider de google que el de los demás? ¿simple estrategia? ¿en casos en los que hay muchos backlinks generalmente nos muestran unos pocos, como hacen esta selección?

Es evidente que este estudio debe realizarse con muchos mas dominios, e incluso tematizados, no descarto hacerlo mas adelante, pero de momento han quedado en el aire algunas preguntas, espero que los que llevan mas tiempo que yo en el sector o yo mismo en un fituro breve podamos contestarlas …

es_ESEspañol