Uno de los factores clave para la ordenación de resultados de Google siempre ha sido el Pagerank, pero según los ingenieros asiáticos de Microsoft creen que hoy en día ya pierde muchos de sus valores ya que es fácilmente manipulable al poder crear granjas de enlaces.
Es por esto que tras un estudio y un paper que se ha hecho público, se quiere conseguir lo que se estaba haciendo sin ser público: poder usar los datos recopilados por muchas fuentes (barras de herramientas, sistemas de análisis…) para mejorar los resultados de búsqueda.
«Cuantas más visitas a una página ha realizado un usuarios y ha pasado mucho tiempo en ella, más posibilidades habrá de que la página sea importante. Podemos aprovechar cientos de millones de usuarios para saber la importancia» es lo que han dicho los investigadores en una conferenciaen Singapur.
Interesante lo que dice la cita: tener en cuenta el número de visitantes que ven una página y el tiempo que pasan en ella para saber si es relavante al contenido que muestra.
Pero según un criterio tal, las páginas poco visitadas no aparecerían NUNCA en los buscadores aunque su contenido fuera el mejor del mundo, no?
O por poner otra pega: aún tratándose de un «sitio» de alto page rank (es decir que sus visitantes pasan mucho tiempo en ese «portal») no sería «justo» que cualquier página nueva que apareciera en dicho sitio «heredara» el pagerank de la página principal. Pero tampoco sería justo que se midiera por el tiempo que la gente pasa en esa página, pues al ser nueva le costaría muuuucho acumular visitantes y tiempo de visita antes de aparecer en las primeras páginas de búsqueda. Lo cuál me parecería absurdo.
Sigo pensando que hay que depurar y mejorar la «inteligencia artificial» de los buscadores para clasificar correctamente la calidad del contenido de una web. Es el método más «objetivo» de evaluar la calidad de un site, y es inmediato. Es que tal por donde va esto de los buscadores… no me va nada que cuando yo busque me muestren lo que más leen el resto de mis congéneres (lo más «popular» en términos SEO), ni aún menos las páginas que más tiempo se leen (como ahora dices que proponen). Quiero que me muestren exactamente lo que busco! ¿tú no?
No me mal entendáis: no estoy en contra de darle valor a aspectos «sociales» de la web. Por ejemplo, el sistema de del.icio.us me encanta: los usuarios registrados comparten sus «páginas favoritas» normalmente clasificadas por categorías, y eso ofrece un buen referente a la hora de encontrar contenidos de calidad. Pero precisamente si alguno lo habéis usado, sabéis que a veces un resultado que poca gente ha indexado todavía es de muchisimo valor para nosotros y nos responde a lo que buscabamos! Así que el aspecto «social» de las búsquedas y los marcadores me parece interesante como un filtro más, pero no para determinar los resultados de la primera página de búsqueda.
O en todo caso, está bien que haya sitios en plan del.icio.us que TODO su sistema de indexación y búsqueda se basa prácticamente en variables de caracter «social» de las páginas (número de personas que tienen «marcada» esa página, y se omiten páginas que nadie haya marcado, por supuesto). Pero para búsquedas de otro tipo, me parece que debe haber una alternativa más técnica, como la de Google. Y que la verdad es que hasta el día de hoy les ha funcionado muy bien. Es gracias a la calidad de los resultados de búsqueda por lo que han podido construir y mantener su imperio! (es mi humilde opinión 😉