No es nada nuevo que sepamos que Google retoca sus resultados a mano… o saber cómo funciona el ranking… lo curioso es que ahora, el propio Google diga que lo hacen.
Voy a intentar sacar las mejores jugadas del artículo escrito por uno de los ingenieros que trabajan en la calidad de los resultados…
La evaluación en las búsquedas es el proceso para medir la calidad de los resultados de búsqueda y la experiencia de los usuarios con las búsquedas.
Algunos ejemplos de las cosas que se podrían evaluar para mejorar la calidad de los resultados son:
- Propuestas para la segmentación de consultas en chino
- Nuevos enfoques para combatir el spam
- Técnicas para mejorar la forma en que se gestionan las palabras compuestas en sueco
- Cambios en la forma de gestionar las relaciones y los anchortext
A lo largo del año 2007 se han puesto en marcha mñas de 450 mejoras en la calidad de los resultados, todas ellas bajo un estudio de evaluación.
La evaluación de las búsqueda es compleja por muchas razones, algunas de las cuales son:
- Hay que comprender lo que uno quiere encontrar cuando se realiza una consulta.
- Comparar la calidad de los resultados, tanto entre «versiones del propio Google» (por ejemplo entre los datos de hace un mes y los actuales) o entre Google y el resto de competidores. En unos casos con los cambios se mejorará y con otros se empeorará.
- ¿Los resultados son frescos y oportunos? ¿Se trata de fuentes fiables? ¿Son globales? ¿Están libres de spam? ¿Son sus títulos y descripciones interesantes? ¿Incluir otros elementos entre los resultados puede ser útil para la consulta (mapas, imágenes, sugerencias de consulta…)?
- Las consultas locales son muy importantes y por eso hay un centenar de estudios por idioma / país, donde se revisan las correcciones ortográficas, los «onebox», etc…
¿Y cómo se llegan a estas conclusiones?
- Seres humanos: en muchos países e idiomas hay personas entrenadas que revisan la calidad de determinadas búsquedas.
- Experimentos en tiempo real: en las que algunas personas en algunas consultas permiten hacer comparaciones entre resultados sin modificar y otros modificados. Con estos experimentos se pueden ver las reacciones (clics, etc) frente a resultados alternativos.
La inclusión de ambos tipos de evaluación permite comprender el comportamiento global del impacto en los usuarios (a través del tráfico experimental) y medir la calidad detallada de las sugerencias en cada localidad a lo largo de múltiples dimensiones (a través de la experiencia humana de evaluación).
Por ejemplo, una consulta cuyos tres primeros resultados son cambiado es probable que tenga mucho más impacto que si se intercambia los resultados 9 y 10.
Sinceramente, creo que evaluar los resultados o proponer mejoras no es lo mismo que «retocar los resultados a mano».
se te ve el plumero Javier!!! acaso escribes los posts «a mano»? será posible?
Muy bueno tu artículo, la verdad es que tienes mucha razón y por ello debemos de cambiar la forma de trabajar, ya que g00gle es el que nos manda las visitas y no podemos hacer otra cosa.
Gracias por tu post.