Entrevista a Scott Huffman del evaluation team de Google

Hace unos cuantos días han hecho una entrevista a Scott Huffman en la que hay que destacar algunos detalles, sobretodo porque se habla de Google España, dándole algunas puntillas que habría que coger con pinzas pero que son significativas a la hora de la calidad de los resultados.

Por un lado hablan de los más de 6.000 experimentos que anualmente se realizan en los resultados del buscador. Huffman es el responsable de la calidad de los resultados, que no el responsable del sistema antispam, en este caso Matt Cutts. Los experimentos se hacen en más de 100 países con sus respectivas lenguas oficiales.

Los experimentos se realizan, por un lado, con personas, a los que se les da una consulta de búsqueda y se les ofrece un test para que den su opinión de dichos resultados de búsqueda. El otro lado es el propio tracking de los usuarios de Google, mediante la información que se recopila de lo que cada uno de nosotros hace al buscar.

Los caminos en los que se trabaja cada vez más son los del stemming y el de los sinónimos. En algunos idiomas se realiza de una forma más agresiva que en otros.

Do these kinds of variations based on language or geographic location happen a lot? Do you have to make changes pretty specific to those factors?

Only occasionally do we make changes only for certain locales. Most of what we do apply at once at many locales at a time. Occasionally it works really well everywhere but Spain, [and we say], «What the hell’s going on?» Sometimes it’s a bug, sometimes it’s that there’s something different about how content is published in that country.

Tras esta pregunta cabe la duda si el poner España como ejemplo es eso, un ejemplo o es que realmente «Spain is different». Personalmente supongo que a la hora de comparar los datos de España con el resto de Latinoamérica, sí que la información será distinta… pero ¿debido a qué?

Los cambios también van a comenzar a afectar al «long tail». Hasta ahora las consultas más afinadas se tenían mucho menos en cuenta pero es probable que en breve espacio de tiempo comencemos a ver elementos avanzados que hasta ahora sólo se aplicaban a búsquedas genéricas también a búsquedas complejas.

Con respecto a la personalización, duda en que vaya a haber una personalización sobre el usuario, pero no sobre su geolocalización, sobretodo en países en los que un mismo idioma da diferentes acepciones a una misma palabra.

Google Squared añade algunas mejoras

El experimento Google Squared parece que empieza a evolucionar y se le han implementado algunas mejoras que ayudarán a los usuarios a obtener más y mejor información, además de nuevos sistemas de ordenación.

El primero de los cambios es que la lista de resultados (datos) ha pasado de 30 hasta 120, de forma que se pueden obtener más o menos resultados según se desee. De esta forma, en vez de ver 5 filas con 3 categorías, se podrían ver 10 filas con 6 atributos.

Otro de los elementos que se han cambiado ha sido el de poder ordenar la lista de resultados según interese, de forma que pasamos de tener los resultados ordenados por el sistema a ordenarlos por la columna que queramos comparar.

Otro de los nuevos elementos es que se puede exportar la información a CSV o a Google Docs, por lo que podremos tener la información fácilmente descargable con un par de clics.

Cómo eliminar el aviso de malware de tu sitio en Google

Desde hace un tiempo los sitios web que tienen algún tipo de malware en su interior aparecen marcados con una «banderita roja» en los resultados de Google Webmaster Tools. Si este es tu caso, a parte de que debes corregir lo antes posible el problema, deberás realizar un par de pasos para que tu sitio vuelva a quedar limpio y sin avisos para tus usuarios.

El primero de ellos es entrar en Webmaster Tools. Una vez allí deberás acceder al enlace de «Más detalles» que habrá junto al aviso de que ese sitio distribuye malware.

Cuando estés allí, a parte de la información, al estar ya todo corregido, tan sólo deberás acceder «Solicitar una revisión», de forma que el trabajo ya queda en manos de Google.

En este caso, el buscador volverá a pasar por las páginas que ya había detectado como problemáticas, pasará también por las que no tenían problemas, e investigará nuevas páginas… Si todo es correcto y ya se ha eliminado el problema, en pocas horas, a lo sumo un día, el sitio volverá a la normalidad en los resultados.

Google: logo + cajetín de búsqueda

¿Te gustaría que la página principal de Google sólo mostrase el logo y el cajetín de texto… con y sin los botones? Pues entonces has de hacer lo siguiente:

  1. Entrar en www.google.com
  2. Copiar uno de los códigos de abajo en la barra de direcciones y «ejecutarla»… no pasará «nada».
  3. Entrar en www.google.com, de nuevo

Código con botones:

Código sin botones:

Google propone cómo rastrear AJAX

Uno de los grandes problemas de los nuevos sitios es que, al realizarse mediante AJAX y de una forma que cada sitio lo aplica de una forma distinta, los buscadores no son capaces de indexar la información, quedando una nueva forma de «web oscura» que no son capaces de indexar.

Es por esto que ahora Google se ha lanzado de tal forma que pretende crear un sistema estándar para indicar, de alguna manera, qué direcciones URL son AJAX e incluyen contenido único indexable.

La idea es que haya que realizar el menor número de cambios posibles, que no se haga cloaking y que sea una dirección URL única.

Para llegar a esto se plantean varias opciones, algunas tan simples como «cambiar» el tradicional «#loquesea» por «#!loquesea», que implicaría una URL indexable, hasta otras más complejas, utilizando un sistema de Javascript o incluyendo un parámetro nuevo en la URL.

Yahoo! «tampoco» usará el meta-tag keywords

Hace unas semanas Google «afirmó» que en su sistema no se utilizaba el meta-tag «keywords» a la hora de tenerse en cuenta para que un sitio aparezca mejor o peor en un sitio web. Ahora es Yahoo! la que comenta lo mismo, aunque, personalmente, no creo que sea así.

Estos comentarios realizados por trabajadores de Yahoo! no está muy claro cómo tomarlos, ya que, si algo queda claro, es que «no van a hacer ningún mal» si se aplican correctamente.

Esta metainformación se utiliza por parte de los buscadores como complemento de la información que aparece en los resultados de búsqueda, y deberían de coincidir en muchos casos con los conceptos genéricos de los que se trata en la propia página… así que ¿por qué no ponerlos? Que los buscadores digan que no los usan, primero, no queda muy claro que sea así y segundo, creo que pueden ser de ayuda a distintos elementos y aplicaciones que van alrededor de un sitio web, y sobretodo, para los usuarios.

Ask incluye resultados de compras

En 2008 el 6ª término más buscado en Ask USA fue [coupons] y tal vez esa haya sido una de las decisiones que hayan llevado a que el buscador incluya, a modo de enlaces semi-patrocinado, un sistema de venta de cupones o de ofertas de cosas entre los resultados de búsqueda, todo hay que decir, muy bien destacado y señalizado.

Para ello, además de la integración en los resultados de búsqueda, se ha lanzado Ask Deals una sección en la que van apareciendo pujas y ofertas de diferentes productos, parte de la posibilidad de navegar por un directorio hasta encontrar la oferta perfecta.

Ask Deals

Canonical meta-tag, ahora Cross Domain

A principios de año veíamos que los buscadores se sacaban de la manga un interesante meta-tag llamado «Canonical» que básicamente se utilizaría para evitar contenidos duplicados.

Parece que, aunque al principio no parecía funcionar muy bien, con el paso de los meses, y sobretodo estos 3 últimos, los usuarios que están utilizándolo (en los casos en los que es necesario) han notado su funcionamiento.

Ahora Google, sin contar con el resto, parece haberse adelantado y ha decidido lanzar el Canonical Cross-Domain, de forma que si indicas una dirección URL de un dominio que no es el actual, esta página desaparecería de los resultados, al más puro estilo «Redirección 301».

Personalmente no sé hasta que punto esto es bueno o malo o cómo controlarlo, ya que una buena forma de hackear un sitio sin que el usuario se de cuenta es simplemente cambiando o añadiendo su meta etiqueta Canonical a su dominio, y, al cabo de unas semanas, el tráfico pasaría a tu propio sitio.

Mininoticias de la semana (28/09 – 04/10)

Esta semana (del 28 de septiembre de 2009 al 4 de octubre de 2009) destacamos algunas noticias que son de mención:

Google Webmaster Tools cambia el proceso de verificación

Seguramente muchos de vosotros os habréis encontrado con algunos cambios al validar un nuevo sitio en Webmaster Tools. Los cambios son tanto en el sistema de meta-tag como en el de fichero HTML, aunque la validación varia en cada caso.

Por la parte del meta-tag, el sistema se ha mejorado para que puedas seguir validando el sitio aunque cambies la dirección de correo…

Por la parte del fichero, a parte de que han incluido un texto dentro d el HTML, ahora permite validad sitios en los que el error 404 da ciertos problemas (por ejemplo, devuelve una redirección o un código 200).

De esta forma se pretende que los usuarios no pierdan la información de sus cuentas y disponer del panel del dominio aunque el sitio no esté bien configurado, avisándoles en el interior de estos problemas.

Para aquellos que utilicen herramientas dentro del propio Google, como Blogger o Google Sites, en breve dispondrán de estas nuevas opciones.