¿Los directorios ya no sirven en SEO?

Al menos eso es lo que se podría extraer tras ver que Google ha quitado de su página de información para webmasters su dicho de que es interesante estar en sitios como DMOZ o Yahoo! Directory. Incluso también han eliminado una frase que decía que te enlacen otros sitios relevantes.

¿Significa eso que los directorios ya no sirven? La respuesta es ¿realmente han servido alguna vez?. Si bien es cierto que aparecer en los grandes directorios como los antes mencionados era importante (incluso se llegó a crear un meta-tag específico para ellos), conseguir enlaces de calidad siempre ha sido importante, eso sí, siempre y cuando se consiguieran por méritos propios y no por un simple «necesito estar ahí para subir mi posicionamiento».

Aparecer en los directorios es importante siempre y cuando se haga de forma consciente y no mediante sistemas de altas en directorios masivos, porque pueden llevar a problemas a medio y largo plazo. No hace falta estar en 500 directorios, con estar en 5 o 10 «buenos» es más que suficiente, como ocurre en cualquier intercambio de enlaces o en cualquier recomendación de sitios.

Habrá que esperar algún tiempo hasta ver si realmente la importancia de estos dos grandes directorios afecta, aunque no cabe duda de que, a corto plazo no va a ser así.

Estado de la Blogosfera 2008

Un año más, Technorati ha mostrado al público su informe sobre el estado de la blogosfera, un informe que en esta ocasión lleva muchas sorpresas y que podría dejar entrever cómo está evolucionando Internet.

Cuando en 2004 comenzó el primer informe, sólo se hacía seguimiento a 4 millones de blogs. Un año después la cifra era de 19,6 millones (entre un 2% y un 8% eran falsos) y el año pasado era de 70 millones. Ahora, ya se ha alcanzado la cifra de los 133 millones de blogs creados desde aproximadamente 2003.

Eso sí, de esos 133 millones sólo el 1,1% se ha actualizado la última semana, lo que significa que blogs muy activos sólo hay 1,5 millones.

Una encuesta de Technorati también deja entrever el perfil de los bloggers, aunque estos datos sí que habría que tomarlos con pinzas.

Cada día se crean 900.000 blogs posts nuevos (el año pasado era de 1,5 millones), lo que deja clara una situación: el crecimiento de blogs se está desacelerando. Eso sí, también se está concentrando ya que los blogs se han convertido en un medio muy interesante, ya que el consumo de los mismos está creciendo de una forma muy activa.

En qué se basa el SEO

Esta mañana me he encontrado un artículo que creo que resume perfectamente lo que es el SEO en su esencia. Ayer estuve con varios emprendedores que están lanzando varios proyectos centrados completamente en Internet, y en cada uno de los casos me encontraba con situaciones dispares. La primera de ellas la internacionalización, en otras, el tratamiento de la estructura de la información. En otros, sencillamente personalización que podría llegar a afectar a los buscadores.

Duncan Morris en Seomoz ha publicado un artículo sobre los tres ángulos en los que basar una estrategia SEO: Tecnología, Contenidos y Confianza.

Estos 3 factores están íntimamente relacionados, y sin uno es imposible que el resto funcione.

Cuando se hace una revisión SEO, lo primero por donde hay que comenzar es por el propio sitio, o sea, por la propia Tecnología. Si el sitio no es indexable ya de primeras vamos a impedir que los robots de búsqueda tengan nuestros contenidos.

Títulos, frames, imágenes, sesiones, robots.txt… cualquier mínimo detalle puede hacer que todo el trabajo no sirva para nada.

Aunque, un sitio puede estar perfectamente, pero los Contenidos que se presenta no es nada interesante.

Los idiomas, la forma de mostrar la información, su estructura, la usabilidad, el diseño de un sitio, todo influye a la hora de que un usuario acabe entrando en el sitio y tenga interés, y los buscadores, como usuarios que son, también. A veces la falta de navegabilidad por una mala organización de los contenidos son el paso clave para que el SEO no se lleve a cabo de forma correcta.

Y ya no hablemos del abuso de Flash, Javascripts, AJAX y similares… son muy interesantes de cara al usuario, pero una tecnología no estándar que hace que nos ea indexable y por tanto, no accesible.

Internet es como una biblioteca gigante. Al final de cada libro encontramos la bibliografía, y, en el caso de la red, nos indica la Confianza en otras fuentes. En el caso de la red tenemos los hipervínculos, los enlaces, que hacen que si enlazamos y nos enlazan de sitios que tienen buena información nuestro nivel aumenta.

Eso no significa que haya que estar revisando todo el día Alexa o el Pagerank… sino que tú mismo entres en un sitio y que la información que haya te parezca interesante y completa.

En fin, sin duda una manera muy interesante de explicar qué es el posicionamiento en buscadores y hacer que se vea el conjunto y el concepto global y no sólo uno en particular. Al fin y al cabo, el SEO es la suma de todos los factores.

Google sigue sin cumplir las leyes europeas

Google sigue sin hacer caso a la legislación europea en cuanto a la retención de datos. Hay que recordar que tan sólo hace unas semanas se anunció la reducción de los datos recopilados (de forma visible y sabiendo a quién pertenece la información) a 9 meses… pasado ese tiempo, la información se anonimizaría.

Aunque hay «satisfacción» por esta mejora, se ha destacado los pasos del buscador en cuanto a colaborar con los organismos de protección de datos. Aún así, se considera que la legislación comunitaria sobre protección de datos no se le aplica, incluso aunque tenga servidores y sedes en Europa.

Además, en Europa se exige a los buscadores que los datos no se retengan más de 6 meses, y aunque ha sido un paso importante, aún no se ajusta a la legislación europea. Tampoco se ciñe a que la dirección IP es un dato confidencial y que puede relacionar a una persona, algo que para Google no es así, algo que hace que la información que maneja Google esté fuera de la ley, y por lo que otras muchas empresas han tenido que pagar multas millonarias.

En conclusión, pese a algunos progresos, todavía se deben realizar importantes trabajos para garantizar los derechos de los usuarios de Internet y el respeto de su privacidad.

Google retoca sus resultados, a mano

No es nada nuevo que sepamos que Google retoca sus resultados a mano… o saber cómo funciona el ranking… lo curioso es que ahora, el propio Google diga que lo hacen.

Voy a intentar sacar las mejores jugadas del artículo escrito por uno de los ingenieros que trabajan en la calidad de los resultados…

La evaluación en las búsquedas es el proceso para medir la calidad de los resultados de búsqueda y la experiencia de los usuarios con las búsquedas.

Algunos ejemplos de las cosas que se podrían evaluar para mejorar la calidad de los resultados son:

  • Propuestas para la segmentación de consultas en chino
  • Nuevos enfoques para combatir el spam
  • Técnicas para mejorar la forma en que se gestionan las palabras compuestas en sueco
  • Cambios en la forma de gestionar las relaciones y los anchortext

A lo largo del año 2007 se han puesto en marcha mñas de 450 mejoras en la calidad de los resultados, todas ellas bajo un estudio de evaluación.

La evaluación de las búsqueda es compleja por muchas razones, algunas de las cuales son:

  • Hay que comprender lo que uno quiere encontrar cuando se realiza una consulta.
  • Comparar la calidad de los resultados, tanto entre «versiones del propio Google» (por ejemplo entre los datos de hace un mes y los actuales) o entre Google y el resto de competidores. En unos casos con los cambios se mejorará y con otros se empeorará.
  • ¿Los resultados son frescos y oportunos? ¿Se trata de fuentes fiables? ¿Son globales? ¿Están libres de spam? ¿Son sus títulos y descripciones interesantes? ¿Incluir otros elementos entre los resultados puede ser útil para la consulta (mapas, imágenes, sugerencias de consulta…)?
  • Las consultas locales son muy importantes y por eso hay un centenar de estudios por idioma / país, donde se revisan las correcciones ortográficas, los «onebox», etc…

¿Y cómo se llegan a estas conclusiones?

  • Seres humanos: en muchos países e idiomas hay personas entrenadas que revisan la calidad de determinadas búsquedas.
  • Experimentos en tiempo real: en las que algunas personas en algunas consultas permiten hacer comparaciones entre resultados sin modificar y otros modificados. Con estos experimentos se pueden ver las reacciones (clics, etc) frente a resultados alternativos.

La inclusión de ambos tipos de evaluación permite comprender el comportamiento global del impacto en los usuarios (a través del tráfico experimental) y medir la calidad detallada de las sugerencias en cada localidad a lo largo de múltiples dimensiones (a través de la experiencia humana de evaluación).

Por ejemplo, una consulta cuyos tres primeros resultados son cambiado es probable que tenga mucho más impacto que si se intercambia los resultados 9 y 10.

Britney Spears vuelve a ser la reina de las búsquedas

Buena noticia para comenzar el día… Britney Spears vuelve a estar en el Libro Guinness de los Récords como la búsqueda más realizada del año, quitando a Paris Hilton que tenía el récord del año 2008.

La princesa del pop ha conseguido ser la persona más buscada en internet. Britney ya tuvo ese mérito hasta que en 2007 Paris Hilton le quitó el premio. El récord está basado en las estadísticas de Google.

Usando las palabras correctas en SEO

Estos días atrás me han reenviado boletines de empresas que ofrecen servicios SEO por 35 euros. Una vez leído lo que ofrecían era bastante estafa, ya que el servicio lo puede realizar un usuario, que con mínimos conocimientos, de forma gratuita. También han publicado un artículo en el que se quejan de esto mismo.

El SEO ya lleva cierto tiempo en el mercado como para que las empresas confundan a sus clientes, y la verdad es que a los que estamos en este sector muchas veces se nos acaba viendo de forma extraña.

Sí que es cierto que al ser una terminología no reglada y de la que ni los propios buscadores acaban de dar datos precisos, el posicionamiento en buscadores no es la manipulación de los resultados de búsqueda ni nada parecido. La primera reacción de los que utilizan servicios que prometen eso, acaban teniendo unos resultados pésimos.

Lo primero que ha de quedar claro para un cliente es que todo el proceso de optimización de un sitio web ha de ser transparente. En el momento en el que una empresa o persona no te explique qué es lo que va a hacer ya hay que sospechar. Hay que tener muy claro que una cosa es «dar de alta tu sitio en directorios» y otra cosa es «optimizar tu sitio web».

También hay que tener muy claro que SEO no tiene NADA QUE VER con Adwords. Es un servicio complementario, pero que no tiene nada que ver. Una cosa es comprar los resultados y otra cosa optimizar los resultados.

Hace unos días un emprendedor me comentó que «aquellos detalles que me comentaste ha hecho que crezca 10.000 visitas al día más». No hay que olvidar que el SEO comienza por el propio sitio. Si tu sitio no está bien optimizado, no sirve de nada conseguir enlaces ni nada parecido… Eso sí, tu sitio ha de estar completamente optimizado. Si falla uno de los parámetros, ya queda cojo y el SEO puede no funcionar.

¿Tienes claro que tu proveedor de servicios SEO tiene los conocimientos que ha de tener o simplemente usa un software automático que te da de alta en cientos de sitios?

Google compra TNC (y su software TextCube)

Google ha adquirido su primera empresa coreana, una compañía de software de blogs en Corea llamada TNC, por una cantidad no revelada de dinero. El fundador de la compañía dió la información en el blog Web20Asia. Ha dicho que es una de las primeras adquisiciones de Google en Asia.

Google ha confirmado el acuerdo diciendo que quiere ampliar su cartera local centrada en los productos, además de fomentar la creación de contenido generado por el usuario y mejorar la experiencia de búsqueda de los usuarios coreanos. También ha comentado que añadirá recursos adicionales, a través de adquisición o de otro tipo.

La empresa TNC tiene un software de blogs profesionales (tipo WordPress MU) que da servicio a más de 400.000 usuarios, incluido el 65% del top 100 bloggers coreanos.

Este software se llama TextCube y, aunque está desarrollado en coreano, principalmente, también está disponible en inglés (aunque no está completamente traducido). Haciendo las primeras pruebas con él, la interfaz y algunas herramientas hacen mucho más sencilla su utilización, aunque las posibilidades sn algo menores. Además, existe una versión no instalable de este sistema.

¿Existe o no el contenido duplicado?

En el blog de Google han publicado una entrada sobre la «no existencia» del concepto «contenidos duplicados». Aunque realmente el artículo luego viene a decir que sí existe… y, aunque el contenido puede no considerarse duplicado sí que afectaría al posicionamiento en buscadores.

Aunque sí es cierto que el contenido duplicado no penaliza como tal (es decir, no existe una opción que haga que, si tienes páginas duplicados te penalizamos con 50 puestos) sí que es cierto que la posibilidad de que se pueda navegar por varias páginas con el mismo contenido puede afectar a que el algoritmo no sepa detectar la página principal de todos estos contenidos y acabe penalizándose el propio sitio con respecto a otros sitios web, perdiendo algunos puestos en algunas búsquedas.

Cosas que se recomiendan:

  • No crear páginas múltiples, subdominios o dominios que tengan el mismo contenido.
  • Evite los programas de afiliación que no aportan ningún tipo de contenido adicional y que sólo duplican páginas.

¿Cómo trata Google este problema? Intentando filtrar la duplicación de documentos para que los usuarios experimentan menos redundancia.

  • Cuando se detecta contenido duplicado, por variaciones de URL, por ejemplo, se agrupan estas páginas.
  • Se selecciona, de todas ellas, la que se pueda considerar como más representativa.
  • Se revisan la cantidad de enlaces internos y externos y otros factores para detectar en caso de dudas.

Duplicados contenido puede dar lugar a la ineficiencia de rastreo: que Googlebot dAdemás, otro problema que se presenta es el de los propios robots de indexación, que se podrían encontrar varias direcciones y su ineficacia al rastrear contenidos (incluyendo un aumento del ancho de banda). Si se reducen la cantidad de direcciones URL de un sitio, mayor eficacia tienen los robots.