Estudio europeo sobre Marketing y Posicionamiento en buscadores

Me comenta Guillermo Vilarroig, miembro del comité europeo de SEMPO y director de la agencia de Marketing y Posicionamiento en buscadores Overalia y responsable del estudio en España:

Desde SEMPO Europa hemos preparado el primer estudio sobre la utilización del Marketing y el Posicionamiento en buscadores en el mercado europeo. En el estudio participan empresas de toda Europa y está disponible en inglés, italiano, francés y, por supuesto, castellano. Jupiter Research, una de las principales consultoras de Estados Unidos ha sido, a petición de SEMPO, la encargada de llevar a cabo la elaboración del estudio. El resultado lo presentaremos en la próxima conferencia Search Engine Strategies, que se celebrará del 16 al 18 de febrero en Londres. Para participar en este estudio puedes hacerlo accediendo a esta dirección: http://www.insightexpress.com/s/Jupi111350 y contestando a las preguntas que ahí­ encontrarás.

– Todos quienes participen en la encuestan tendrán la oportunidad de ganar un pase gratis a la SES de Londres de Febrero.

SEO blogs game


Si sueles visitar blogs sobre posicionamiento te será muy sencillo identificar cada una de estas imágenes (algunas por lo menos). No vale ir a buscar las imágenes una a una, ni poner la excusa de que usas agregadores. Venga, quien primero de con todos se llevará una mención especial en el post 🙂

El Ganador ha sido: Oscar R. de majorcahotelsguide.com

SEO Barómetro:
– entre 1-5 : Muy flojo, solo te libra que lees telendro.es y te mantienes al día
– entre 5-12 : Bien, lo lógico en una persona interesada en el posicionamiento
– entre 12-19 : Tienes un problema, no puedes mejorar el posicionamiento de tus páginas si todo el tiempo lo dedicas a leer blogs.

Feeds, duplicados y Google

———————————————————— Viewed —— Average size —— Entry —— Exit
/2006/12/24/sms-para-fin-de-ano/ —— 7865 —— 24.48 KB —— 5562 —— 5299
/comments/feed/ —— —— —— —— —— 5144 —— 9.46 KB —— 1166 —— 768

Estas son las estadísticas de estos últimos días. Como veis entró bastante gente al post sobre los sms para fin de año que escribí hace unos días. Hasta aquí todo correcto, lo malo es la segunda linea que muestra como en cierto momento a google «se le cruza el cable» y toma el post como «duplicado «del feed de comentarios (?!). Esto hizo que por un lado los visitantes llegasen a un feed que no tiene mucho que ver con lo que buscaban (en un formato no demasiado legible en iexplorer) e hizo que perdiera posicionamiento para esas búsquedas.

Hace ya tiempo que veía que ocurría esto, alguno de vosotros ya lo comentó también en el weblog. Lo dejé tal cual por ver como se comportaba Google… mal, sigue fallando. Así que voy a eliminar tanto el feed de comentarios del menú lateral y todos los feeds individuales de comentarios que también daban algún problema. A muchos weblogs les ocurre algo similar, así que … háztelo mirar 😉

Vive Live, nuestro nuevo blog

Después de una semana de pequeña ausencia, aunque me pudisteis leer en elqudsi.com, vuelvo a retomar este blog y a anunciar mi participación en otro blog (en este caso profesional): ViveLive.com.
Anunciar cosas en pleno día de inocentes siempre trae consigo pequeñas confusiones, aproveché ese día para «salir del armario» dejando en el aire una duda razonable que me permite mantener el anonimato sin «mentir» 😉 .

Pues nada, espero veros también por ViveLive.com :

Con este blog queremos acercaros en primera persona los distintos servicios que vayamos lanzando, o simplemente mostraros en lo que están trabajando nuestros ingenieros en servicios que aún son betas (versiones de pruebas) y en alguna ocasión ni si quiera eso Innovación, innovación, innovación!!

También hablaremos de las promociones o proyectos en los que estamos trabajando en España. En alguna ocasión os pediremos que participéis con ideas o comentarios. Si lo preferís nos podéis enviar un email a vivelive@microsoft.com

Feliz año a tod@s!!

El comando site: en google y explicaciones sobre actualizaciones

Hasta hace un año más o menos había cierta organización respecto al orden en que se listaban los resultados para el comando site: (ya ni me acuerdo como era antes).
Desde hace un año los resultados se comenzaron a listar al azar. Ahora, el comando site: tiende a listar las páginas de un dominio por orden de longitud de url. Cuanto más corta, más arriba aparecerá.

Esto lo explica Matt Cutts en los comentarios de un post donde explica la diferencia entre un cambio de algoritmo y los «data refresh».

Básicamente lo que dice es que un cambio en el algoritmo es algo gordo, que no pasa a menudo, y que los cambios que solemos ver se deben a actualizaciones del index, que son un tipo de data refresh (el más común) que ocurre diariamente (del 2000 al 2003 ocurrían semanalmente y se les llamaba Google Dance). Otros tipos de data refresh serían las actualizaciones de backlink visibles o del pagerank (que ocurren cada 3-4 meses).

Están los algoritmos, y los datos sobre los que operan los algoritmos. Gran parte de los cambios en datos (data refresh) son consecuencia de una actualización de nuestro index

Luego dice que desde hace un mes los data refresh en vez de ser mensuales son casi diarios.
Así que desde hace tiempo las actualizaciones de index son diarias y ahora también los data refresh. Todo claro, verdad?

Número de clicks dependiendo de la posición en las serps

Sobre esta cuestión aparecen cada cierto tiempo datos y estadísticas. En este caso se basan en los datos, muy jugosos, que no hace mucho dio a conocer AOL (utiliza Google como buscador).
Este gráfico muestra el porcentaje de clicks respecto a la posición en las SERPs:

Podemos utilizar este Calculador de Incremento de Tráfico para conocer el aumento/decrecimiento de los clicks dependiendo de nuestra posición en las serps. Su fiabilidad es pequeña, un buen título o descripción puede aumentar el clickthrough, pero nos sirve para hacernos una idea.
Como curiosidad comentan que el noveno puesto recibiría menos clicks que el décimo puesto.

Contenido duplicado y Google

Adam Lasnik (otro Matt Cutts) explica en el weblog oficial para webmasters de Google algunas cuestiones y consejos referidos al contenido duplicado en Google.
(Si no te fías de mi traducción chapucera, puedes leer la fuente original)

Qué es el contenido duplicado ?
El contenido duplicado se refiere a bloques de contenido significativo, dentro o entre dominios, que son completamente idénticos o muy similares. La mayoría de las veces no es intencionado o al menos no tiene un fin malicioso: foros o blogs con versiones para móviles, productos de tienda online con múltiples distintas urls… En algunos casos el contenido es duplicado entre dominios con la intención de manipular los resultados de búsqueda o aumentar el tráfico vía búsquedas populares o búsquedas residuales (long tail).

Qué no es contenido duplicado ?
Por ejemplo no consideramos contenido duplicado un mismo artículo escrito en inglés y español. Tampoco es considerado contenido duplicado pequeños fragmentos, referencias textuales de textos ajenos y similares.

Porqué Google se preocupa por el contenido duplicado?
Nuestros usuarios quieren ver contenido diverso cuando realizan una búsqueda. En contraste, es entendible que se molesten cuando encuentran el mismo contenido en diferentes páginas dentro de una misma búsqueda. También, los webmasters se preocupan cuando mostramos una url compleja (example.com/contentredir?value=shorty-george?=en) en vez de una url «más bonita» (example.com/en/shorty-george.htm).

Qué hace Google respecto a este tema?
Durante el rastreo y cuando servimos resultados de búsqueda, intentamos indexar y mostrar páginas con información única.
El filtro significa, por ejemplo, que si tu web tiene artículos en «formato estandar» y en versión para impresión y ninguna de ellas está bloqueada desde el robots.txt o vía el meta tag noindex, nosotros elegiremos una versión para ser listada.
En los casos raros en los cuales notamos que el contenido duplicado está siendo utilizado con la intención de manipular los rankings o engañar a los usuarios, también realizaremos los ajustes necesarios en el index y en el ranking de las webs implicadas. Sin embargo, preferimos centrarnos en filtrar más que en ajustes en el ranking…. por tanto, en la inmensa mayoría de ocasiones, lo peor que puede ocurrirle a un webmaster es que elijamos la «versión menos deseada» de una página en nuestro index.

Cómo puede un webmaster evitar problemas por contenido duplicado?
Bloquear apropiadamente: Ayuda a google a elegir la mejor versión de tus documentos. Bloquea las versiones duplicadas.
Utiliza 301s: Si reestructuras tu web, utiliza redirecciones 301 («Redirección permanente») en tu archivo .htaccess para redireccionar elegantemente a tus usuarios, a googlebot y a otras arañas.
Se consecuente: Utiliza siempre la misma versión de url para tus enlaces internos; no uses /pagina/ , /pagina y /pagina/index.html. En online.com.es explican una posible solución.
Utiliza TLDs: Para ayudarnos a elegir la mejor versión de un documento, utiliza dominios de primer nivel cuando sea posible para organizar el contenido para diferentes países. Un dominio .de nos sugiere que está enfocado a usuarios alemanes, mientras que un /de o de.ejemplo.com no nos ofrece tantas pistas (Lasnik puntualiza en wmw que si ya tienes un .com posicionado Google ya se encargará de averiguar la lengua de los documentos)
Sindica con cuidado: Si sindicas tus contenidos en otras webs, cerciórate de que incluyen un link a la versión original de cada artículo sindicado. Incluso con eso, ten en cuenta que elegiremos la versión más apropiada a los usuarios para cada búsqueda, lo que significa que para determinadas búsquedas podría aparecer la copia sindicada.
Utiliza la opción de dominio preferido en las herramientas para webmasters: Si otras webs enlazan con la versión www y la versión no-www de tu dominio, puedes hacernos saber cual de las dos versiones prefieres que indexemos.
Minimiza las repeticiones de texto: Por ejemplo, en vez de incluir un largo texto de copyright en la parte baja de cada documento, incluye un breve resumen y enlaza a una página con más detalles.
Evita páginas sin contenido: A los usuarios no les gusta encontrarse con páginas vacias, por tanto evita páginas que solo contienen la plantilla de tu web. Esto significa no publicar (o por lo menos bloquear) páginas sin reseñas, sin listados de pisos en venta para cierta zona, etc…
Entiende como funciona tu CMS: Comprende como se muestra el contenido de tu web, particularmente si éste incluye un blog, foro, o sistemas similares que muchas veces muestran el mismo contenido bajo diferentes formatos.
Dont worry be happy: No te ofusques demasiado con webs (planetas y similares) que duplican tu contenido. Siendo algo molesto, es difícil que estos sitios impacten negativamente el posicionamiento de tu web en google (aunque también podéis hacer caso a especialistas en posicionamiento). Si encuentras algún caso especialmente frustrante, puedes rellenar una petición DMCA para reclamar la autoría de cierto contenido.

Otro concurso para los foreros de xeoweb

Ya lo decía entre los axiomas de la fauna de los concursos de posicionamiento:

– El ganador : siempre un forero de xeoweb.

Si se mira los más «posteadores» del foro Xeoweb, entre los 20 primeros:

Primero fueron Philippe y SeoHome ganador y segundo de telendro
Luego Spacebom ganador de microsano y formula 1
y ahora Carlitus el ganador de Navarratop.

Enhorabuena a Carlitus, que aparte del posicionamiento supo ser el más listo a la hora de elegir el término de búsqueda. Anda que algunas empresas no se si sabrán posicionar, pero muy listos no se les ve.

Los asistentes a la entrega de premios pudieron escuchar el típico….
And the winner is Neurotic por posicionar la frase [1 2 3 web]. 15.000 euros de los contribuyentes navarros para la buchaca del amigo carlitus y otros 15.000 para quien participó con la búsqueda [web rápida]. Menos mal que no soy navarro….