Ignacio Rodríguez de Rementería

8 consejos para mejorar posicionamiento web o "SEO".

Hay autodenominados expertos que ofrecen análisis, recomendaciones o simplemente acciones oscuras, como la venta de links en granjas de contenidos, lo cual puede ayudar a posicionar en el corto plazo pero perjudicar un sitio a la larga. Pero en realidad el SEO no es una ciencia oculta ni presenta una gran complejidad técnica. Basta entender un poco el funcionamiento de los buscadores y la Web para vislumbrar cuáles son las medidas que hay que tomar para una mejor encontrabilidad.

Son medidas simples, pero no fáciles, en el sentido de que son conceptualmente fáciles de comprender, pero no son sencillas de ejecutar en la práctica, y tienen relación más que nada con tener una estrategia de contenidos. Porque -es un poco obvio pero no está de más decirlo- lo que los buscadores indexan es precisamente el contenido. Pero, como veremos a continuación, no cualquier contenido:
  1. Escoger un buen sistemas de gestión de contenidos:
    Hay varios aspectos claves en que un CMS puede determinar la calidad de nuestra encontrabilidad. Estás son:

    1. Facilidad para actualización de alta frecuencia, Google privilegia sitios con contenido fresco y nuevo por sobre sitios con contenido que no haya sido modificado a menudo o que no haya crecido.
    2.  
    3. URLs amigables: Google considera las palabras contenidas en los nombres de los directorios y archivos como señales importantes sobre el contenido. Más en Search Engine Land.
    4.  
    5. Accesibilidad: un contenido donde el texto esté cerca del principio de la página que la contiene y donde la apariencia no interfiera con su velocidad de descarga es privilegiado por Google. Esto va a depender del CMS pero también de la plantilla o programación personalizada que se aplique, a veces hay bastante que trabajar en este aspecto con el equipo de diseño "front" de un sitio.

  2. Hacer una buena arquitectura de información:
    Un sitio donde hay relación entre la estructura semática del contenido y la estructura física son similares tendrá más sentido para Google que un sitio donde no hay jerarquía de de secciones, portadas o micrositios. Más en UX Matters. De la arquitectura también depende hacer URLs amigables y relacionadas semánticamente con el contenido, lo mismo aplica para los textos de ancla (URLs dentro de un archivo), para los nombres de archivos de medios (imágenes, audio, video) y textos alternativos (también en imágenes, audio y video inctrustado). En definitiva hay que cuidar el etiquetado y agregar metadata.
  3.  
  4. Escribir granularmente para la Web:
    Una vez que tenemos buen CMS y buena arquitectura, el contenido con el cual poblamos el sitio debe estar bien titulado, tener destacados clave, contener hipervínculos a contenidos relacionados propios, estar seccionado en textos cortos y temáticamente estructurados en vez de textos largos. También es muy importante escribir inteligentemente la metadata, no solo llenar de palabras clave. Ver Tienes 5 Segundos por Juan Carlos Camus.
  5.  
  6. Actualización continua:
    Estar permanentemente agregando contenidos cortos de manera continua, distribuidos en el tiempo, en vez de textos largos una vez al año sirve varios otros propósitos interesantes, pero además es una señal para Google de que contenido probablemente está vigente. Ver If Content is King, Frequency is Queen.
  7.  
  8. Curaduría:
    Además de los contenidos propios, incorporar resúmenes propios de contenidos de terceros ayuda a que un sitio sea considerado una fuente válida sobre un determinado tópico. Muy importante, usar vínculos a sitios de terceros con rel="nofollow”. Más en Google.
  9.  
  10. Sitemap:
    Crear y subir a Google un sitemap en XML (algunos CMS hacen esto automáticamente o mediante un plug-in como este para Wordpress) podría ayudar, aunque no he visto evidencia.
  11.  
  12. Vincular desde otros sitios:
    ¿Para qué están los amigos? Un link desde sitios amigos relacionados contribuye mucho a que Google reconozca un sitio como una fuente de valor. Con este punto hay que tener el cuidado de no exagerar, porque crear sitios llenos de links para efectos de levantar ranking es detectado por Google y castigado en su ranking.
  13.  
  14. Vincular desde medios participativos:
    Publicar en forma manual y automática, por ejemplo en Twitter y Facebook, links bien titulados a nuestros contenidos, para lo cual primero hay que tener dichos contenidos publicados de las maneras descritas anteriormente. Esto además de que lo hace uno, si el contenido es de valor (clave en una estrategia de contenidos) lo harán los usuarios, y eso puede ser una fuente directa de tráfico importante, además de una señal para buscadores. Si bien medios como los mencionados suelen usar rel="nofollow" por defecto, existe evidencia de que el menos Google usa links publicados en Twitter como señal.
Comentario: la mayor parte de estas medidas exigen un equipo permanente de desarollo de contenidos web, sin el cual no hay no contenido de calidad ni actualizaciones de alta frecuencia.

8 claves para entender lo de #PRISM y el espionaje de EEUU al resto del mundo

  1. Hace más de una semana, el testimonio de Edward J. Snowden a los diarios Washington Post y Guardian reveló el nombre y algunas características de un servicio que usan autoridades de EEUU para espiar información privada vía Internet: PRISM.
  2. Desde los años 70 la NSA ha estado interceptando comunicaciones internacionales, para lo cual no necesita leyes ni permisos especiales. Lo que antes hacía mediante monitoreo de cables y conexiones satelitales de voz y teletipos, hoy hace mediante monitoreo de tráfico en rutas de Internet.
  3. El Escándalo en EEUU no es porque se espía al resto del mundo, es más bien porque la presentación revelada por Snowden muestra que lo hacen a través de compañías que mucha gente usa dentro de EEUU, lo cual ha desatado el fundado temor de que se espía también a los ciudadanos de ese país, lo cual requiere orden judicial.
  4. Las compañías involucradas se han apresurado en negar acusaciones de que autoridades tengan acceso directo a información privada de usuarios, aunque fuentes anónimas indican que ese acceso sí existe, para facilitar el trabajo, porque se producen miles de intercepciones al año.
  5. Las declaraciones de compañías como Apple, Google y Yahoo niegan acceso directo a servidores, pero no excluyen la posibilidad de que se intercepte tráfico que entra y sale a través de las conexiones Internet de dichas compañías.
  6. Estas declaraciones tampoco excluyen que las compañías faciliten acceso a dispositivos usuarios, por ejemplo a sus PC o teléfonos móviles. De hecho Microsoft Windows desde 1999 tiene un acceso conocido para la NSA que permite acceder a lo que hay en millones de PCs en todo el mundo.
  7. Testimonios recientes obtenidos por AP dan cuenta de que PRISM es solo una parte del sistema de vigilancia, que se guarda mucha información para análisis posterior y que de una u otra manera esto está sustentado mediante legislación vigente, aunque a punta de algunos decretos secretos.
  8. Snowden se habría refugiado inicialmente en Hong Kong, desde donde fue revelando más información, incluyendo cómo EEUU ha espiado a China a través de la Internet.
Fuentes: The Washington Post, The Guardian, BBC, NPR.

¿Estar o no estar fuera de Facebook en la web real?

Es un tema recurrente en espacios de conversación sobre social media: ¿puede una organización tener una presencia a través de una página Facebook o "fanpage" y no tener un sitio web fuera de Facebook?

Me parece que si bien puede ser legítimo y costo-efectivo en el corto plazo ahorrarse la web abierta, creo que hay 3 buenas razones por las cuales no hacerlo:

  1. Hasta en el nivel más micro, desarrollar una marca digital con encontrabilidad fuera de Facebook es valioso y la historia pesa. Aunque sea un negocio de barrio, la probabilidad de que aparezcas en búsquedas, que pueden incluir filtro por geolocalización, será mayor si estás fuera de Facebook.
  2. Hoy Facebook es como es (por ejemplo "gratis") en buena parte porque compite con la web abierta. Si permitimos que Facebook vaya monopolizando todo el contenido y ocurre con él un fenómenos de masa crítica, podríamos estar contribuyendo a generar un paisaje online totalmente controlado por Facebook, empresa que podría estar en todo su derecho de -por ejemplo dado el fracaso de si intento publicitario- cobrar por acceso, o cobrar por publicar. Sobre esto ha advertido Tim Berners-Lee, el inventor de la Web. ¿Recuerdan CompuServe, AOL, eWorld, etc.?
  3. Independiente de temas comerciales o sociales en relación a la web de largo plazo, en el corto plazo Facebook podría cambiar las reglas, hacer menos encontrable o incluso hacer desaparecer lo que publicas. Por lo tanto puede ser más inteligente invertir en un poco en crear un blog (que puede ser gratis) -ojalá con dominio propio (que también puede ser gratis)- y desde allí conectar con alguna webapp como dlvr.it para ir publicando desde dicho blog hacia Facebook o vice-versa. Esto aporta la ventaja de poder ver otras métricas y poder publicar también simultáneamente a otras plataformas, y si bien para los usuarios que viven en Facebook el resultado es el mismo no perdemos los potenciales propios de estar en la web real.