Cerquita Mío: producción multi-plataforma, multi-estudio

Volviendo a temas de sonido y música, me ha parecido interesante contar cómo se produjo Cerquita Mío, single de Jano Kemp.

Para hacernos una idea de cómo la Internet y la Ley de Moore han cambiado la producción, podemos imaginarnos cómo se habría hecho hace 15 años:

En la prehistoria, todo habría partido como demo en una grabadora de 4 pistas, una Tascam Portastudio como la que muestra la foto de Wikipedia (tuve una similar, pero no tengo fotos) habría permitido bocetear voz, guitarra y –mediante un proceso de mezcla y regrabación conocido como bounce o empaquetamiento– algunos coros y accesorios.

Si se contaba en ese entonces con un quemador, el resultado se podría haber enviado en CD, pero más probable es que se habría hecho copia en cassette, con su correspondiente ruido adicional, para que un arreglador conciba y escriba los arreglos. Las partituras resultantes –y más copias en cassette– se habrían hecho llegar a los músicos, para luego juntarlos a ensayar y grabar en un estudio de grabación, donde el proceso habría tardado un par de días, y con muy pocas posibilidades de corrección.

El estado del arte

Hoy el proceso es más versátil y granular, con la ventaja de generar desde el inicio audio de mayor calidad y que –si uno desea– se puede llevar hasta las etapas finales de la producción para ser aprovechado.

Pre-producción

Comenzamos grabando voz y guitarra simultáneamente, usando MOTU Digital Performer, programa especializado para trabajar sobre una grilla de tempo variable, transponer (cambiar de tono) y otras gracias. De esta manera, pudimos probar distintos tempos e incluso generar un bajo artificial usando la guitarra, para ir avanzando en la definición del producto desde el boceto.

El audio lo capturamos desde el principio en alta calidad con micrófonos Earthworks usando como interfaz y preamp la Mackie Onyx.

A partir de esa base, fuimos pinchando regiones, re-ordenando la estructura del tema y agregando coros que cantamos Jano y yo como referencia.

Arreglo online

Todo esto lo fuimos mostrando a los músicos sin necesidad de vermos presencialmente o enviarnos objetos físicos. Usando la "nube" de Movistar Chile fue posible subir los archivos a una carpeta compartida. Con la dirección de los archivos en un e-mail es fácil para el destinatario escuchar la última versión del demo sin necesidad de descarga.

Llevamos el boceto a Marcelo Vergara, quien tomó la misión de los arreglos. Usamos un formato llamado OMFI para llevar el proyecto a Apple Logic, plataforma sobre la cual Marcelo produjo cuerdas y reemplazó totalmente nuestros coros, ya que naturalmente él los podía hacer mucho mejor, incluso –y para nuestra total sorpresa– estando resfriado.

Los coros quedaron tan lindos que tomaron un rol importante en el arreglo, que habría sido muy difícil concebir antes de llegar al estudio si no fuera porque contábamos con la posibilidad de experiementar con tiempo.

Tanto mejor, que una vez Marcelo generó el sonido del piano y algunos accesorios, trasladamos nuevamente el proyecto de vuelta a mi ambiente para grabar los coros con él pero con la combinación Earthworks+Mackie, y sin resfrío.

De pre-a-pro

Paralelamente, Gonzalo "Chalo" González en Triana se hizo cargo de grabar batería, bajo, guitarras y percusiones (con Cristóbal Tobar, Rodrigo Galarce, Jano y Joe Vasconcellos, respectivamente).

Mientras, seguíamos mejorando los coros en Digital Performer. A pesar de que en Triana usan Pro-Tools, pudimos con bastante facilidad pasarnos los audios de las pistas entre los tres ambientes para ir avanzando. Gracias a eso, muchos elementos de la etapa de pre-producción se terminaron usando en el producto final, ahorrando tiempo en la etapa más costosa del proceso que podría haber sido Triana y facilitando el control estético.

Finalmente, Chalo grabó las voces definitivas y luego trabajó mezcla y masterización para generar el producto final de excelencia, adecuado al formato radial.

El single en su forma terminada ya está disponible en http://www.janomusic.info, se puede descargar en forma gratuita y ver el video.

Es cierto que hace 15 años también era posible trabajar así, pero inaccesiblemente caro; así trabajaban Pat Metheny y Peter Gabriel, pero hoy los estudios de grabación en casa –en combinación con los contextos más profesionales donde contamos con equipamiento y experticia que el músico no tiene en casa– es posible producir material de clase mundial sin tener que hipotecar la casa y un ojo.

#WikiLeaks ya tiene cientos de réplicas o "mirrors" en todo el mundo

Independiente de las interesantes reflexiones que podemos debatir en estos días sobre la necesidad y sanidad –o no– de que se filtre información cuyos responsables no desean hacer pública, lo que ha pasado con Wikileaks está revelando algo mucho más grave.

Sucede que nos hemos ido acostumbrando a la idea de que la Internet es "libre", en sentido de que sobre ella la censura es difícil, y también que es una red mundial en que ningún gobierno la controla. Y la verdad es que ni lo uno ni lo otro es cierto.

La Internet y todas sus aplicaciones, incluyendo la Web, dependen no sólo de infraestructura física que puede estar en cualquier país, para funcionar, depende además de software, y en particular de los nombres de dominio y direcciones IP, fundamentales para la operación normal de la Web en particular y la Internet en general, respectivamente.

Resulta que las entidades que controlan en última instancia la distribución y el uso de dichos nombres y números están sujetas a la legislación de territorio de donde están físicamente, Estados Unidos.

El gobierno de EEUU puede apagar Wikileaks

En la práctica, esto significa que si el gobierno de Estados Unidos así lo quisiera, podría desactivar no sólo nombres de organizaciones (o países completos), también redes IP determinadas, por ejemplo las que se usan hoy en Europa para identificar físicamente la infraestructura donde se ubica http//www.wikileaks.ch/.

En un primer esfuerzo de censura, la presión del Departamento de Estado hizo que Amazon descontinuara el servicio de hospedaje Web a Wikileaks. A continuación, la empresa Everydns.net donde vivía el dominio wikileaks.org también fue presionada, y excusándose por motivos técnicos desactivó dicho nombre. Como reacción, se propagaron rápidamente algunas direcciones IP como las siguientes:

http://46.59.1.2/,
http://213.251.145.96/.

Hasta el momento no parece haberse aplicado presión sobre ARIN y el acceso usando dichas direcciones aún es posible. Sin embargo como precaución, se está organizando la existencia de réplicas o "mirrors" de los contenidos para que sea más difícil evitar el acceso a ellos. Apareció primero una lista de mirrors al aire, que circuló por Twitter con la etiqueta #SaveWikiLeaks, y ahora existe una lista oficial compilada por la organización misma, donde aparecen más de 500 sitios al momento de actualizar este post.

Creo que sobre esto es urgente una reflexión mundial. Como ha dicho John Perry Barlow de la EFF, si pueden silenciar WikiLeaks, pueden silenciar a cualquiera. No pelees por Assange. Pelea por ti mismo".

El buen @claudio lo aterriza de manera un poco más extensa: "Lo que nos enseña Wikileaks, entonces, es la urgente necesidad de establecer condiciones legales adecuadas para proteger no sólo la libertad de expresión sino los derechos fundamentales en internet para tener una mejor democracia".

Tim Berners-Lee: algunos de los más exitosos habitantes de la Web amenazan sus principios

Continuando con las reflexiones sobre la necesidad de una Internet pública y abierta, recomiendo la lectura de uno de los últimos escritos de Tim Berners-Lee, el creador de la Web.

Berners-Lee fundamenta la importancia de poner freno a la parcelación de la Web y critica abiertamente a Facebook, Apple, medios de comunicación que están implementando muros de pago y el acuerdo de Verizon con Google.

Traduzco algunos párrafos para destacar:
La Web como la conocemos (...) está siendo amenazada de diferentes maneras. Algunos de sus más exitosos habitantes han comenzado a erosionar sus principios. Grandes sitios de conexiones sociales están amurallando información publicada por sus usuarios del resto de la Web. Proveedores de Internet inalámbrica se están viendo tentados a hacer más lento el acceso a sitios con los que no tienen acuerdos. Gobiernos tanto democráticos como totalitarios están monitoreando los hábitos de las personas conectadas, lo cual pone en peligro derechos humanos importantes.

Si nosotros, los usuarios de la Web, permitimos que estas y otras tendencias sigan sin resguardo, la Web podría fragmentarse en islas. Podríamos perder la libertad de conectar con cualquier sitio Web que queramos. Estos malos efectos podrían extenderse a los teléfonos inteligentes y tabletas, que también son portales a la extensa información que la Web provee.
El texto completo en inglés se puede leer en Long Live the Web: A Call for Continued Open Standards and Neutrality.

Dos amores, en realidad el mismo

La autorevelación o AR. Ese concepto, traído al primer plano de la escena Web en Chile hace unos días gracias a la presentación de Javier Velasco en #AIChile2010, me dejó pensando.

Y es que en la vida he tenido dos grandes amores profesionales: Por un lado la música, que me llevó a estudiar ingeniería en sonido y trabajar en produccón musical, conciertos y docencia, y por otra parte la Web, que me motivó a trabajar en empresas de Internet y medios de comunicación online.

Hoy conecté con lo expuesto por Javier y me di cuenta de que la Web social y la música tienen en común la AR.

La creciente alienación de la vida urbana creó un vacío de socialización que fue llenado por esta tecnología, donde cada usuario se exprese compartiendo, desde el chat 1-a-1 hasta los blogs, pasando por la fotografía –especialmente los autoretratos– y la posibilidad vía streaming de que cada uno de nosotros sea una radio o un canal de TV.

La música por su parte, siendo históricamente ritual de expresión y socialización, en términos estéticos también nutre la necesidad de autorevelación, especialmente a través de la canción, pero también mediante lo instrumental. Para quién no es músico, la música se presenta como una instancia –algunos dirán la excusa– para meditar y reflejar pensamientos y emociones, de ahí el éxito de la canción capaz de generar identificación con las experiencias cotidianas que nos importan.

Todo esto es quizás bastante obvio, y no se por qué hoy me dio por compartir esta reflexión en voz alta. Quizás para revelar algo más personal: que a pesar de entender y trabajar en estos dos ámbitos, no he logrado mucho aprovechar dicha doble militancia de experiencias y trabajar en muchos proyectos que combinen la música y la Web. Así que ya tengo algo más en que pensar :-)

La necesidad de Internet y Web pública

Hace exactamente una semana el buen Herbert Spencer publicó su reflexión: Internet como Bien Público. Herbert postula que necesitamos contar con una Internet que no esté condicionada al interés privado, lo cual implica desacoplarla de un modelo de servicio centrado en el lucro.

Estoy completamente de acuerdo, y no sólo en cuanto a infraestructura física, también respecto a sistemas de gestión de información Web.

Con el creciente poder comunicacional en manos privadas poco diversas, es antidemocrático que no haya plataformas de comunicación social que pertenezcan a la ciudadanía, porque el conflicto de interés en el privado es inevitable y no está sujeto a fenómenos de centralismo democrático o alternancia, la concentración de propiedad no se puede controlar por decreto y tiende a ocurrir inevitablemente bajo el modelo desigualitario de la sociedad neoliberal.

Y esa concentración tiene riesgos múltiples. Por ejemplo: si mañana una empresa en EEUU –o el gob. de ese país– decide que los blogs que hablan contra el proyecto minero Pascua-Lama atentan contra sus intereses, podrían perfectamente censurar la información, negar servicio o por último dificultar la circulación de dicho contenido.

Es conocido el caso del periodista Shi Tao con Yahoo, empresa que presionada por las autoridades chinas entregó información privada que se usó en su contra para aplicar la pena de cárcel. Irónicamente, lo que Shi Tao envió en un correo era la solicitud que el gobierno chino le hacía a la prensa de censurar determinados temas.

Herbert propone una solución revolucionaria: implementar una Internet basada en protocolos mesh o de enmallado, donde la red se construye en base a nodos libremente interconectados entre usuario y usuario o peer-to-peer, y no a partir de redes privadas que centralizan el acceso, a lo q estamos acostumbrados hoy.

En esencia, podríamos conectar todos nuestros routers wi-fi entre sí, sobrepasando la necesidad de conectarlos a través de la red comercial, por la cual estamos pagando. Es una posibilidad alucinante, pero todavía utópica técnicamente, hay asuntos sobre la administración de dichas redes que aún no han sido resueltos, y el contenido –la Web– está hoy en redes comerciales.

Las redes enmalladas, además de características técnicas muy interesantes en lo académico, tienen una ventaja no despreciable: son prácticamente gratuitas ya que en esencia se autosustentan. Esto las hace muy atractivas para la masificación del acceso.

Pero aunque tuviéramos redes mesh gratuitas, eso no solucionaría la vulnerabilidad del contenido en plataformas sujetas a control de particulares: ¿Quién va a costear granjas de servidores Web, su administración y energía, para alojar contenido que no tiene interés comercial?

Internet de los ciudadanos, para los ciudadanos

Propongo entonces que –aunque el camino de la peer-to-peer Internet no debe ser abandonado, la solución hoy es más sencilla: que el Estado invierta en infraestructura para el bien del país.

Es perfectamente factible (y se ha demostrado en casos como el de Estonia) que una red "tradicional" IP pero administrada en función del bien público y no del lucro privado puede entregar conectividad clave para el desarrollo.

Hay abundantes razones para que un país cuente con su Internet pública propia, entre ellas está asegurar comunicación en caso de emergencia (se demostró en febrero que los servicios privados no están a la altura), y ser alternativa pública para provocar mejor competencia por parte de privados (lo que ocurre en Chile con FoNaSa y las ISaPres, similar a lo que sucede en Europa entre prensa estatal y privada, etc.).

Pero la Internet no es lo mismo que la Web

Debemos ir más allá, asegurar no sólo de conectividad pública, también aplicaciones sobre dicha red pública, por ejemplo un sistema nacional de participación ciudadana, que de estar en manos de privados sería tan riesgoso como privatizar la Cámara de Diputados o el Ministerio de Justicia.

La Internet –y la Web– quieren ser libres
Actualización nov. 01 del 2010:

Conversando con Katina Ferrer (@katinita) sobre algo que ella está estudiando, entendí que además de razones de ciudadanía y Estado, hay razones de fondo que guardan relación con lo que se representa culturalmente en la Internet, que a pesar de sus inicios como tecnología militar fue rápidamente adoptada por personas y grupos que creen en la igualdad.

Esto se puede observar en sus explosivos inicios en el ámbito académico y también en la concentración de una contracultura que trasciende el consumo de gadgets y valora libertad de información y calidad de vida, ejemplos son el histórico BBS WELL (Whole-Earth Electronic Link System) y la revista Wired (en ese tiempo Hot Wired) en sus inicios.

Esa cultura se refleja hoy en inciativas como Wikileaks y el movimiento Linux. Podríamos postular que el inconsciente colectivo de la Internet tiende a eso, es una coherencia técnica y cultural cuya luz estamos recién comenzando a ver con la mal llamada "Web 2.0", y que podría evolucionar hacia alguna forma de inteligencia colectiva con la Web Semántica o 3.0. Seguro Herbert pensaría en la singularidad.

Insisto entonces, hay razones múltiples por las cuales debemos contar con una Internet que tenga al menos una parte basada en lo público, en lo referente a la propiedad, no sólo al acceso público.

¿Qué tiene de malo subrayar texto?

¿Qué tiene de malo subrayar texto?

La próxima jugada de Jobs: suscripciones en el "quiosco" de Apple

El Wall Street Journal y Bloomberg dicen que Apple ya está en conversaciones con editoriales para ofrecer suscripciones a diarios y revistas para el iPad a través de iTunes.

Desde el año pasado ya se podía intuir, Apple podría hacer por el video, la literatura y el periodismo lo que hizo por la música, y en cuanto al periodismo se está vislumbrado un proyecto de Apple centrado en el iPad, pero que podría abarcar toda su gama de dispositivos con iOS.

Si bien editoriales grandes y pequeñas han creado aplicaciones de sus marcas para la plataforma móvil de Apple, existe la inconveniencia de obligar una transacción para cada capítulo nuevo, no existía hasta ahora mecanismo de suscripción en la plataforma de Apple, lo cual podría cambiar en el plazo de meses, según Bloomberg.

Personalmente creo que las editoriales están equivocadas al apostar por las tablets como una manera de monetizar contenido por el cual ya compiten en gratuidad, pero la jugada de Apple de aprovechar ese movimiento y crear la posibilidad de la suscripción es hábil y podría ser aplicable no sólo a texto, también a video (series) y audio (podcasts), abriendo el camino para que vía iTunes se pague –por ejemplo– por educación a distancia.

El "quiosco" sería similar al iBookstore, pero enfocado en suscripciones en vez de fascículos individuales. Apple además estaría trabajando en tecnología para facilitar a editoriales migrar contenido desde sus plataformas de producción de impresos, agregando valor agregado mediante video HD y otros medios.

Y sí, es posible que algunos de los 160 millones de usuarios de Apple caigan en pagar por suscripciones, y eso le encantará a los conglomerados mediales, aunque sería –insisto– un respiro de corto plazo. Salvo que se ofrezca una funcionalidad muy diferente, la experiencia que entregan sitio Web en el iPad puede ser tanto o más satisfactoria que aquella ofrecida por aplicaciones nativas de contenidos.

El contrasentido al hablar de lo "viral" en medios participativos

Desde que se viene usando "viral" pare referirse al fenómeno de la propagación de contenidos vía Web que me ha molestado el término. Gracias al buen José Antonio Vargas comprendí por qué.

Según cuenta, e inspirado por el notable Henry Jenkins y en relación a Susan Boyle, la razón es muy sencilla:

En lo viral, un virus se apodera de un organismo a la fuerza, contra su voluntad, sin consentimiento. Esto es todo lo contrario a la propagación prácticamente neural que ocurre en la Web social:
"Se habla mucho de que cosas se vuelven 'virales' online. Pero 'viral' sugiere que alguien ha creado un virus y que la gente los transmite sin saberlo, como si no tuvieran la opción de hacerlo. Pero eso no es lo que realmente está pasando con Susan Boyle" dijo Jenkins a José Antonio hace más de un año.
"Lo que realmente estamos viendo con Susan Boyle de una manera potente es el poder del 'spreadability'", agregó Jenkings.
Aún no se si la mejor palabra para traducir eso es propagabilidad o esparcibilidad. Ninguna de las dos es más cómoda de decir o escribir que "viral", pero creo que ambas son más correctas.

Si un contenido es altamente esparcible y se hace presente en una plataforma con alta sociabilidad o mal llamada "2.0", ocurre algo maravilloso: los usuarios comparten lo que les interesa, lo que consideran de valor para si mismos y los demás, lo que creen o saben que sirve. Esto es es clave en la inteligencia colectiva y no tiene relación alguna con los virus.

Cuota de música chilena en radios chilenas: una buena idea

Desde el 2007 que da vueltas el proyecto de regular a concesiones radiales para que cumplan un mínimo de emisión de música local. Ahora que el proyecto fue aprobado en la Cámara de Diputados ha surgido un debate bastante amplio sobre el tema.

Algunos creen que es mala idea, tendrán sus argumentos, que no me han logrado explicar. Yo tengo varios argumentos a favor que expliqué en El Quinto Poder, salió un poco largo, aquí voy a resumir puntos principales:

Hacer más justas las condiciones

La música local no está en igualdad de condiciones respecto de la música instalada mundialmente: Se estima que hoy Universal, Sony y Warner controlan más del 75% del mercado musical, invierten cantidades descomunales para promocionar unos pocos productos y lo hacen a través de sus filiales de TV y radio, en una suerte de dumping y negando espacio a los que no forman parte de su negocio.

Favorecer desarrollo económico local

Cada vez que se emite por radio (y TV) el trabajo de un autor o intérprete de otro país, los derechos que se recaudan se van del nuestro, corresponden a un tipo de importación que no crea trabajo ni paga impuestos locales. Cuando se emite contenido de orígen local sucede lo contrario, se mueve la economía local y no sólo el bolsillo de autores e intérpretes.

El ejemplo canadiense: MAPL

Rush, que visita Chile por estos días, es un ejemplo de cómo una industria fortalecida ayuda a que la música se exporte. También Neil Young, Celine Dion, Adrian Belew, Bryan Adams, Daniel Lanois, Joni Mitchell y otros conocidos mundialmente han podido desarrollar sus carreras gracias a la ayuda primero impuesta pero hoy orgullosa de los medios de su país.

El proyecto local es modesto pero bienvenido

La idea no es nueva y Canadá no es una excepción. mecanismos similares existen o han existido en Argentina, Brasil, Israel, Jamaica, México y Sudáfrica. En Francia y el Reino Unido existe cuota desde hace un tiempo, y ahora se ha extendido a la Unión Europea. En la mayoría de estos casos la cuota mínima es mayor a un 25%, llegando a un 50%. Lo que se propone en Chile es sólo 20%, con distribución horaria que podría quedar en 10% de día y 10% de noche. Se estima que hoy transmiten entre 8% y 11% de música local.

Los detractores no tienen argumentos

La Asociación de Radiodifusores de Chile se ha manifestado en contra, declarando que hay "mecanismos mucho más proactivos y eficientes para estimular la difusión de música chilena", aunque no los especifican ni parecen aplicarlos.

Apelando a la ignorancia impuesta por ellos mismos sobre el contenido local, las radios dicen que la cuota les resta libertad editorial. Ellos saben y muchos también sabemos que existe música chilena del más amplio espectro, que sin estar respaldada por la promoción de los grandes sellos es de clase mundial e incluso de culto en otros países.

Copesa, la empresa de medios dueña de La Tercera y al menos cinco radios FM, también lo sabe, pero no desaprovecha su diario para decir que la cuota obligada en favor de la música chilena es una "arbitrariedad". Curiosamente Copesa nunca se ha opuesto a descuento obligado para ISaPres y AFPs de los sueldos de los chilenos, quizás esa arbitrariedad es un poco más de su interés.

Naturalmente Copesa, la ARChi y otros ligados con el negocio radial evitan mencionar que en Chile la TV de libre recepción está obligada por ley a emitir un 40% de contenido local (cuenta Gonzalo Maza).

En cualquier caso, incrementar la difusión de la música chilena vía radios y de esa forma facilitar su acceso no niega que haya también otras maneras de fortalecer la industria. Pero esta es una que ha demostrado ser efectiva repetidamente, su valor por lo tanto es indiscutible.

El mito de que la música local es mala

Esto es muy curioso, lo he visto esgrimido como uno de los argumentos. Por suerte mis aventuras en lo de componer música han sido pocas y las de interpretar menos aún, no me siento aludido y hablo más como observador:

Conozco mucha música chilena bien hecha técnicamente, significativa e interesante o simplemente entretenida estéticamente, hay de todo. Y claro, ha sido la celebrada excepción poderla oír en nuestras radios o TV. Este argumento lo que hace es darle la razón a la cuota, porque demuestra ignorancia sobre buena producción local.

Obvio que también hay música local mal hecha, fome, etc., eso sucede en todos los países e incluso entre la música producida y promocionada por los grandes sellos mundiales, pero en el estado actual de poca difusión no hay oportunidad para que la música local buena o mala compita ante la audiencia y se refine gracias a dicha competencia.

Incluso le conviene a las radios locales

La razón es evidente: la oferta de radios vía Internet, hoy una de las principales competencias de las radios, prácticamente no incluye contenido local (de aca). Incrementar la presencia de música más cercana culturalmente a la audiencia puede ayudar a las radios a conectar con su público. Eso lo comprendió la misma Copesa, que con Radio Uno demuestró que la música local puede ser incluso un buen negocio.

Una vez asumida la cuota, los programadores de radio en vez de seguir ciegamente rankings internacionales descubrirán que había una riqueza insospechada de música al alcance de la mano.

Similarmente, periodistas que cubren música descubrirán que músicos locales están mucho más alcance como fuente, para entrevistas y todo tipo de coberturas, en comparación con los de la escena extranjera. No más viajes a Londres, menores costos para el periodismo, mejor negocio para los medios.

Al final del día es un asunto bastante simple. Los dueños de las radios insisten en que quieren tocar música chilena y que no necesitan una ley, entonces su posiciñon no resiste lógica: si las radios realmente quisieran transmitir >20% de música chilena, pasarían tres cosas: (1) ya lo harían, y (2) no necesitariamos una ley de cuotas para que lo hagan y (3) la ley no les afectaría en lo más mínimo.

No me quiero extender demasiado, si el tema te interesa en profundidad puedes leer lo que escribí en El Quinto Poder, pero sí quiero aprovechar de citar algunos comentarios y contestar algunas preguntas que surgieron en Twitter sobre el tema:

@earriagada: "esa restricción limita capacidad de segmentación de un medio, su libertad para diferenciarse, condiciona al análogo y no al otro".
Respuesta: hay música local suficiente para la más amplia segmentación, además con música local o del mundo las radios no pueden competir con la segmentación que hay en Internet, por ej. la red de AOL/Shoutcast tiene más de 30 mil canales.
@nicorojasc: "Si no toco música, tengo la obligación? pongo la música entre 3 y 5 de la mañana?"
Respuesta: En Canadá eso se solucionó definiendo un horario para cumplir la cuota. En el proyecto chileno se propone su distribución en dos franjas, lo cual podría quedar en algo así como 10% diurno y 10% nocturno.
@jamestica: "independiente de calidad no me parece que nos tengan que decir que escuchar, menos en un estado democrático y mas aún en uno que cree en el libre mercado y su autoregulación".
Respuesta: Concesiones radiales consisten en la asignación de un bien de uso público para la prestación de un servicio comercial. En función del desarrollo social, es natural que Estado como socio tenga injerencia en cómo se usa. Si un radiodifusor no está conforme con las condiciones de esta sociedad, tiene libertad para emitir por otras vías: por ejemplo puede pagar distribución de su programación vía Internet o satélite. Desde el punto de vista del usuario lo mismo: la radio de libre recepción no es la única manera de acceder a música, hay varias otras y todos estamos en libertad de pagar por ellas. Por otra parte, la radio ya te está diciendo qué escuchar.
También algunas opiniones a favor interesantes:

@PatriciaReichel: "esto tambien ayudara a que haya mejor musica chilena y mas competencia, es motivador".

@pmorrisk: "apoyo ley del 20% de música chilena. a veces hay que intencionar con políticas públicas bienes comunes que el mercado no genera por sí solo".

@carolaurrejola: "Yo sólo sé que la poca valoración de la música chilena es dramática. Y que países con cultura musical densa tienen cuotas".

@pablobello: "No conozco el proyecto en detalle, pero en principio estoy de acuerdo con una cuota para la música chilena".

En fin, la conversación aún está abierta, el proyecto está en curso y podría recibir indicaciones antes de su aprobación final en el Senado chileno. Hay bastante opinión reactiva dando vueltas, quizás falta más reflexión y antecedentes, porque el tema no ha sido tratado con mucho detalle por los medios de comunicación tradicionales. Por supuesto eso no debe tener relación alguna con que los medios tradicionales y sus periodistas especializados en música tengan intereses involucrados, cierto?

Explicito mi interés: trabajo en el ámbito de la producción musical y soy titular de derechos de autor de canciones.

Sí, Twitter es un medio: la noticia ya no le pertenece sólo a los periodistas

Me topé con una entrada interesante en innovasocial.com preguntando si Twitter es o no un medio.

El autor pone el punto sobre la i cuando cita el estudio Kaist de la siguiente forma:
"al margen del debate puramente periodístico, es que gran parte de los usuarios de Twitter sí lo utilizan como medio de información".
Luego cita a Comscore como fuente para establecer que:
"por el uso que le dan sus más de 100 millones de usuarios, más que como red social se trata de un medio de información en sí".
Tenemos entonces al parecer una definición empírica, la cual algunos podemos confirmar con nuestra propia experiencia: crecientemente Twitter se va transformado en la portada que usamos para enterarnos de lo que está pasando. No sólo con amigos y conocidos, también con ámbitos profesionales, de entretención, con la ciudad donde vivimos, el país y el mundo.

Francisco Bartolomé menciona además que mucha de la información que circula por Twitter proviene del periodismo profesional, y que por lo tanto Twitter no sustituye dicha actividad. Si bien tiene cierta razón, creo necesario profundizar y propongo que los cambios que Twitter y plataformas similares provocan están recién en sus inicios. Hay dos tendencias a las cuales el periodismo profesional debe adaptarse:

La noticia ya no te pertenece: definir la pauta diaria, el qué es y qué no es importante, ya no está dado sólo por el olfato editorial o la proyección de fenómenos contingentes que el periodista puede extrapolar: Twitter es un indicador y un editor colectivo de ello, una manera en que los usuarios definen qué es noticia, a través de aquello que la compañía ha nombrado resonancia.

Ya no basta con ser intermediario: pues a través de esta red los usuarios y fuentes se comunican directamente. Un buen ejemplo en Chile es lo que ocurre con la Oficina Nacional de Emergencia y la Cámara de Diputados. Ambas entidades informan oportunamente al país sobre temas de su competencia, y uno puede ver esa misma información minutos, horas y a veces hasta días después, a través de versiones Web, TV, radio o papel de medios tradicionales.

Esta situación exige que el periodismo profesional aporte valor agregado, en la forma de investigación, contraste, contexto, de lo contrario los usuarios vamos accediendo directo a las fuentes y el trabajo periodístico se va haciendo irrelevante, pues si es por mera agregación de contenidos Twitter lo hace mejor, integrando de manera granular lo que el usuario considera sus fuentes preferidas, sean profesionales, amateur, personales, etc.

El ejemplo que he mencionado sirve para profundizar más la tendencia de la desintermediación, pues ¿qué evita que los ciudadanos informen directamente las emergencias y los parlamentarios comuniquen directamente sus proyectos, activivdades, denuncias? Nada, y eso es precisamente lo que está pasando, por lo tanto dichas instituciones también harían bien en generar valor agregado en su comunicación, un rol típicamente ejercido también por periodistas.

Lo más interesante quizás es que este desafío puede hacerle muy bien al periodismo, incrementando el rol del periodista como alguien que analiza, depura, combina y conjuga datos para crear información nueva, cualitativamente diferente a la que ya había en otra parte, creando valor.

Así, Twitter podría no reemplazar totalmente a los medios tradicionales (aunque en mi opinión sí reemplaza sus portadas), y más bien ser la capa de inteligencia colectiva social que selecciona y propaga el trabajo periodístico, además de su evidente valor de alimentar al periodismo con testimonios y otras señales de lo que ocurre.

Recapitulando: en este nuevo medio (en el más amplio sentido de la palabra) las informaciones periodísticas compiten y se combinan con información directa desde las fuentes, opiniones, testimonios, puntos de vista, recuerdos y tal, así y va naciendo un tejido inteligente, entrelazado, trascendiendo orígenes, métodos, roles, etc., de manera similar a cómo se forma nuestra percepción de la realidad al interior del cerebro.

En dicha competencia, si el periodismo tradicional no se actualiza, pierde. Un ejemplo es lo ocurrido con el movimiento ciudadano que desarticuló la construcción de una central termoeléctrica cerca del santuario natural de Punta de Choros, el tema hizo ebullición en las plataformas online antes que en los medios de comunicación tradicionales. la pauta la hicieron los usuarios, no los editores o directores de medios periodísticos.

Mi respuesta titular a la pregunta de Francisco Bartolomé es un tanto provocativa, y pienso que si bien técnicamente Twitter se puede considerar un medio en algún sentido y en otro no, lo relevante no es la plataforma –metafóricamente más cerca del hardware–, lo importante somos nosotros, la red social que viene a ser como el software que corre sobre Twitter (o sobre Facebook, o sobre Tumblr o lo que sea). Nosotros somos un medio, todos.

La metáfora perfecta: para los medios tradicionales las tabletas y apps son el nuevo CD-ROM

Ya había oído mencionar el concepto antes y citado muchas veces, pero Iván Adaime lo explica de la mejor manera que he visto hasta ahora en castellano.
"El problema no son las tabletas, sino lo que despiertan. Algo así ya había pasado, en 1994 cuando el mundo del CDROM parecía ser "el pasaporte al futuro" para las revistas y los medios tradicionales, tal como nos lo recuerda Scott Rosenberg. Las expectativas en uno y otro caso, comparten, con casi 20 años de diferencia, la misma desmesura."
Más adelante precisa, respecto a la idea de que los medios digitales requieren una nueva narrativa, lo siguiente:
"Si bien ya hay esbozos de una narrativa hipertextual, caracterizada por el uso de links, soportes embebidos, participación de los usuarios, estamos todavía en ese tiempo de transición. Quizás un soporte nuevo pueda ayudar, pero no alcanza. Y la metáfora de lo impreso sigue siendo fuerte aun en las aplicaciones diseñadas para el iPad, que cuenta con una interfaz superadora de la del escritorio.

Como en los CDROM de 1994, por detrás está la misma idea de empaquetar diferente el mismo producto. En su momento no fue suficiente con el "agregado multimedia". Es difícil pensar que eso mismo alcance hoy, cuando, encima, las audiencias ya no son lo que eran."
Imperdible, el texto completo está en VisualMente, y creo se puede complementar con la siguiente idea:

El concepto es aplicable no sólo a la tableta como soporte físico, también a la aplicación como soporte de software.

Hay medios tradicionales que están intentando que los usuarios paguen y vivan dentro de sus parcelas de software o "apps", lo cual me parece insustentable porque el valor agregado es muy poco y el valor restado es muy grande, efecto que se agrava especialmente si cobran por dichas parcelas y/o incrustan publicidad (caso Wired). Esto es más amplio que las tabletas porque las apps van apareciendo también en teléfonos móviles, escritorios y televisores.

Pero a medida que las aplicaciones integren funciones sociales, conecten con la Web abierta y entreguen más valor agregado, hay posibilidades de éxito. Lo más probable es un punto medio, en que el HTML5 se irá utilizando cada vez más para proveer interfaces altamente usables, sin tratarse de aplicaciones nativas para diferentes plataformas. De hecho –desde el punto de vista del diseño– cualquier sitio Web es una aplicación. Desde el punto de vista de algunos sistemas operativos (ej., iOS), también.

La tecnología que habría permitido estar comunicados con mineros desde el día 1: ELF

No se necesita tener el prespuesto de la OTAN, ni siquiera el de Codelco, basta el ingenio de un joven de 16 años para comunicarse a medio km de profundidad.

Alexander Kendrick tiene 16 años y creo un sistema de frecuencia extremadamente baja (ELF) que permite enviar mensajes de texto desde las profundidades.

Con un equipo basado en ELF en cada refugio minero, la incertidumbre e incomunicación que sufrieron 33 mineros sepulados en la mina San José y sus familias se había podido evitar desde el día 1.

En la foto se aprecia la antena del sistema, instalada en el fondo de una cueva desde donde Kendrick transmitió exitosamente un mensaje con la palabra "Happy":


Más info en popsci.com.

La tecnología existe ya en la forma de productos para la minería (link a ScienceNew hallado por @hvergara)

Tres maneras de acelerar un iPhone 3G... y una cuarta

Como algunos saben, soy feliz usuario de un iPhone 3G, y si bien Apple se ha esmerado en mantenerlo usable por el mayor tiempo posible, con cada actualización de software se va poniendo un poco más lento. Entonces quise ver cómo se podía mejorar el rendimiento.

Antes que nada: ninguno de estos hacks para acelerar el iPhone tiene resultados muy dramáticos, aunque la suma de ellos puede resultar notoria. Si estás obsesionado con que el iPhone ande más rápido, no le pongas el iOS 4 y punto.

Pero si ya lo hiciste, hay varios buenos tutoriales de cómo hacer downgrade a 3.1.x que Google te ayudará a encontrar.

Personalmente, me gusta el iOS 4 por algunas mejores en Exchange y otros detalles, así que mi objetivo era sacarle el mejor partido posible sin hacer downgrade, y descubrí varias cosas interesantes:

1: activar la multitarea, pero no la de Apple

Es posible –luego de hacer Jailbreak [Google]encender o apagar a voluntad la funcionalidad multitarea de iOS 4, pero en las pruebas que he hecho me ha resultado mejor la multitarea mediante Backgrounder, disponible gratis vía Cydia. Es curioso que funcione mejor que la multitarea de Apple, pero no cabe la menor duda de que es así.


Para mantener el rendimiento bajo control y convertir la multitarea en una mejora y no un retroceso, se pueden tomar las sigiuentes medidas en Backgrounder:

  • configurarlo en Global/Off para que solamente las aplicaciones que queramos se establezcan en modo multitask,

  • agregar entradas en Override para cada aplicación que sí queremos que funcione en segundo plano y de apertura rápida: por ejemplo en mi caso lo tengo configurado para Echofon y los programas que reproducen audio.

El resultado es que Echofon se abre de manera casi instantánea, y al dejar la aplicación configurada para que no actualice automáticamente, cuando está en segundo plano no consume rendimiento del sistema.

El mismo concepto se puede aplicar a otros programas, aunque obviamente si dejamos muchos abiertas podríamos tener problemas. Precisamente por eso Backgrounder es mejor que la multitarea nativa de iOS 4, al permitir que sólo algunas aplicaciones específicas queden abiertas.

2: desactivar procesos innecesarios

Una manera más concreta de mejorar rendimiento es desactivar procesos en segundo plano o "demonios" (jerga Unix) que no cumplen un propósito que nos importe. Las instrucciones en detalle están en modMyi y en resumen consisten en borrar archivos que gatillan dichos procesos, en /System/Library/LaunchDaemons

Borré sin problemas los siguientes, que están bastante documentados y se pueden sacar con bastante seguridad. Recomiendo hacer lo mismo pero primero respaldarlos en alguna parte por si algo sale mal:
  • com.apple.aslmanager.plist (gestiona logs del sistema)
  • com.apple.chud.chum.plist (al parecer tiene que ver con CHUD: Computer Hardware Understanding Developer y no debería causar problemas salvo que estés usando herramientas de desarrollo de Apple)
  • com.apple.chud.pilotfish.plist (similar al de arriba)
  • com.apple.CrashHouseKeeping.plist (se ocupa de caídas del sistema)
  • com.apple.DumpPanic.plist (similar al anterior, informa a Apple de caídas)
  • com.apple.ReportCrash.* (se trata de cinco o seis procesos que monitorean e informan caídas)
  • com.apple.syslogd.plist (registra "eventos de sistema")
Aventurando un poco más también desactivé los siguientes:
  • com.apple.tcpdump.server.plist (al parecer habilita algún tipo de sniffer, lo eliminé sin problemas)
  • com.apple.mobile.profile_janitor.plist (NPI*, pero lo eliminé y todo siguie igual)
  • com.apple.mobile.storage_mounter (parece ser el encargado de montar volúmenes externos con el kit de conexiónes de Apple, si no tienes dicho accesorio no necesitas este proceso)
  • com.apple.stackshot.server.plist (NPI*, pero también lo eliminé y todo siguie igual)
  • com.apple.racoon.plist (para VPN, si no usas redes privadas virtuales puedes eliminar el proceso)
  • com.apple.AOSNotification.plist (proceso para MobileMe, si no usas dicho servicio de Apple puede eliminarlo)
  • com.apple.AdminLite.plist (al parecer detecta si el dispositivo se "queda pegado" y devuelve el control al usuario. Lo puedes eliminar y usar la combinación de teclas de encendido+home para hacer reset si el iPhone se congela alguna vez, cosa muy rara en iOS)
Quizás has leído que Spotlight (función de búsquedas que poca gente usa) hace más lento el iPhone y has desactivado todos los items en en Settings/General/Spotlight Search. Esto posiblemente baja el tamaño del índice, pero en realidad no desactiva el proceso. Lo puedes eliminar totalmente para ganar otro poco de rendimiento borrando el siguente archivo, también en /System/Library/LaunchDaemons:
  • com.apple.searchd
3: aumentar la memoria disponible

Por último –y mucho más arriesgado– hay dos medidas que pueden ayuda a aumentar memoria real y virtual.

Es posible liberar espacio y ganar algo de rendimiento desactivando paquetes de idioma que no uses. Esto se puede hacer a mano pero sería un trabajo de horas. En sinfuliphone hallé el siguiente script, que ejecutado en la raíz vía SSH deja sólo los archivos de interfaz de usuario para inglés y japonés. Si no tienes problemas en usar el iPhone en inglés te podría servir:
  • for file in `find . -type d -name "*.lproj" -not -iname "en*.lproj" -not -iname "ja*.lproj" -exec echo {} \; | sed -e 's/\.\///'`; do rm -vr ./$file ; done
Tardará un par de minutos. Si no sabes lo que es SSH ni lo que es la raíz, no lo hagas, y deberías hacerlo cada vez que actualices los programas.

Por otra parte y según me mostró Jose Luis Benavente, es posible activar la función de memoria virtual de OS X, que por defecto viene desactivada en el iPhone. Aunque hay otras maneras, yo lo logré agregando un archivo /System/Library/LaunchDaemons/com.apple.dynamic_pager.plist

Este archivo enciende el proceso que gestiona la memoria virtual, lo cual es interesante porque el sistema operativo automáticamente relega a "disco" el contenido en RAM correspondiente a procesos de menor actividad, dejando la RAM real para procesos más activos y por lo tanto generando un posible incremento del rendimiento, pero sólo debería hacerlo cuando el uso de memoria sobrepase la memoria real.

Nota: todas estas mods requieren que se haya aplicado jailbreak. Hurguetear a este nivel –además de invalidar la garantía del teléfono– podría hacer que se borre toda la información contenida en el iPhone o incluso dejarlo en estado de "ladrillo", así que antes de meter mano lee bien las instrucciones que hay en la Web, respalda tus datos y prepárate para hacerte cargo si algo sale mal. Dicho de otra manera: no lo hagas si el iPhone no es tuyo, por ejemplo.

Otra nota: si bien experimenté con el iPhone 3G con iOS 4.0.2, estos trucos pueden servir también para aumentar el rendimiento en otros modelos de iPhone, lo cual podría entregar resultados espectaculares en los modelos 3GS y 4.

De particular interés sería apagar el modo multitarea nativo en ellos y reemplazarlo por Backgrounder para ver qué sucede. Para apagar la multitarea nativa en iOS 4 en un iPhone 3GS o 4 se puede abrir /System/Library/CoreServices/SpringBoard.app/N82AP.plist y justo después de donde dice multitasking cambiar el true por false. Similarmente, al revés se puede activar la multitarea nativa de iOS 4 en el iPhone 3, pero he comprobado que no vale la pena, Backgrounder funciona mucho mejor.

Los 3 trucos que he mencionado vienen de antes de la existencia de iOS 4 y se pueden aplicar en iPhone OS 3.x también, aunque no lo he comprobado.

Una vez hechas las modificaciones, es recomendable hacer el famoso "DHR" (por Double Hard Reset en inglés, significa reiniciar el teléfono mediante combinación de teclas dos veces seguidas). Hacerlo ejecuta utilidades de autocorrección del sistema, similar a lo que sucede cuando Windows y Mac OS X se auto-revisan al reiniciarse después de un error.

Llevo una semana usando el iPhone con algunas de estas modificaciones y siento que está tan rápido (o tan lento, según el punto de vista) como cuando le puse 3.x, lo cual es indudablemente un avance.

4: la manera más rápida de acelerar un iPhone

Existe una cuarta manera, ideal si estás muy frustrado con su rendimiento: 9.81 metros por segundo al cuadrado es la aceleración natural ejercida por la gravedad terrestre. Ello se aprecia bien desde un lugar algo, lo que puede resultar en un efecto más dramático. Pero antes de recurrir a dicha medida extrema, mejor regálalo a alguien que lo necesite y cómprate un modelo más veloz.

*NPI: Ni puta idea.

BGAN: video streaming from anywhere

Since the world was young and the Internet was an experiment, vía satellite has been synonymous with large events and budgets. Only big news companies were able to afford to transmit live from anywhere, anytime. Now we all can.

With the increasing presence of terrestrial microwave, fiber and mobile voice and data services, the exclusiveness of live coverage has diminished, but if I had been told just a few years ago that I could do live video from anywhere using a device the size of a laptop and for an accessible price I would not have easily believed it.

Let me stress the anywhere part, it's not an exaggeration. This is not the kind of "anywhere" that we are used to as in mobile phones, this is a valley in the desert or the top a mountain, hundreds of km offshore or even onboard an airplane.

So when Globalsat Latam offered me the chance to test their service I just couldn't resist.

Moore's Law has made it to Clarke's Belt*

Thanks to advancements in telecommunications hardware and software we can now use a repeater 35 thousand km away to transport a video stream, and since it's Internet technology there is no need to worry about feeding the downstream somewhere and re-encoding the video.

The setup was simple and similar to commonplace streaming using personal electronics: a camera, a portable computer and cloud services like UStream make it possible; the satellite link makes it possible from anywhere.

My test involved a Sony PDX10 DV camera in it's native 16:9 mode, linked through Firewire to an Apple MacBook Pro with OS X and the free version of UStream Producer. This program talks directly to a Ustream.tv user account, allowing real-time webcasts that can be watched by a practically unlimited audience on the web. The PDX10 generates very low noise images, something especially important when using low-bandwidth codecs.

Shared bandwidth

The lowest quality available UStream preset requires a 200 Kbps upstream. The Hughes 9201 provided by Globalsat can handle up to 492 Kbps in shared bandwidth mode (Using the Cisco GIST app on the iPhone I was able to measure about 400 Kbps of available bandwidth).

This mode worked fluidly, I saw no lost frames or other problems while monitoring the webcast through another computer connected via a 4 Mbps (downstream) ADSL. As expected, video was delayed by about 90 seconds in total.

During my test the BGAN behaved better than the typical 3G UMTS connections I have tried for webcasting. Even though 3G has higher potential bandwidth and less latency, upstream bandwidth is usually limited and the service tends to be highly oversold. The Inmarsat BGAN seems better managed.

Dedicated bandwidth

The Inmarsat BGAN also has dedicated bandwidth modes. I only tried the 176 Kbps service, it turned out to be insufficient for UStream but quite enough for Qik and twitcasting.tv, both are lower quality compared to UStream but are optimized for mobile network environments, which have similar overall latency and bandwidth restrictions to satellite-based services.

So if I had to pay for mission-critical webcasting using UStream I would probably need at least 256 Kbps of dedicated bandwidth. Unfortunately the UStream codec is CBR (constant bit rate) so I was not able to lower the bandwidth requirements by setting the camera to 8 or 4 frames per second.

The BGAN terminal and service can be setup through a Mac and Windows compatible Java-based administration tool. This software makes it easy to select the type of service and configure the terminal so it automatically connects in a certain mode when powering up.

Perhaps the most unique part of setting up a streaming video session using this technology is pointing the antenna in the right direction, towards the satellite. It was easy in this case knowing the general position of the satellite and the terminal's built-in LEDs.

I conclude that this can be done by any user with a reasonable level of technical skills, no need to be a rocket scientist at all.

We all can, but...

Even though anyone able to purchase a semi-pro camera and a MacBook can buy a BGAN terminal, the service is expensive enough to require a business model, approximately US$500 for a 2 hour broadcast is not cheap enough for your average citizen journalist. A small newspaper, radio station or similar organization takings steps towards the online landscape can afford it and use it to provide instant coverage of events when video quality is not a priority, but the 176 Kbps will not deliver commercial grade video with common codecs.

Availability

BGAN service and several compatible terminals can be purchased in Latin America through Globalsat Latam, there is more information available in this Wikipedia entry about BGAN.

* The "Clarke's Belt" is the ring around the planet where geosynchronous satellites are can be placed in orbit, more in Wikipedia.

I am involved in the design and content creation for an upcoming version of the Globalsat Latam website.

Análisis breve de usabilidad: http://tercera.com/ 2010/08

Este es un análisis rápido de mi experiencia de usuario del sitio tercera.com.

Comentaré brevemente 4 aspectos del sitio: visualidad, navegación, sociabilidad y el código.


Visualidad:
  • El logotipo crea un problema branding. Si bien técnicamente el parecido no es grande, un número significativo de usuarios –entre ellos periodistas– comentaron el parecido al logo del diario La Nación de Chile.

  • El logotipo está en altas. Desde los inicios de la Internet y la cultura ASCII se han utilizado altas como forma de comunicar gritos en forma escrita, y persiste en la cultura online dicha noción, por lo tanto el logotipo presenta un problema comunicacional en medios electrónicos.

  • La portada presenta gran cantidad de noticias con pocos elementos que guíen al lector en relación a una jerarquía segmentada por categorías, algo que antes estuvo más presente.
Otros aspectos visuales están razonablemente bien logrados, aunque como comenta Juan Carlos Camus hay algunos problemas tipográficos.


Navegación e interacción:
  • La estructura del sitio es intuitiva, en ese ámbito la rueda no necesita reinventarse y va bien.

  • Es ingenioso el botón que hace aparecer un pop-up con subsecciones al lado del título de cada sección en la barra de navegación, aunque podría no ser suficientemente obvio para algunos usuarios. Un análisis estadístico revelaría si están usando esos pop-ups, en caso contrario es peso muerto del código, que no vendría mal alivianar (ver abajo).

  • El juego de fotonoticias es interesante, destaca un valor importante: el fotoperiodismo es un ventaja competitiva histórica de Copesa, da gusto ver que no lo estén dejando de lado, aunque desconozco volúmen de producción que hay detrás.

  • La asuencia de buscador ya era chiste habitual sobre el sitio en los últimos años y no parece haberse solucionado: a pesar de existir una caja de búsqueda los resultados no aparecen (2010/08/02/14:00, podría ser un problema temporal).

Sociabilidad:

  • El sitio debería permitir conexión libre ("compartir en" con un click) o activa (automática vía perfiles) a Twitter, Facebook, Google, LinkedIn, etc. Ello no sucede y cada visita de un usuario que utiliza dichos servicios genera pérdida de oportunidad de propagación del contenido hacia una mayor audiencia.

    ¿Es posible que en Copesa no se hayan enterado de las estadísticas que otros medios recogen, donde un % significativo viene desde plataformas sociales web como las mencionadas?

Código:

  • Sin avisaje y Flash la portada tiene un peso de 1.27 megabytes, lo que en una conexión típica de banda ancha local tarda 20 segundos. Es un poco pesado pero razonable.

    Con avisaje y Flash, la portada supera los 3 megabytes, mucho considerando lo poco que usuarios finalmente ven en su paso por una portada de noticias, especialmente teniendo en cuenta que aún hay usuarios con conexiones conmutadas (poco ancho de banda) y satelitales (alta latencia) en zonas extremas del país.

  • Algunos recursos no tienen bien fijado el tipo MIME en el servidor.

  • No hay discriminación por tipos de usuario. Es trivial determinar –por ejemplo– que el usuario está leyendo mediante un iPhone o un iPad y dirigirlo automáticamente a la interfaz correspondiente, que además en este caso ya existe.

  • Es relativamente sencillo medir la velocidad general de acceso que tiene un usuario y en base a ello transferirle o no determinados elementos de la interfaz. Si lo hicimos hace más de una década también se puede hacer hoy.

Resúmen:


El sitio presenta una experiencia cómoda de uso para quién espera de un diario online lo que todos esperábamos hasta hace algunos años, antes de la masificación de la web social. En ese sentido coincido con Juan Carlos Camus en que se ha detenido la innovación.

Para el lector más activo en la "web 2.0" el sitio actual no presentará gran atractivo, ya que no facilita usar y compartir noticias. Es una interfaz que agrega poco valor por si misma, lo cual puede estar bien si la estrategia de Copesa es concentrar sus esfuerzos en contenido original de excelencia periodística, tema que no está al alcance del presente análisis pero que no parece ser el caso.

El análisis rápido no reemplaza un proceso detallado de arquitectura de información, diseñó centrado en el usuario, análisis de usabilidad o test heurístico, pero puede puede ayudar a gatillar reflexiones que lleven a dichos procesos. El análisis anterior de la serie fue sobre El Quinto Poder.

Comparando Isatphone Pro (Inmarsat) con un teléfono satelital Iridium

Si bien el costo de los equipos y servicios aún es alto comparado con otras formas de telefonía móvil, la telefonía satelital está cada vez más fácil de usar y accesible. Con la entrada del Isatphone Pro de Inmarsat, para muchos usuarios el costo de disponer de telefonía satelital podría bajar a prácticamente la mitad.

Continuando con el espíritu de la prueba anterior con BGAN, La empresa Globalsat Latam me facilitó un prototipo del Isatphone Pro, teléfono móvil que usa la red satelital de Inmarsat y podría convertirse en la principal competencia de la red de satélites de órbita baja Iridium, ya que Globalstar, la otra red satelital de alcance mundial, se encuentra en funcionamiento parcial desde el 2007.

Para efectos de comparar, usé ambos aparatos. El móvil personal más reciente para Iridium es el modelo 9555, similar en tamaño a un teléfono móvil de hace 15 años.

Iridium se usa de manera muy similar a un teléfono móvil cualquiera, de hecho opera bajo normas emparentadas con GSM, sólo que las radiobases en vez de estar en tierra vuelan a unos 780 km de altura a 27 mil km/h. Un total de 66 satélites proveen cobertura global, incluso sobre los polos, 24x7.

El Isatphone Pro en cambio usa satélites de órbita geoestacionaria, lo que significa que su uso desde los polos es imposible pero implica que la operación del servicio es más barata.

En la práctica, ambos teléfonos son similarmente usables con algunas diferencias pequeñas, principalmente atribuibles al estado preliminar del software del equipo móvil Inmarsat y a la manera en que los probé.

Usé ambos teléfonos durante un par de días y puedo testimonear los siguientes detalles:
  • El Isatphone Pro requiere mayor tiempo para establecer su posición (usa GPS real estándar) y ello es actualmente un paso necesario antes de dar servicio, ese tiempo puede llegar a ser tan corto como un par de minutos, mientras que el terminal Iridium demora pocos instantes en registrarse, por lo tanto el establecimiento de llamadas puede ser más inmediato.

  • Al tratarse de un sistema geoestacionario, la distancia involucrada introduce mayor latencia en la comunicación vía Inmarsat, el retardo es similar al de llamadas internacionales vía satélite, las que aún recuerdo de cuando no teníamos fibra óptica con otros continentes, y es fácil acostumbrarse a él, especialmente porque la comunicación es full-duplex y no hay fenómenos tipo "eco" audible.

  • La incorporación de un GPS real dentro del Isatphone Pro en combinación con su mensajería permite enviar coordenadas precisas vía e-mail o SMS, una funcionalidad que puede ser muy útil en casos de emergencia. Si bien Iridium también puede entregar información de localización, es de mucho menor precisión y no está accesible para el usuario común de sus teléfonos.

  • Dentro de un recinto (en particular mi departamento) es casi imposible usar Iridium, en cambio es posible hacer llamadas a través de una ventana con vista despejada hacia el norte con el Isatphone Pro, incluso a través del vidrio, con la ventana cerrada. Naturalmente, esta ventaja varía según la posición geográfica; más cerca del ecuador los satélites geoestacionarios se van acercando al zenit, lo que hace hará difícil aprovechar esta ventaja.

  • La duración de la batería del Isatphone Pro es notablemente mayor que la del terminal Iridium. De hecho al parecer no existe ningún teléfono satelital que supere las especificaciones.
En el video, muestro el Isatphone Pro en uso, particularmente su función de mensajería de coordenadas.


El equipo aún no está disponible comercialmente, pero lo estará en el corto plazo a través de Globalsat Latam y se espera que para uso ocasional el costo sea mucho más bajo que soluciones basadas en Iridum, gracias a la posibilidad de prepago con duración de dos años y el menor costo del aparato.

Uso público de Wi-fi en Chile podría degradarse por redes de privados como Stel

Lo que los periodistas llamarían "polémica" comenzó en Maipú: se está autorizando a una empresa llamada Stel implementar red para comercializar Internet, con antenas que molestan a los vecinos. Pero además de lo visual, se trata de una enajenación del territorio electromegnético de los vecinos, y eso es un asunto interesante.

La empresa Stel, cuya propiedad mayoritaria recae en su gerente general Alejandro Ulloa Azocar, cuenta con permiso (y está solicitando más) para usar 2.4 GHz con hasta 0.7W + 7,4 dBi y 5.8 GHz con hasta 0.2W + 7 dBi, para dar acceso Internet y VoIP en hogares.

Presumiblemente, usarían 2.4 GHz para dar acceso a clientes y 5.8 GHz para intercomunicar postes en modo mesh, donde todos son ruteadores y la red se adapta dinámicamente al ancho de banda requerido. Todo eso es muy interesante técnicamente, pero tiene una alarmante externalidad:

Para su "última milla" los 2.4 GHz que la empresa usaría corresponden a la misma banda del espectro "wi-fi" que usamos en cientos de miles de hogares para compartir conexiones. Si bien wi-fi, Bluetooth y otras tecnologías que operan en 2.4 GHz incluyen mecanismos de reducción de interferencia, la capacidad para compartir el espectro no es ilimitada, por lo tanto habrá interferencia. De hecho (ver más abajo) en algunos barrios ya hay problemas de interferencia sin Stel. Con Stel sólo puede ser peor.

Marco legal injusto

Examinando la normativa vigente, nos podemos encontrar con la resolución ministerial núm. 755 exenta del 15 de julio de 2005 que autoriza usos limitados sin necesidad de licencia explícita para usos no-comerciales en recintos cerrados (ver también la resolución ministerial núm. 745 del 8 de junio del 2004). Todo esto está muy bien, salvo que la autoridad puede además autorizar a privados a usar la misma banda para usos comerciales, y eso está muy mal.

No sólo mal técnicamente, por posible interferencia; mal bajo conceptos de administración de justicia y distribución de riqueza, pues no es justo que se permita al privado usar (e interferir con) espectro de uso ciudadano (ej.: wi-fi) pero no se permita a los ciudadanos usar por su cuenta el espectro asignado a privados (ejemplo: GSM, 3G, trunking, etc.)

Licencia para matar (tu wi-fi)

En el caso de Stel, la compañía contaría con autorización especial, de manera que su derecho a usar el espectro prevalecería por sobre el de la ciudadanía (eso somos nosotros). Así Stel ahorra costos en infraestructura, pero el costo lo pagamos los usuarios pues se afectarán nuestras redes wi-fi.

Las normas citadas establecen que si nuestra pequeña estación wi-fi casera interfiere con alguno de los cientos de postes de Stel, tenemos que cesar su operación. Un asunto perverso, puesto que la empresa tiene interés natural en privilegiar su servicio por sobre lo que el usuario ya podría tener.

La posiblidad de interferencia no pertenece al ámbito de las teorías conspirativas o la ciencia ficción. Es un hecho que en algunos barrios de Santiago la banda de 2.4 GHz está prácticamente saturada, he experimentado el problema en persona y estamos llegando a un punto en que no se trata de elegir el canal libre , hay que optar por el canal con menos interferencia.

Este gráfico no es muy didáctico pero muestra la abundante densidad de redes wi-fi en el barrio donde vivo:



Nótese la presencia de al menos tres redes en cada uno de los canales 1, 6 y 11. El canal 8 se superpone (e interfiere) los canales 6 y 11. En el caso del canal 6 he comprobado que tengo menor rendimiento y alcance si comparto dicho canal con los vecinos, y eso que sus routers no están arriba de postes y con antenas de alta ganancia.

La autoridad como Robin-Hood pero al revés:

Lo más irónico de todo, es que dicho espectro nos pertenece a los ciudadanos. El Estado es el encargado de regular su uso para que se pueda aprovechar en aplicaciones que requieren equipamiento e inversiones que no están al alcance del usuario.

Por eso es perfectamente razonable que se asignen bandas y otorguen concesiones para servicios como radiofonía, televisión pública, telefonía e Internet móvil, pues su existencia representa claramente un valor para la ciudadanía, y dichas concesiones se deben otorgan en exclusividad territorial y de frecuencias para evitar interferencias.

Territorio electromagnético: clave para disminución de brecha digital

Pero el caso del wi-fi es totalmente distinto. Se ha demostrado que una persona, familia, empresa, entidad educativa e incluso un municipio son perfectamente capaces de operar exitosamente sus propias redes.

Wi-fi facilita y baja los costos de implementación de acceso masivo a Internet en colegios, universidades, bibliotecas y hogares, siendo elemento clave en la reducción de la brecha, especialmente en comunidades donde permite conexión en espacios públicos.

Hoy se estima que entre un 33 y 36% de los hogares cuentan con acceso a Internet de banda ancha. El gobierno ha manifestado el propósito de llevar ese número a un 50%. Es entonces esencial que bandas donde opera dicha tecnología se mantengan despejadas, disponibles para uso ciudadano, municipal, etc.

Un error evidente, pero corregible:

La concesión por parte del gobierno de espectro en 2.4 y 5.8 GHz a privados es una transgresión para los usuarios y un error técnico. Habrán conflictos por interferencia que usuarios no podrán detectar o solucionar fácilmente, por no tener la experticia técnica y también porque la ley favorece al privado autorizado, y dicha interferencia será perjudicial tanto para usuarios como para la empresa autorizada.

El error es particularmente obvio considerando que existe espectro, tecnología y mecanismos de concesión para usar espectro sin necesidad de interferir con wi-fi. En el caso específico de Stel, se podría haber asignado espectro en 2.5 a 2.6 o 3.6 a 3.8 GHz.

Luego de un aumento de capital $1.200 millones en enero del 2010 (DF), Stel ha solicitado autorización para instalar más de 700 postes con wi-fi en la Región Metropolitana. Por lo tanto es urgente una reforma legal, que deje totalmente despejadas las siguientes bandas, reservadas exclusivamente para uso no-comercial y evitar así un desastre tecnológico:
868 a 870 MHz
902 a 960 MHz
2400 a 2490 MHz
4910 a 5875 MHz
Ahora bien, tampoco se trata de matar un interesante emprendimiento chileno, y hay alternativas:

Ya que se la ha otorgado permiso a Stel para operar en Maipú y la empresa ha hecho inversiones, propongo que autoridad instruya a Stel operar su infraestructura existente de acceso a clientes sólo en canal 14 de 2.4 GHz, dicho canal no interfiere con los que habitualmente se usan en Chile para wi-fi (1 al 11). Los canales 12 y 13 se suelen utilizar en Europa y el canal 14 en Japón. En Chile dichas frecuencias están disponibles. Ver gráfico (fuente):
Asimimso, propongo a Subtel que autorice a Stel ofrecer servicios en 3.6 GHz (802.11y), como alternativa al canal 14 de 2.4 GHz y también para su comunicación internodos, puesto que con la congestión de wi-fi en 2.4 GHz los usuarios iremos migrando inevitablemente a la versión más robusta (pero de menor alcance) de wi-fi 802.11a en 5.8 GHz, donde eventualmente también podría haber interferencia.

Lo que realmente significa Google+Metaweb: Gridworks is the new Yahoo Pipes

Un anuncio de bajo perfil en el blog de Google ha causado las más diversas reacciones en la web. Todo el mundo concuerda en que es importante y se apresura a decirlo, pero pocos se aventuran a explicar por qué.

En mi opinión, las razones de por qué la adquisición de Metaweb por parte de Google es importante son tres:
  • Es el primer reconocimiento público contundente de que Google se reconoce parte de la web 3.0 (nada que ver con la "web 2.0", que no existe).

  • Le da acceso a una de las mayores bases de datos de relaciones semánticas de la web: Freebase. Y sí, esto es importante, pero no lo más importante, pues la Freebase estaba disponible para ser utilizada vía API para cualquier persona u organización (aunque gratis hasta un cierto número de consultas).

  • Lo que me parece más importante -lo que sospecho que vale más dinero en Metaweb- es Gridworks, su aplicación de procesamiento de información semántica.
La combinación de Freebase+Grisworks podría transformarse en una herramienta tan importante para la web 3.0 como ha sido hasta ahora Yahoo Pipes para la web informativa, y gracias a Google dicha herramienta podrá implementarse en una aplicación disponible vía web, en la "nube" como Yahoo Pipes hoy.

Presumiblemente Metaweb no tenía los recursos como para escalar Freebase como una webapp de uso público, por lo cual hasta ahora sólo está disponible para que uno lo corra en su propio computador.

De manera similar a cómo el análisis de contenido de búsquedas en Google y los mensajes en Gmail han dado a la "gran G" una irrebatible ventaja en la perfilación de usuarios, Gridworks puede dar a Google las bases (de datos) que permitan dar aceleradamente sentido a los contenidos de la web abierta, incrementando aún más su capacidad de hacer perfilación de usuarios y personalización de servicios.

Naturalmente, que exista el potencial no asegura su realización, como ha demostrado Google recientemente con flops como Wave, Knoll y Buzz. Típicamente cuando Google intenta un servicio web similar a algo que ya existía el resultado no es de gran impacto, además Yahoo Pipes tiene algunas mejores a la vuelta de la esquina.

Aquí un video con una presentación de Gridworks:


Freebase Gridworks 1.0 Overview from David Huynh on Vimeo.

"Social Media Manager" ¿o rol de la gerencia de marketing?

Lo primero que pensé cuando vi esta entrada de @gabycastellanos fue que todo Social Media Community Manager 2.0 Expert y tal tiene que leerla. Lo iba a decir tal cual en Twitter, pero después me di cuenta que prefería complementar con algunas ideas:

La humanidad está pasando una etapa revolucionaria en lo medial. La información, el periodismo, la publicidad, la educación, el mercadeo, las relaciones interpersonales, la política, todo está siendo afectado por la tecnología más disruptivas que el hombre ha conocido: Internet.

Podemos hablar de lo "2.0", inteligencia social, web semántica y otras facetas, pero todas son parte de un cambio fundamental en la sociedad, cuyos alcances estamos recién dimensionando.

Consecuentemente, no hay oficio alguno –especialmente tratándose de ámbitos comunicacionales– que no requiera adaptarse.

Es cierto que por fenómenos de des-tercerización, des-intermediación y por la línea directa que ahora se tiene con usuarios, el gerente de medios participativos puede ser un puesto nuevo en algunas organizaciones, especialmente las más pequeñas. Pero propongo que se trata de la evolución natural del gerente de marcadeo o marketing.

¿Por qué? Porque gracias a los medios participativos, las redes sociales son crecientemente la manera más efectiva de comunicar con los usuarios, tanto para propagar oferta de un producto como para configurar ofrecimientos futuros.

El mismo concepto es aplicable en caso de agencias de publicidad o departamentos de mercadeo, se podría argüir que el "social media analyst" debe ser la persona que ya se encarga de estudios, el "social media planner" el planificador de medios existente, y así.

Gaby plantea –muy acertadamente– que falta claridad respecto de este tema, y hace una larga enumeración de lo que los llamados a empleos esperan y lo que deberían saber hacer quienes ejerzan los puestos:

Entre ellas resumo y destaco:
  • Facilitar conversación en espacios donde la marca está presente, gatillar e intervenir dicha conversación por parte de la organización.
  • Evaluar e interpretar tendencias, ánimos y opiniones para crear informar internamente y crear sinergia con áreas de la organización.
  • Educar y evangelizar al interior de la institución sobre la participación en dichos espacios y su inclusión en el quehacer de la organización.
Mi humilde crítica o aporte a lo que muestra Gaby es que no usemos un término en otro idioma para algo que se puede decir perfectamente en el nuestro, y si bien podríamos hablar de un analista, estratega, planificador o gerente de medios sociales o participativos, crear puestos y nombres nuevos puede ser una excusa para perpetuar que esos roles no sean asumidos como algo central de una organization.

Dicho todo eso, recomiendo la entrada de Gaby, sin duda una interesante lectura, y es sólo la primera parte.

BGAN: video streaming desde cualquier parte

Desde que el mundo era joven y la Internet un experimento, vía satélite ha sido sinónimo de grandes eventos y presupuestos. Típicamente, solo empresas periodísticas grandes podían darse el lujo de transmitir en vivo a cualquier hora y desde cualquier lugar. Ahora, todos podemos.

Con la presencia creciente de redes de micro-ondas, fibra terreste y móviles de voz y datos, la exclusividad fue disminuyendo, pero si hace pocos años me hubieran dicho que podría transmitir video desde cualquier parte usando un dispositivo del tamaño de un laptop y de precio accesible no lo habría creído fácilmente.

Cabe recalcar que desde cualquier parte en este caso no es una exageración. No es el "desde cualquier parte" al que estamos acostumbrados con teléfonos móviles, aquí me refiero a un valle desértico o la cima de una montaña cordillerana, a cientos de kilómetros mar adentro o incluso desde un avión en vuelo.

Así que cuando Globalsat Latam me ofreció probar su servicio no me pude resistir.

La ley de Moore llega al cinturón de Clarke*

Gracias a innovaciones en hardware y software de telecomunicaciones, podemos usar una repetidora a más de 35 mil kilómetros de altura para llevar nuestro stream al mundo, y como se trata de tecnología Internet no tenemos que preocuparnos de bajar, alimentar y recodificar la señal.

El procedimiento fue relativamente sencillo y similar al streaming que hoy cualquiera puede hacer usando la 'net y tecnología personal: una cámara, un computador portátil y servicios en la nube como UStream lo hacen posible. El enlace satelital lo hace posible desde cualquier parte.

Probé con una cámara Sony PDX10 en modo 16:9, conectada mediante Firewire a un Apple MacBook Pro con OS X 10.5 y el UStream Producer gratuito. Dicho programa habla directamente con una cuenta de usuario en Ustream.tv, haciendo posible la visualización en tiempo real por parte de una audiencia prácticamente ilimitada. La cámara es multi-sensor y genera imágenes con poco ruido, ideal para streaming con ancho de banda limitado.

Ancho de banda compartido

Para la preconfiguración de calidad mínima usando UStream, se necesita un upstream (subida) de 200 Kbps. El terminal facilitado por Globalsat, un Hughes 9201, soporta hasta 492 Kbps en modo compartido (mis mediciones usando el GIST de Cisco mostraron aprox. 400 Kbps disponibles). Este modo llevó sin problemas el video hacia UStream.

Pude observar el resultado sin cortes desde otro computador conectado a un ADSL con 4 Mbps de bajada (downstream).

Durante la prueba BGAN se comportó mejor que una típica conexión 3G, que si bien tendría mayor ancho de banda potencial y menos latencia, suele tener peor upstream y mayor sobreventa. La red BGAN de Inmarsat incluso en modo compartido parece estar mejor administrada que las redes 3G de uso masivo.

Con el fin de no saturar el enlace satelital me conecté desde otro Mac con ADSL local, donde pude ver la transmisión con un retraso de aproximadamente 90 segundos, normal dado todo el buffering (memoria intermedia) que el streaming utiliza para prevenir cortes.

Ancho de banda asegurado

Inmarstat BGAN también tiene una modalidad asegurada. Sólo probé el servicio de 176 Kbps, que resultó ser insuficiente para UStream pero óptimo para Qik y twitcasting.tv, ambos servicios son de calidad inferior a UStream pero están optimizados para las redes móviles, que presentan latencias y restricciones de ancho de banda similares a los enlaces satelitales.

Si tuviera que contratar para una aplicación de misión crítica con UStream probablemente necesitaría ancho de banda asegurado de 256 Kbps o más.

Lamentablemente el ancho de banda requerido por la versión actual del codificicador de UStream es fijo y no VBR, de manera que bajar la cantidad de cuadros por segundo en la cámara a 8 u 4 no hizo posible bajar de los 200 Kbps.

La interfaz de administración del terminal BGAN, escrita en Java y disponible para Mac y Windows, permite configurar con facilidad el tipo servicio que se quiere utilizar, además provee cierta ayuda para orientar la antena y configurar parámetros del terminal.

Quizás lo más distinto a hacer streaming usando otro tipo de conexión es el proceso de apuntar la antena, relativamente fácil en este caso sabiendo que el satélite a utilizar está hacia el noroeste. Con ayuda de los indicadores visuales de señal que el terminal provee es sencillo ir moviendo la antena hasta que la señal es máxima.

Mi conclusión: el uso de esta tecnología está al alcance de un usuario con algo de conocimiento técnico, pero no hace falta ser ingeniero de la NASA.

Todos podemos, pero...

Si bien para cualquier persona que se puede comprar una cámara semi-pro y un MacBook el terminal BGAN es algo alcanzable (típicamente entre US$ 2k y 3k), tiene que haber un modelo de negocios detrás para poder sustentar el servicio, actualmente unos US$500 para dos horas de transmisión. Para un bloguero, periodista ciudadano, etc., eso no es poco, para un diario migrando a plataformas digitales representa una manera accesible de competir en cobertura con la TV y entregar cobertura instantánea desde lugares donde las redes móviles no tienen alcance, especialmente en casos donde la calidad del video no es prioridad.

Disponibilidad

Hoy el servicio BGAN y varios terminales compatibles con él son comercializados en América Latina por Globalsat Latam, puedes leer más sobre la tecnología en esta entrada sobre BGAN en Wikipedia.

* El "cinturón de Clarke" es el anillo alrededor de la Tierra que corresponde al lugar donde se sitúan satélites para órbitas geoestacioanarias, más info en Wikipedia.

Globalsat me facilitó el equipo y el servicio para hacer esta prueba, soy consultor asociado para la venta de equipos y servicios para el sector de medios de comunicación y escribo en un blog sobre tecnología satelital patrocinado por la compañía.

Ignacio Rodríguez de Rementería