Abandono de deberes: pillando a Subsecretaría de Telecomunicaciones de Piñera "en el acto"

Resúmen ejecutivo: una app que la Subsecretaría de Telecomunicaciones está invitando a usar para que ayudemos a medir calidad de la Internet en Chile no es segura, pero además duplica en funcionalidad a un estudio que ya se hizo en Chile y al que la autoridad hizo oídos sordos. 

Como buen usuario informado que intento ser, hice la pruebe de descargar la aplicación a uno de mis teléfonos. Al final del texto cuento lo que descubrí y las preguntas que me quedaron, pero primero un poco de contexto:

Primer acto: usuarios denuncian mecanismos de gestión de tráfico (limites de velocidad) que atentan contra legislación de neutralidad de red, medibles en forma empírica y también con herramientas que existen para tal efecto.

Para ser justos, esto viene pasando desde antes del gobierno actual, pero la legislación que manda a los proveedores a resguardar la neutralidad opera desde finales de ese periodo.

Segundo acto: Adkintun, proyecto de medición ligado a la Universidad de Chile, mide calidad de la conectividad de Internet desde el 2011, en varios sistemas operativos de escritorio, tablets y smartphones. sin solicitar ni guardar datos del usuario, comprobando que efectivamente los proveedores chilenos de telecomunicaciones limitan velocidad de usuarios en forma artificial.

Tercer acto: Habiendo mediciones, y completándose ya 4 años de la administración bajo el gobierno de Piñera, Subtel no parece haber multado a ninguna compañía por estos límites de velocidad. Debido a esto es acusada de abandono de deberes. Subtel reconoce que está al tanto de problema pero no multa porque -según el Subsecretario de Telecomunicaciones Jorge Atton- las mediciones del proyecto Adkintun no pueden ser utilizadas como herramienta de fiscalización.

Cabe señalar que Subtel tuvo que recibir orden del Consejo para la Transparencia para informar acerca de cómo estaba al tanto del problema, negándose a contestar directamente solicitudes al respecto. Sólo entonces se supo públicamente que era a través de Adkintun.

Cuarto acto: Subtel "lanza" aplicación de terceros para que usuarios hagamos desde nuestros smartphones mediciones de calidad de servicio, de manera similar a lo que hacía Adkintun, con la diferencia de que la aplicación extrae y solicita datos personales, y excluyendo a conexiones fijas, específicamente a VTR que es una de las empresas más cuestionadas públicamente por usuarios.

Si bien la política de privacidad que la app invita a leer promete que Subtel hara el debido resguardo de datos recogidos, que serán utilizados únicamente para medir a los proveedores, dice explícitamente que esto "no se aplica a los servicios ofrecidas por otras entidades privadas o públicas".

La app llamada "Calidad Móvil Chile" es de terceros, una entidad privada llamada CORTxT, que no opera en Chile y por lo tanto no se rige por sus leyes ni Constitución en el resguardo de la privacidad de usuarios. La empresa no tiene obligación alguna y difícilmente puede ser demandada por alguien en Chile si no cumple lo que promete el acuerdo de privacidad.

Esto es todavía más grave, puesto que la app solicita los siguientes datos al sistema operativo (versión para Android):
  • información personal del usuario
  • el listado de aplicaciones que están corriendo
  • y además solicita explícitamente el e-mail del usuario
Adkintun no hace estas tres cosas. Y curiosamente la versión para iPhone de la app original de  CORTxT tampoco.

Otra cosa curiosa es que el 18 de julio del 2011 la Subsecretaría de Telecomunicaciones emitió una resolución exenta y comunicó el inicio de un proceso de fiscalización, titulando que "inicia fiscalización a planes de internet y llama a usuarios a informarse sobre sus nuevos derechos".

Link al comunicado original de Subtel acá, e incluyo la imagen de la página correspondiente por si en una de esas desaparece.

Consecuentemente quedan algunas preguntas:
  • ¿Por qué no se aplican multas a las empresas que están demostradamente incumpliendo la legislación vigente?
  • ¿Cómo se fundamenta que la información recogida por el proyecto Adkintun, consistente en al menos 70 mil mediciones individuales de calidad de servicio no sea válida para fiscalizar?
  • ¿Por qué la entidad gubernamental ignora su propio proceso de fiscalización, que anunció con bombos y platillos en su primer año de gestión?
  • ¿Cómo Subtel prefiere entregar datos de chilenos a una empresa extranjera, que explícitamente extrae información personal desde el sistema operativo, que además solicita el e-mail del usuario y que no tiene obligación ni incentivo para cumplir política de privacidad alguna en Chile?
  • ¿Por qué además la app personalizada por Subtel para Chile solicita el e-mail y extrae datos personales directamente del sistema operativo, y la versión original de la app no? ¿Fue algo que solicitó el Gobierno de Chile?

En 1966, CIA puso implantes a un gato para espiar a agentes de la Unión Soviética en NYC.

El proyecto costó US $15M de ese entonces y consistió en convertir al gato vivo (nada de “dead cat”) en un micrófono, con electrodos que además permitían hasta cierto punto “dirigir” al gato que había sido “entrenado”'previamente. 

(Cualquiera que haya tenido un gato sabe que entrenar y dirigir solo pueden ir entre comillas).

Bueno, en su primera misión, el gato biónico fue atropellado por un taxi pocos segundos después de que agentes lo soltaran desde una van.

5 puntos de gobernanza digital

A la luz del creciente consenso sobre valor social del acceso a Internet, su potencial para disminución de inequidad cultural, ejercicio de libertad de expresión, y considerando además revelaciones de las últimas semanas sobre espionaje vía Internet y las inminentes votaciones sobre el TPP, es tiempo de solicitar a nuestros futuros gobernantes y legisladores compromisos claros acerca la temas relacionados con la Internet: su uso seguro y masivo.

Creo que hay 5 puntos que concentran temas de gobernanza Internet a solicitar:
  1. Espectro electromagnético como bien nacional de uso público:

    Recogiendo el avance en la "ley de TV digital", que todo el espectro electromagnético sea declarado bien nacional de uso público, y que compañías privadas que deseen hacer cualquier uso no-gratuito o que implique reventa paguen por su uso, ya sea mediante aportes directos al Estado (arriendo) y/o mediante la entrega de servicio al Estado y la ciudadanía. Esto es coherente con uso actual e histórico de espectro para tecnologías uno-a-muchos (radio y TV), donde existe el compromiso con la concesión de espectro a privados del acceso gratuito y abierto. En resumen, es extender esto a la tecnología muchos-a-muchos y utilizar el espectro electromagnético, que es de todos, para que todos tengamos acceso a dicha tecnología. Este punto es el fundamento teórico para el punto siguiente, que propone una manera de ponerlo en práctica:
  2.  
  3. Acceso universal a Internet como derecho:

    Mirando hacia el futuro y preparándonos para el creciente rol de Internet en la sociedad, que el acceso universal a Internet se incorpore a nuestra constitución, legislación y gestión gubernamental como un derecho, estableciendo marcos normativos y operación de infraestructura que así lo asegure, similar a como hoy existe el Fonasa para entregar salud como derecho. En lo técnico, esto implica más que wi-fi en cada municipio, implica también el uso de 4G/LTE abierta, provista por privados o un consorcio público-privado, con el compromiso de llegar a toda la población en forma gratuita, no solo recintos determinados y/o pagando. Algo sobre esto acá: http://blog.canal.cl/2008/06/internet-gratuita-en-chile.html. Una manera complementaria a las redes móviles actuales será también el uso de "white spaces" (espectro de dividendo digital de libre acceso bajo norma IEEE 802.22 o "super wi-fi"), y cabe también destacar la intención de la EU de extender wi-fi para uso público en 5GHz.
  4.  
  5. Internet con autonomía operativa:

    Si la Internet es estratégica para la sociedad y un derecho para la ciudadanía, se hace importante que no sea dependiente físicamente de lo que otro país pueda decidir en ruteo, numeración y nombres. Para esto se necesita investigar, probar y poner en funcionamiento tanto infraestructura local que sea capaz de tomar el lugar y control en caso de que otro país decida afectar nuestra Internet y también normar para que existan acuerdos multilaterales con otros países y rutas múltiples a nivel físico, de manera que el Estado y la ciudadanía tengan asegurado el funcionamiento, independiente de conflictos o fallas técnicas en algún país determinado. Algo en mayor profundidad: http://blog.canal.cl/2010/06/la-administracion-de-obama-amenaza-la.html
  6.  
  7. Protección "tolerancia cero" de nuestros datos personales:

    Basándonos en nuestra ya interesante protección constitucional (artículo 19.5) de la privacidad, asegurar un marco regulatorio y fiscalización de amplio alcance, que lleve dicha protección a una mayor práctica, para que nuestros datos personales y comunicaciones no-públicas en Internet  mantengan dicho carácter, salvo situaciones muy excepcionales y siempre mediante la intervención de un juez. Actualmente la intromisión en comunicación privada que no cumple con estándar constitucional puede incluso ser delito, sin embargo el Estado hace la vista gorda en relación especialmente al almacenamiento y tráfico de información personal entre empresas. Adicionalmente, esto debe abarcar el accionar de entidades de otros países en el nuestro. Actualmente las comunicaciones vía Internet en Chile pueden estar siendo espiadas por el Gobierno de EEUU y nuestro gobierno ni siquiera se ha manifestado al respecto.
  8.  
  9. Creación de institucionalidad para sociedad de la información:

    Ya es de consenso en todos los sectores que la Internet es una plataforma provechosa para ejercer la comunicación y entrega de servicios entre el Estado y sus usuarios. Sin embargo dicho consenso no se traduce en una estructura organizacional del Estado que vele por aquello, y así es como hoy cada vez que hay un cambio de gobierno -incluso tratándose de gobiernos de una misma coalición- falta continuidad en las iniciativas relacionadas con la Internet y la Web, donde por ejemplo los servicios Web quedan a veces reducidos a instrumentos del marketing político de quienes gobiernan, en vez de enfocarse en estrategias país de largo plazo. Consecuentemente, se debe crear una entidad que articule todos los temas relacionados con Internet y la Web, similar a como se ha ido (lentamente) creando una institucionalidad para el ámbito de lo cultural. Esto probablemente va más allá de crear una superintendencia. Por ejemplo en el caso de la salud, además de existir una superintendencia existe un ministerio. Algo relacionado con esto, aunque enfocado más en las web del Estado:http://blog.canal.cl/2011/01/gobierno-de-chile-y-la-web-un-tema.html
Estos puntos fueron redactados luego de un conversatorio convocado por la Fundación Friedrich Ebert-Chile, el 4 de junio del 2013.

Si estás de acuerdo con estos puntos y te parece que deben ser abordados por los programas de  tus candidatos preferidos, por favor copia y pega este texto o envía un link a este post a los comandos, a los encargados de programas o a los mismos candidatos. De nosotros, los usuarios, depende que nuestros derechos y anhelos sean considerados en los programas y asumidos como un compromiso.

También hay una acción relacionada en El Quinto Poder que puedes firmar y/o pedir a tus conocidos que firmen.

8 consejos para mejorar posicionamiento web o "SEO".

Hay autodenominados expertos que ofrecen análisis, recomendaciones o simplemente acciones oscuras, como la venta de links en granjas de contenidos, lo cual puede ayudar a posicionar en el corto plazo pero perjudicar un sitio a la larga. Pero en realidad el SEO no es una ciencia oculta ni presenta una gran complejidad técnica. Basta entender un poco el funcionamiento de los buscadores y la Web para vislumbrar cuáles son las medidas que hay que tomar para una mejor encontrabilidad.

Son medidas simples, pero no fáciles, en el sentido de que son conceptualmente fáciles de comprender, pero no son sencillas de ejecutar en la práctica, y tienen relación más que nada con tener una estrategia de contenidos. Porque -es un poco obvio pero no está de más decirlo- lo que los buscadores indexan es precisamente el contenido. Pero, como veremos a continuación, no cualquier contenido:
  1. Escoger un buen sistemas de gestión de contenidos:
    Hay varios aspectos claves en que un CMS puede determinar la calidad de nuestra encontrabilidad. Estás son:

    1. Facilidad para actualización de alta frecuencia, Google privilegia sitios con contenido fresco y nuevo por sobre sitios con contenido que no haya sido modificado a menudo o que no haya crecido.
    2.  
    3. URLs amigables: Google considera las palabras contenidas en los nombres de los directorios y archivos como señales importantes sobre el contenido. Más en Search Engine Land.
    4.  
    5. Accesibilidad: un contenido donde el texto esté cerca del principio de la página que la contiene y donde la apariencia no interfiera con su velocidad de descarga es privilegiado por Google. Esto va a depender del CMS pero también de la plantilla o programación personalizada que se aplique, a veces hay bastante que trabajar en este aspecto con el equipo de diseño "front" de un sitio.

  2. Hacer una buena arquitectura de información:
    Un sitio donde hay relación entre la estructura semática del contenido y la estructura física son similares tendrá más sentido para Google que un sitio donde no hay jerarquía de de secciones, portadas o micrositios. Más en UX Matters. De la arquitectura también depende hacer URLs amigables y relacionadas semánticamente con el contenido, lo mismo aplica para los textos de ancla (URLs dentro de un archivo), para los nombres de archivos de medios (imágenes, audio, video) y textos alternativos (también en imágenes, audio y video inctrustado). En definitiva hay que cuidar el etiquetado y agregar metadata.
  3.  
  4. Escribir granularmente para la Web:
    Una vez que tenemos buen CMS y buena arquitectura, el contenido con el cual poblamos el sitio debe estar bien titulado, tener destacados clave, contener hipervínculos a contenidos relacionados propios, estar seccionado en textos cortos y temáticamente estructurados en vez de textos largos. También es muy importante escribir inteligentemente la metadata, no solo llenar de palabras clave. Ver Tienes 5 Segundos por Juan Carlos Camus.
  5.  
  6. Actualización continua:
    Estar permanentemente agregando contenidos cortos de manera continua, distribuidos en el tiempo, en vez de textos largos una vez al año sirve varios otros propósitos interesantes, pero además es una señal para Google de que contenido probablemente está vigente. Ver If Content is King, Frequency is Queen.
  7.  
  8. Curaduría:
    Además de los contenidos propios, incorporar resúmenes propios de contenidos de terceros ayuda a que un sitio sea considerado una fuente válida sobre un determinado tópico. Muy importante, usar vínculos a sitios de terceros con rel="nofollow”. Más en Google.
  9.  
  10. Sitemap:
    Crear y subir a Google un sitemap en XML (algunos CMS hacen esto automáticamente o mediante un plug-in como este para Wordpress) podría ayudar, aunque no he visto evidencia.
  11.  
  12. Vincular desde otros sitios:
    ¿Para qué están los amigos? Un link desde sitios amigos relacionados contribuye mucho a que Google reconozca un sitio como una fuente de valor. Con este punto hay que tener el cuidado de no exagerar, porque crear sitios llenos de links para efectos de levantar ranking es detectado por Google y castigado en su ranking.
  13.  
  14. Vincular desde medios participativos:
    Publicar en forma manual y automática, por ejemplo en Twitter y Facebook, links bien titulados a nuestros contenidos, para lo cual primero hay que tener dichos contenidos publicados de las maneras descritas anteriormente. Esto además de que lo hace uno, si el contenido es de valor (clave en una estrategia de contenidos) lo harán los usuarios, y eso puede ser una fuente directa de tráfico importante, además de una señal para buscadores. Si bien medios como los mencionados suelen usar rel="nofollow" por defecto, existe evidencia de que el menos Google usa links publicados en Twitter como señal.
Comentario: la mayor parte de estas medidas exigen un equipo permanente de desarollo de contenidos web, sin el cual no hay no contenido de calidad ni actualizaciones de alta frecuencia.

8 claves para entender lo de #PRISM y el espionaje de EEUU al resto del mundo

  1. Hace más de una semana, el testimonio de Edward J. Snowden a los diarios Washington Post y Guardian reveló el nombre y algunas características de un servicio que usan autoridades de EEUU para espiar información privada vía Internet: PRISM.
  2. Desde los años 70 la NSA ha estado interceptando comunicaciones internacionales, para lo cual no necesita leyes ni permisos especiales. Lo que antes hacía mediante monitoreo de cables y conexiones satelitales de voz y teletipos, hoy hace mediante monitoreo de tráfico en rutas de Internet.
  3. El Escándalo en EEUU no es porque se espía al resto del mundo, es más bien porque la presentación revelada por Snowden muestra que lo hacen a través de compañías que mucha gente usa dentro de EEUU, lo cual ha desatado el fundado temor de que se espía también a los ciudadanos de ese país, lo cual requiere orden judicial.
  4. Las compañías involucradas se han apresurado en negar acusaciones de que autoridades tengan acceso directo a información privada de usuarios, aunque fuentes anónimas indican que ese acceso sí existe, para facilitar el trabajo, porque se producen miles de intercepciones al año.
  5. Las declaraciones de compañías como Apple, Google y Yahoo niegan acceso directo a servidores, pero no excluyen la posibilidad de que se intercepte tráfico que entra y sale a través de las conexiones Internet de dichas compañías.
  6. Estas declaraciones tampoco excluyen que las compañías faciliten acceso a dispositivos usuarios, por ejemplo a sus PC o teléfonos móviles. De hecho Microsoft Windows desde 1999 tiene un acceso conocido para la NSA que permite acceder a lo que hay en millones de PCs en todo el mundo.
  7. Testimonios recientes obtenidos por AP dan cuenta de que PRISM es solo una parte del sistema de vigilancia, que se guarda mucha información para análisis posterior y que de una u otra manera esto está sustentado mediante legislación vigente, aunque a punta de algunos decretos secretos.
  8. Snowden se habría refugiado inicialmente en Hong Kong, desde donde fue revelando más información, incluyendo cómo EEUU ha espiado a China a través de la Internet.
Fuentes: The Washington Post, The Guardian, BBC, NPR.

¿Estar o no estar fuera de Facebook en la web real?

Es un tema recurrente en espacios de conversación sobre social media: ¿puede una organización tener una presencia a través de una página Facebook o "fanpage" y no tener un sitio web fuera de Facebook?

Me parece que si bien puede ser legítimo y costo-efectivo en el corto plazo ahorrarse la web abierta, creo que hay 3 buenas razones por las cuales no hacerlo:

  1. Hasta en el nivel más micro, desarrollar una marca digital con encontrabilidad fuera de Facebook es valioso y la historia pesa. Aunque sea un negocio de barrio, la probabilidad de que aparezcas en búsquedas, que pueden incluir filtro por geolocalización, será mayor si estás fuera de Facebook.
  2. Hoy Facebook es como es (por ejemplo "gratis") en buena parte porque compite con la web abierta. Si permitimos que Facebook vaya monopolizando todo el contenido y ocurre con él un fenómenos de masa crítica, podríamos estar contribuyendo a generar un paisaje online totalmente controlado por Facebook, empresa que podría estar en todo su derecho de -por ejemplo dado el fracaso de si intento publicitario- cobrar por acceso, o cobrar por publicar. Sobre esto ha advertido Tim Berners-Lee, el inventor de la Web. ¿Recuerdan CompuServe, AOL, eWorld, etc.?
  3. Independiente de temas comerciales o sociales en relación a la web de largo plazo, en el corto plazo Facebook podría cambiar las reglas, hacer menos encontrable o incluso hacer desaparecer lo que publicas. Por lo tanto puede ser más inteligente invertir en un poco en crear un blog (que puede ser gratis) -ojalá con dominio propio (que también puede ser gratis)- y desde allí conectar con alguna webapp como dlvr.it para ir publicando desde dicho blog hacia Facebook o vice-versa. Esto aporta la ventaja de poder ver otras métricas y poder publicar también simultáneamente a otras plataformas, y si bien para los usuarios que viven en Facebook el resultado es el mismo no perdemos los potenciales propios de estar en la web real.

Cortito: la diferencia entre community manager y social media manager debería ser...

ninguna.

Idea: porque social implica comunidad y la comunidad no existe sin la media.

Adicionalmente, es bueno mencionar que se usa bastante la distinción entre el CM y SMM para justificar grandes diferencias de salario.

Por lo mismo, es clave valorar -y hacer evidente el valor- de la creación de contenido, la formulación de estrategias, la interacción con usuarios, el manejo de crisis, la medición y el análisis de métricas y la elaboración de informes cualitativos, etnográficos, etc.

Eso es lo que puede hacer la diferencia entre entre un salario razonable versus que el CM se convierta en un robot de atención de call center para el online.

Aquí puedes conversar al respecto.

¿Qué diferencia al CM que atiende público del que tiene un puesto senior?

Ayer en este articulo compartido por un alumno de la carrera de CM en Arcos, me encontré con un interesante dato: en EEUU el 79% de los community managers, trabaja directamente para marcas, mientras que el 21% lo hace para agencias.

¿Será similar la realidad en América Latina? No lo se, pero lo que he observado es que en el contexto local hay gente en puestos senior como CM. En el diplomado de CM (también en Arcos) he tenido alumnos que están a cargo de la estrategia, rindiendo con métricas, dirigiendo un equipo, etc. Eso solo parece ocurrir cuando el CM trabaja directo para la marca u organización, quizás porque en las agencias queda mucha gente que viene del mundo offline y se quiere apropiar del mundo online usando su experiencia como capital, algo que a veces le sirve al cliente, pero a menudo no necesariamente.

Lo que sí, casi siempre el CM que ya no está en la primera línea de atención directa tiene un oficio previo amplio, como publicidad o periodismo. Eso posiblemente cambiará cuando al incorporarse al mercado gente que estudió carreras especializadas en lo online, como aquella donde imparto docencia.

Lo otro que debe influir: al estar EEUU unos años más avanzado que América Latina en el ámbito de la comunicación social, hay más pymes haciendo presencia en social media, mientras que en América Latina todavía la cosa está partiendo con marcas u organizaciones de mayor tamaño, donde es más probable la relación previa con agencias.

En la medida en que van entrando las pymes, el “hombre orquesta” o un equipo pequeño tienen más sentido, ya sea porque la pyme no tiene una agencia diciendo “¡yo, yo!” o porque la organización descubre que al internalizar (contratar in-house) y/o desinternediar (externalizar free-lance) tiene mejor relación rendimiento/costo.

El consejo entonces, si eres community manager, es que no descartes la posibilidad de trabajar por tu cuenta, directamente para clientes, ya sea prestando servicios como contratado,  independiente o asociándote para formar un equipo. Quizás se puede aprender bastante en una agencia, pero siempre habrá un límite por los que llevan más tiempo y un costo para el cliente y para ti por la "comisión".

Y por cierto, puede ayudar también tomar un curso o carrera corta de formación especializada, aunque naturalmente tengo interés comprometido en ese consejo :-)

Ignacio Rodríguez de Rementería