Spanish

Privacidad, vigilancia, filtraciones, y el resto de nosotros

Submitted by gwolf on Fri, 12/13/2013 - 09:49
Wolf G.  2013.  Privacidad, vigilancia, filtraciones, y el resto de nosotros. Software Gurú.

Este año que va terminando tuvo una buena cantidad de sorpresas y de temas prevalentes con que podremos caracterizarlo al referirnos a él en el futuro. Pero muchos estarán de acuerdo en que si tuviéramos que elegir un solo tema que revele los cambios de percepción (y los resultantes cambios conductuales de la población toda), en particular en nuestra área de ocupación, muy probablemente será todo lo que se ha escrito y debatido alrededor de las filtraciones de Snowden. La confirmación de que la Agencia de Seguridad Nacional (NSA) de los Estados Unidos lleva a cabo un espionaje profundo y constante sobre los datos relativos a las comunicaciones, no sólo de sus 300 millones de habitantes, sino que de todo lo que pasa por las redes que cruzan su país (lo cual significa, con mucho, la mayor parte del tráfico de Internet del mundo), y de forma un tanto más selectiva, de tantas personas como sea posible en todo el mundo.

El lector cuidadoso habrá notado que no califico de revelador a las filtraciones mismas, sino que al fenómeno que ha surgido alrededor de ellas. Posiblemente uno de los hechos más fascinantes acerca de esto que muchos han bautizado de fantasía distópica vuelta realidad es que… El nivel y profundidad del espionaje no sorprenden a nadie. Los datos que reveló Snowden no nos revelan nada que no supusiéramos — Su impacto está en que nos lo confirman, nos detallan los mecanismos con que operan, algunos nombres clave, y poco más que eso. Y sin embargo, desde que las primeras filtraciones respecto a PRISM fueron publicadas el 5 de junio, tras la huída de Snowden a Hong Kong… Toneladas de tinta han corrido (electrónica y tradicional) reseñando tanto las filtraciones originales como a otras posteriores, tal vez de menor envergadura, pero de mayor impacto. Con estas me refiero a las revelaciones específicas que se han hecho acerca de los mecanismos de espionaje a actores políticos, particularmente de Alemania, Brasil, China, Francia, el Reino Unido — Y México.

Claro está, si bien son datos completamente independientes, estas filtraciones se engranaron perfectamente con las publicadas en 2010 por Wikileaks. Y el principal argumento que ha respondido el gobierno de los Estados Unidos ha sido también el mismo:1 Básicamente, «Si espiamos, es porque requerimos tener información acerca de los riesgos que nos acechan; cualquier gobierno tiene que hacerlo, y la NSA se mantiene dentro de su marco legal». Argumento, a ojos de muchos, falaz, incompleto e insatisfactorio — Pero no por eso inesperado.

Resulta interesante ver cuál ha sido la reacción de algunos de los gobiernos recién mencionados. Tristemente, el nuestro no ha presentado mayor muestra de incomodidad; al día de hoy, la mayores reacciones han sido las de Alemania y Brasil. Y si bien es aún muy temprano para hablar de resultados tangibles, el movimiento que se ha despertado –entre entidades gubernamentales– para crear un tendido de fibras que una a los países de Sudamérica directamente con los europeos, para dejar de depender de las telecomunicaciones estadounidenses, apuntan claramente en un sentido interesante.

Pero… ¡Son sólo metadatos!

Otra respuesta, que vimos particularmente en los primeros momentos tras estas revelaciones, resulta también muy interesante — Y es a partir de esta que quiero elaborar. La NSA justificó la información recabada por medio de PRISM como inocua indicando que no se ocupaban del registro de los datos (grabación de las llamadas telefónicas o correos electrónicos), sino que únicamente de los metadatos (quién habla con quién, a qué hora lo hace, por cuánto tiempo). Esto permite a la NSA enfocarse en quienes traban contacto regular con los actores más peligrosos, o presentan patrones más sospechosos. Esperaban con esto acallar a los defensores de la privacidad.

Lo que me sorprendió en este sentido no es que una o dos personas dijeran, "eso que dicen es falso". Cientos de aficionados al análisis de patrones por todo el mundo lo dijimos, en nuestros pequeños foros. Lo que me sorprendió es la cantidad de publicaciones que hubo, en espacio de apenas un par de días, demostrando el verdadero impacto de los datos que PRISM había recabado en términos claros y concisos, en claros artículos de divulgación. Un par de ejemplos:

  • El 7 de junio, la conocida organización de defensa de los derechos personales en el mundo digital, Electronic Frontier Foundation, publicó un texto corto, de menos de una cuartilla: «Why Metadata Matters».2 Por medio de cinco sencillísimos ejemplos demuestran que los metadatos son muchas veces más importantes que los mismos datos, revelan tanta información como la que revelaría el contenido mismo de las llamadas. Estos ejemplos aparecieron repetidos en decenas de otras publicaciones de los días subsecuentes.
  • El 9 de junio, Kieran Healy publicó en su blog «Using Metadata to find Paul Revere».3 Hace un paralelo de lo más simple e interesante, dando los fundamentos del análisis de redes sociales desde una perspectiva sociológica, que podría haber conducido al arresto de uno de los padres de la independencia de los Estados Unidos por parte de los ingleses.
  • Matt Blaze, investigador en criptografía de la Universidad de Pennsylvania, presentó el 13 de junio en la revista Wired el artículo «Phew, NSA Is Just Collecting Metadata. (You Should Still Worry)»;4 en un breve artículo cubre la profundidad de la información que puede obtenerse de sólo conocer los metadatos, y el por qué resulta tan difícil evitar dejar rastros, incluso siendo individuos plenamente informados.

Pero, de nuevo, estas filtraciones no son nada verdaderamente nuevo, sólo trajeron de vuelta (y con gran fuerza) a una arena más amplia el debate sobre lo que ya era bien conocido. Como ejemplo, me permito referirlos a la columna que publiqué en Software Gurú hace dos años y medio, «Georeferenciación a nuestras espaldas».5

La red toda: ¿En quién confiamos?

Ahora, ¿qué hay cuando nos enfocamos en algo más cercano a nuestra vida diaria? ¿Qué hay acerca de las empresas cuyos servicios empleamos en nuestro diario navegar? Algunas de las revelaciones más importantes que han seguido a las filtraciones originales se encaminan mucho más al cómo obtuvo el gobierno americano los datos en cuestión: A través de solicitudes (muchas veces más bien casuales, no necesariamente por los canales que demanda la justicia) hechas a los principales proveedores de servicios. Facebook, Google, Amazon, los proveedores de conectividad responden gustosamente a todas las solicitudes de información.6

Hay, claro, otras empresas que basan su operación y su reputación en asegurar la privacidad de sus usuarios. Y en agosto nos encontramos con algo muy parecido a la historia del cierre del anonimizador más famoso de la red, anon.penet.fi, allá por 1997:7 El proveedor de correo seguro Lavabit, en el cual tenía su cuenta Snowden, decidió cerrar operaciones por completo antes que otorgar a la NSA las llaves criptográficas que les permitirían tener acceso a la información de todos sus usuarios. Pero este caso de respeto a la privacidad es claramente minoritario.

A niveles intra-organizacionales, tras una primer etapa de emoción por emplear servicios en la nube, he visto un resurgimiento del interés por no perder la flexibilidad, pero operar dentro de nubes propias. Pongo como ejemplo a la UNAM, que tras algunos años de haber enviado la gestión del correo electrónico de decenas de miles de sus académicos a la nube de Microsoft, probablemente por presiones de los mismos, ahora está ofreciendo nuevamente trasladarlo a infraestructura propia.8

Privacidad y vigilancia… ¿De quién?

Supongo que hasta este punto, prácticamente todos los lectores van conmigo. Nadie quiere ser espiado, y mucho menos por el gobierno de una nación extranjera, un gobierno que ha demostrado una y otra vez que no conoce de límites.

Pero por otro lado, muchos de nosotros no tendremos mucho que temer en lo personal de dicho gobierno, o incluso del nuestro propio (que estaría mucho más directamente interesado en conocer algunas de nuestras peligrosas actividades, tal vez incluso de actuar en consecuencia). Pero… Como dicen, quien tiene la información tiene el poder. ¿Tenemos que pensar tal vez en otros actores que estén penetrando a la esfera de nuestros datos?

Si bien siempre ha habido quien intenta que comprendamos la gravedad del tema (¿Visionarios? ¿Activistas? ¿Obsesivos? ¿Paranóicos? El calificativo queda en manos de usted, querido lector), el tema apenas está entrando al debate público ahora. Sobra explicar a este público el potencial y la profundidad de lo que se puede obtener por medio de mecanismos de minería de datos, del famoso Big Data.

Hay una gran cantidad de razones por las cuales cada uno de nosotros como persona podría no querer brindar todos sus patrones de movimiento y comportamiento social — Ya no sólo a los gobiernos del mundo, sino que a las grandes empresas de publicidad dirigida (recordemos que el gigante tecnológico Google es en primer término una empresa de publicidad, y sólo despúés de ello todo lo demás).

Más allá de la publicidad: Los vendedores de servicios. Desde los más directos y honestos, como Amazon (¡pero recordemos lo importante que les resulta construir nuestros perfiles de consumo personal cuando les contratemos espacio en la nube!) hasta los más obscuros (Seguramente han visto que distintos sitios de relaciones discretas entre adultos
se toman la molestia de crear un perfil a su nombre al enviarles publicidad, facilitándoles emplear sus servicios).

Y para nosotros que hemos invertido tanto en convertirnos en tecnólogos respetados, ¿qué tanto podemos cuidar nuestra identidad sin convertirnos en ermitaños digitales, sin renunciar a las bondades de la red? Hay una gran cantidad de matices. Si les interesa profundizar en el tema, les invito a leer el texto publicado por Sarah Kessler en la revista electrónica Fast Company9.

Les sugiero también revisar varios de los artículos que publica este mismo mes la revista Communications of the ACM10, que tocan el tema desde muy distintos ángulos: Desde la editorial, que compara la realidad actual con el 1984 de George Orwell hasta explicar por qué una tecnología tan potencialmente invasiva como el Google Glass, que presenta ejemplos de cómo las expectativas de privacidad han cambiado en los últimos cien años con ejemplos que, a pesar de su seriedad hace décadas, hoy nos parecen francamente risibles.

Nota al pie

1 Encontrarán muchas fuentes, cito meramente como ejemplo a http://www.jornada.unam.mx/2013/10/26/index.php?section=mundo&article=016n1mun
2 https://www.eff.org/deeplinks/2013/06/why-metadata-matters
3 http://kieranhealy.org/blog/archives/2013/06/09/using-metadata-to-find-paul-revere/
4 http://www.wired.com/opinion/2013/06/phew-it-was-just-metadata-not-think-again/
5 http://gwolf.org/node/3089
6 Por ejemplo, a fines de agosto, Facebook publicó el «Reporte Global de Requisiciones Gubernamentales»,
https://www.facebook.com/about/government_requests
7 http://www.december.com/cmc/mag/1997/sep/helmers.html
8 http://infocorreo.unam.mx/
9 http://www.fastcompany.com/3019847/think-you-can-live-offline-without-being-tracked-heres-what-it-takes
10 http://cacm.acm.org/magazines/2013/11

De single-boards y microcontroladores

Submitted by gwolf on Wed, 10/16/2013 - 04:14
Wolf G.  2013.  De single-boards y microcontroladores. Software Gurú. :18,19.

Las promesas del Internet de las cosas han estado por décadas ya a la vuelta de la esquina, y cada vez parecen acercarse más. Imaginar un mundo de sub-artefactos inteligentes (me niego a darle el título de computadora completa a un empaque de leche, el típico ejemplo, por el simple hecho de que un microcontrolador en su empaque me permita leer «Contenido: 32%; Frescura: 4 días») nos ha resultado natural desde hace mucho, posiblemente por la prevalencia de estas ideas en las novelas de ciencia ficción por mucho más tiempo ya.

Como contraejemplo, la adopción, crecimiento y masificación de Internet, y lo fundamental que nos resulta hoy en día para comprender a la sociedad o participar en ella, nos tomó mucho más por sorpresa, y tal vez sea en parte porque era algo prácticamente nunca imaginado. Si revisamos la ciencia ficción entre los años 1950 y 1980, muchos relatos consideran como un hecho casi cotidiano el tema del viaje en el espacio y –dependiendo, claro, de las inclinaciones narrativas del autor– la inteligencia de las cosas que acompañan a los héroes del relato, pero muy frecuentemente las comunicaciones que describen se sienten, a nuestros ojos y a sólo 20 años de la masificación de Internet, como reliquias de tiempos hace mucho desaparecidos. Vamos, se sienten tan anacrónicas como hoy en día un fax, ese mágico e impresionante implemento que a tantos nos maravilló hace no tanto tiempo.

¿Y por qué el contraejemplo? Porque tuvieron que pasar varios años desde el inicio de la masificación del uso de Internet hasta que fuera terreno explorado y comprendido por el ecosistema que hoy la conforma.

Entonces, decíamos, parece que, ahora sí, las cosas (en contraposición de las computadoras, a quienes podemos ver como ciudadanos de pleno derecho en nuestra red de redes) están a punto de estar tan conectadas como nosotros, con nuestros lentos y analógicos cerebros que requieren de prótesis para participar en el intercambio global de información. ¿Por qué ahora sí?

Hay dos factores fundamentales que han demorado esta realidad, fuertemente interrelacionados: Costo y tamaño. El Internet de las cosas requiere que los miles de computadoras y microcontroladores que nos rodeen sean tan pequeños, y que lleven un precio unitario tan marginal, que podamos olvidarnos de ellos, que no nos acordemos de su existencia excepto cuando requiramos pedirles información (o cuando estos determinen, basados en los valores que les configuramos previamente, que ocurrió un evento de nuestro interés). Y en ambos casos, todo apunta a que ahora sí estamos a punto de dar el paso.

Me gustaría hacer predicciones acerca de cómo es que esto nacerá como un nicho, y se masificará tanto o más que lo que ha hecho Internet. Sería muy divertido ahondar en cómo resolver los problemas de autoconfiguración y de uso de ancho de banda cuando tengamos cientos de redes de área personal luchando por intercambiar mensajes de forma coordinada en un mismo vagón de metro, e imaginar las tremendas implicaciones que estos desarrollos tendrán para otra redefinición más de lo que constituye información íntima, privada, personal… Pero mi horóscopo el día de hoy apuntaba a que todas las predicciones que haga serán erróneas.

Entonces, para evitar caer en la futurología, toca la tarea de evitar que el futuro nos tome desprevenidos. ¿Cómo podemos comenzar a desarrollar habilidades y conocer las herramientas que emplearemos para no sólo utilizar, sino que ser partícipes de la creación del Internet de las cosas?

Los invito a voltear hacia el área denominada del Cómputo de ultra-bajo costo (Ultra Low Cost Computing, ULCC). En los últimos años han salido al mercado varios dispositivos con los que podemos irnos acercando a las restricciones y las realidades del entorno con el que trabajaremos. Sugiero mirar, con ojos muy distintos, en dos direcciones fundamentales: Por un lado, hacia el desarrollo de microcontroladores, y por el otro, hacia el desarrollo de computadoras mínimas (Single-board computers). Y en particular, a pesar de que hay ya una amplia gama de productos que cubren este espacio, los productos más definitorios del sector hoy en día son el Arduino y la Raspberry Pi.

Es dificil definir de forma clara y sin ambigüedad el punto en que deja de ser un microcontrolador y comienza a ser una computadora mínima. El punto que empleo es la existencia o falta de puertos para interfaces estándar de entrada/salida: Al trabajar con microcontroladores, en general interactuaremos con ellos exclusivamente a través de una serie de pines individuales que pueden ser programados y manipulados de forma independiente; en una computadora mínima normalmente es posible conectar por lo menos un teclado y un monitor.

Un punto, a mi entender, muy importante en ambos casos es que estas dos principales plataformas son productos desarrollados en primer término con fines educativos — Tema que abordaré brevemente.

La familia Arduino

La familia de microcontroladores Arduino nace desde modelos muy básicos, con 2KB de memoria y basados en un procesador de 8 bits, pero al ser diseños de hardware libre, diferentes diseños han ido apareciendo, incorporando todo tipo de interfaces, procesadores más avanzados y medios de adquisición de datos.

Pero incluso con los diseños más sencillos, ver lo que en unas cuantas tardes de ocio dedicado a programar puede lograr un aficionado a la electrónica es impresionante: Me tocó ver a un pequeño Arduino con 2.5KB de memoria controlando una pantalla de televisión analógica, empleando únicamente dos de sus hilos de salida. Con sólo usar como referencia los relojes que emplea el viejo estándar de televisión NTSC y un poco de ingenio, nos presentaron un pequeño videojuego. No, no utilizando una tarjeta de video, sino que modulando la frecuencia directamente con el procesador.

Los Arduinos se programan por medio de un lenguaje cercanamente derivado de C, que incluye macros facilitando el uso de las características del hardware.

El precio de los Arduino (a partir de unos 20 dólares) puede parecer elevado si consideramos que querremos embeberlo en todo tipo de productos. Pero una vez desarrollado el prototipo, puede contratarse la manufactura a gran escala de un microcontrolador dedicado, todavía más pequeño y más barato que éste. Los Arduinos están basados en arquitecturas de procesadores disponibles comercialmente, y sin duda los veremos poblando a muchas de esas cosas inteligentes conectadas a la red.

Raspberry Pi

La Raspberry Pi ha causado un gran revuelo e interés en la comunidad de aficionados: Es una pequeña computadora, con prestaciones equivalentes a los equipos de escritorio que estaban en el mercado hace 5 o 10 años, a un precio de apenas €30, y con suficientes puertos y capacidad para considerarla una computadora completa. Además, tiene –al igual que los Arduino– una serie de pines independientes para entrada y salida programable, pensados para manejar una serie de sensores y actuadores según lo requiera cada proyecto.

Lo que logra una Raspberry con su humilde procesador ARM y 256 o 512MB de memoria (depende del modelo) es notable: Puede correr una distribución estándar de Linux, con un entorno ligero de escritorio. El sistema Raspbian, promovido por sus desarrolladores, viene cargado con entornos de enseñanza de programación aptos para niños de diferentes edades, y con herramientas de cómputo en general — Navegador, suite de oficina, etc.

En mi opinión, resulta erróneo presentar a la Raspberry como un reemplazo de computadoras estándar para entornos económicamente desfavorecidos. A pesar de haber experiencias como la de un laboratorio de computación en una región rural de Camerún,1 y probablemente haya muchos otros, estas maquinitas están más bien enfocadas a la enseñanza de computación a otro nivel, enfocadas a crear nuevas soluciones, casos de uso aún no cubiertos. Convertir a una Raspberry en una computadora tradicional eleva fuertemente su costo (el impulsor europeo del proyecto de Camerún estima €250).

¿Fines educativos?

Como ya mencionamos, tanto los Arduinos como la Raspberry fueron creadas originalmente con fines educativos. ¿Por qué resulta esto relevante? Más allá de ser ejemplos de desarrollos exitosos de hardware libre, diseñados por una comunidad de entusiastas, un importante punto es que son proyectos que buscan despertar la creatividad, el asombro que muchos de nosotros sentimos hace tantos años, al tener la oportunidad de usar una computadora por primera vez, al darnos cuenta de que en realidad podíamos hacer que un artefacto mágico nos obedeciera.

Obviamente, esa época pasó, y describir la magia de algo hoy tan cotidiano no hace más que constatar la edad del que escribe. Sin embargo, yendo más allá de la importancia de estos dispositivos como parte de una estrategia comercial y de desarrollo de habilidades profesionales, me parece muy importante que estos "bichitos" pueden encender la curiosidad y atraer a nuevos entusiastas a nuestro campo.

El nivel de matriculación en las carreras que conducen a la formación de profesionales capaces de desarrollar sistemas e impulsar las nuevas tecnologías han ido cayendo a nivel mundial. Nuestra profesión ya no es vista como "la carrera del futuro", y cada vez es menor la proporción de jóvenes que deciden dedicarse al apasionante mundo del desarrollo de sistemas. Sin embargo, la ciencia ficción sigue llamando, seguimos queriendo traer la magia que nos prometieron para aquel nebuloso futuro que no termina de llegar. Estos modestos juguetes pueden también representar parte de la respuesta y traer a nuevos entusiastas.

Pies de página:

1 http://www.raspberrypi.org/archives/3634 — Bringing computing to rural Cameroon

Voto electrónico: Es cuestión de confianza

Submitted by gwolf on Thu, 05/09/2013 - 11:36
Wolf G.  2013.  Voto electrónico: Es cuestión de confianza.

Voto electrónico. La sociedad en general espera que nosotros los tecnólogos seamos los primeros en apoyarlo, sus principales promotores e impulsores. Lo que es más, por lo que he visto en diversos países… ¡Parece que la sociedad en general lo apoya!

Pero… ¿Qué es lo que apoyan? Hablar del voto electrónico así, como de un bien abstracto, no nos aclara lo suficiente el panorama como para entender cuál es la motivación real — Cuál es el problema que plantea resolver, y por qué esa respuesta se antoja deseable para la sociedad de nuestros países. Y mientras resolvemos esa pregunta, probablemente también encontraremos qué es lo que verdaderamente hay detrás de estas propuestas.

Los argumentos principales que se esgrimen a favor de migrar a un esquema de voto electrónico son la inmediatez de los resultados, la confiabilidad de los resultados, y el costo del material electoral. Y tristemente… adoptar esta forma de votación no presenta la menor mejoría en ninguno de ellos. En este texto abordaré los dos primeros apartados; el tema del costo no es menor, y también resulta profundamente engañoso, pero analizarlo nos llevaría por una temática distinta — Claro está, para los lectores interesados en profundizar sobre este tema, o cualquier otra arista de esta temática, me pongo a sus órdenes en mi dirección electrónica.

Emplearé como principal caso de referencia para este análisis a las pasadas elecciones generales en Venezuela, celebradas el 14 de abril. Hasta ahora, Venezuela ha sido visto como caso paradigmático del éxito del voto electrónico… Pero eso ha sido, precisamente, porque hasta ahora no se había presentado ningún caso disputable. Esto es, porque el resultado de la elección ha estado dentro del umbral aceptable para su sociedad. ¿Qué pasa cuando cruzamos el márgen mínimo de confianza? Ahora que tuvieron un resultado cerrado, con un márgen de sólo 1.5%, se ha presentado una crisis de credibilidad, movilizaciones sociales, e incluso ocho personas muertas en los disturbios.

Podemos comparar el desarrollo posterior de los acontecimientos con lo que ocurrió en México, un país de grado de desarrollo socioeconómico no demasiado distinto del venezolano, con aproximadamente el doble de superficie y cuatro veces la población de Venezuela, y que lleva su sistema electoral federal prácticamente de forma 100% manual, en las últimas dos elecciones federales (2006 y 2012). En la primera, el márgen oficial de diferencia fue del 0.5%, y en la segunda, del 6.5%.

En primer término, la inmediatez. Desconfiamos del periodo en que la autoridad tiene ya los resultados emitidos pero no ha emitido los resultados, porque son el periodo perfecto para instrumentar un fraude.

¿Cómo es el proceso en una elección “tradicional” con boletas de papel? En México, en 2006, la última casilla cerró a las 20:00 (hora del centro) autoridad electoral decidió no emitir resultados preliminares a las dos horas, como acostumbra hacerlo, porque la diferencia era demasiado estrecha y podía variar. Fue hasta las 3AM que el resultado preliminar fue hecho público, y no fue sino hasta tres días más tarde que se confirmó la cifra oficial — Y sí, la distancia entre el primer y segundo lugar se redujo de 1.2 a 0.5%. Sin embargo, lo fundamental en este sentido es que la autoridad electoral esperó hasta que, estadísticamente, el resultado era ya estadísticamente irreversible — Y esto ocurrió a las 3AM, esto es, 7 horas después de cerrada la última casilla.

Ahora, la tensión post-electoral tras un resultado tan cerrado fue tan grave en 2006 que para el 2012 se decidió que los resultados se harían públicos incluso antes de que se estableciera una tendencia clara. Desde las 20:00 podían consultarse los resultados parciales, y hacia las 22:00 el conteo había avanzado lo suficiente como para estabilizarse en lo que fue el resultado final — 2 horas después de cerrada la última casilla.

En Venezuela, en 2013, el cierre de casillas fue a las 18:00 el resultado fue publicado a las 22:00, esto es, 4 horas después del cierre del periodo legal. Si bien la diferencia con los procesos mexicano es el rango de oficial de los resultados (en el caso mexicano, el número total publicado fue del conteo rápido, mientras que el resultado oficial fue apenas confirmado tres días más tarde, y en Venezuela el dato tenía ya caracter de oficial), la diferencia resulta meramente semántica: En ambos casos, el primer resultado se presenta aún sujeto a ajustarse en base a las denuncias de irregularidades, y está sujeto a auditoría por parte de los actores relevantes. Y sí, también en Venezuela el resultado se ajustó levemente en los días posteriores.

Sin embargo, entramos aquí al tema fundamental que busco abordar: En un entorno de cuestionamiento y de votaciones cerradas, como podemos observara la población no le importa tanto si el conteo es hecho por máquinas o por personas. Si el entorno político no genera confianza, una elección cerrada llevará a movilizaciones callejeras y, si los políticos actores no lo manejan con prudencia, a violencia física.

Ahora bien, MoofMonster es un espacio para hablar de tecnología más que de política, ¿no es cierto? ¿A qué viene esta participación entonces? Lo que me interesa compartir con ustedes, de tecnólogo a tecnólogo, es por qué precisamente a nosotros debe preocuparnos que se plantee una adopción a ciegas, que esa sociedad en general de la que hablábamos al principio asuma que, sólo por contener tecnología, el voto electrónico representa una ventaja sobre del sistema electoral que conocemos de toda la vida.

Ilustremos esto con un símil: Frecuentemente, al presentar este tema, me han preguntado: «Yo confío en la seguridad electrónica para mis transacciones económicas. ¿Por qué no habría de confiar para mi voto?» Y la respuesta resulta obvia: La auditabilidad. El comprobante que liga a cada transacción — El banco relaciona al comprador y al vendedor, quienes pueden verificar por separado que la transacción haya o no sido realizada, así como la cantidad de que se trata. En caso de haber alguna anomalía en la transferencia respecto a lo que esperaban, incluso semanas más tarde, ambos pueden exigir al banco la revisión de la transacción.

Esto nos lleva a que el problema fundamental es que, sencillamente, no puede existir una implementación de voto electrónico que nos garantice un nivel de confiabilidad tan alto como el de un proceso basado en papel dos características básicas: La integridad y la secrecía del voto — Esto es, poder asegurar tanto al momento de la emisión como en una revisión posterior que el sentido de cada uno de los votos emitidos será siempre el que el votante decidió y, al mismo tiempo, imposibilitar que se revele el voto de una persona dada. ¿Por qué es tan importante el secreto electoral? Porque es la única manera en que la podemos evitar la compra de votos o el voto bajo presión: Nadie, ni siquiera el mismo votante, debe poder demostrar ante un tercero por quién votó.

Argumentan que respaldar cada voto en un comprobante impreso soluciona este problema. Esto es falso, por varias razones. La primera, y más importante, es que cuando es implementado un sistema electoral basado en voto electrónico, el documento de valor legal es la memoria de la computadora. Así es, contrario a nuestras expectativas, los papelitos testigo emitidos no son un documento legal. Podemos ver esto en Venezuela: Las solicitudes de recuento fueron desechadas; Luisa Estela Morales, presidenta del Tribunal Supremo de Justicia, aseguró que en Venezuela el voto manual no existe y que, por lo tanto, quienes dicen exigir un recuento voto por voto engañan a sus seguidores.

Hay otros argumentos relativos a la impresión de comprobantes — Desde estudios estadísticos que apuntan a que no todos verifican lo que aparece impreso en un pequeño papel (especialmente entre la población con debilidad visual). Otros datos apuntan a votantes que se llevan su recibo, confiando en que resultará irrelevante (y posiblemente para cerrar el círculo para una compra de votos). Otros más apuntan a la dificultad que enfrentaría un votante si quisiera demostrar que él quiso emitir su voto en un sentido, pero la máquina lo imprimió en otro: ¿Cómo debe reaccionar la mesa electoral ante ello?

Podría (y me gustaría) seguir argumentando, aunque sé que probablemente esto comenzaría a sumir a más de uno de los lectores en el aburrimiento — Les dejo sólo un último punto para reflexionar: Alemania fue uno de los primeros países en incursionar en el voto electrónico. En 2009, lo abandonó por completo.

El argumento esgrimido por la Suprema Corte Federal es tan demoledor como bello: ¿Quién está facultado para realizar el escrutinio? El proceso democrático tiene muchos ingredientes que invitan al involucramiento de la sociedad. Es por eso que, prácticamente en todos los países del mundo, los funcionarios electorales son ciudadanos sin afiliación partidaria o gubernamental, seleccionados por sorteo. Cualquier persona con escolaridad básica e interés en la vida de su país puede auditar la emisión del voto, conteo, llenado de actas, transmisión y totalización de resultados.

En el momento que involucramos a urnas electrónicas, estamos descalificando para la comprensión del proceso electoral a más del 99% de la población — Y lo que es peor, exige que ese 99% confíe no sólo en el 1% capaz de comprender el código, sino que en la mucho más pequeña porción de dicho 1% que diseñó el modelo específico de equipo de votación empleado.

La tecnología ha modificado prácticamente todos los aspectos de nuestras vidas. Hoy usamos computadoras prácticamente en todo momento, y la mayor parte de estos cambios han sido profunamente para bien. Sin embargo, en algunos aspectos, sencillamente no van. Espero que, al igual que yo, todos ustedes prefieran reunirse a tomar un café con sus amigos humanos que platicar con un agente de inteligencia artificial.

A pesar de ser una fantasía recurrente en la ciencia ficción, espero que nunca llegue el día en que nos enamoremos de robots en vez de tener una pareja, un compañero de vida, con sangre en las venas al igual que nosotros. Nuestra vida en sociedad merece ser mediada entre humanos, y merece que seamos humanos los actores en sus partes substantivas. El acto fundamental de una sociedad democrática no gana mucho si es puesto en manos de un equipo electrónico, y tiene muchísimo que perder.

Mantengámonos votando en papel. Es cuestión de confianza.

( categories: )

Lo que muchos no saben del voto electrónico

Submitted by gwolf on Mon, 04/22/2013 - 09:50
Martínez R, Wolf G.  2013.  Lo que muchos no saben del voto electrónico. 2013

Hace unas semanas publicamos una entrevista con Edgardo Torres Caballero, gerente general en América Latina, Caribe y Portugal de Scytl, quien nos habló acerca de los beneficios del voto electrónico y de su adopción en la región.
Sin embargo, en OhMyGeek! recibimos un “derecho de respuesta” de Gunnar Wolf, académico de la Universidad Nacional Autónoma de México, y desarrollador de software libre.
Según Wolf, es de esperar que personeros de empresas de tecnología para la automatización electoral pinten una realidad tan perfecta del voto electrónico. Sin embargo, el académico comenta que, durante su trayectoria, no ha encontrado a ningún experto en seguridad informática que defienda al voto electrónico y que lo pinte como algo tan seguro, en comparación a una elección base-papel promedio.
En este caso, Wolf nos pidió poder dar su punto de vista respecto al voto electrónico, y esto fue lo que nos dijo:

Antes que nada, agradezco profundamente este claro –y muy sui-generis– derecho de réplica al lector que me dan, en primer término, Rosa Martínez Gómez (quien llevó la entrevista con Edgardo Torres) y, obviamente, a OhMyGeek! por el espacio por medio del cual esta llega a ustedes.
La invitación que me hizo Rosa fue a responder a las mismas preguntas que ella hizo a Edgardo Torres. Claro está, algunas de las preguntas son específicas a los equipos y planes de desarrollo de negocio de Scytl — No respondo a esas preguntas por razones obvias.
1. Hoy todo es crackeable y, por otro lado, los números de cibercrimen en Latinoamérica son alarmantes. Entonces, ¿cómo podría impedirse que un cracker altere los resultados electorales de un país?
Esta primer pregunta es precisamente el mayor “quid” del voto electrónico. La respuesta, por alarmante que parezca, es que es sencillamente imposible evitar un ataque de este tipo.
Analicémoslo brevemente: Un componente fundamenatal del foto es el secreto. Lo único que debe saberse de cada votante en particular es que emitió un voto (y, por tanto, no puede volver a hacerlo). Debe ser imposible demostrar por quién votó — Lo que es más, ni siquiera el mismo votante debe poder hacerlo, porque esto abriría la puerta a la presión, sea por compra de votos o por relaciones de dominación familiar, laboral, de grupo social, o de otra índole.
Muchas veces se nos presenta la siguiente comparación: ¿Por qué confiamos en la banca electrónica y no en el voto electrónico? La respuesta es esa: Las transacciones económicas deben tener perfectamente identificados a los actores, y deben estar sujetas a una auditoría completa. En el momento que se plantea como requisito la destrucción de parte de la información (se debe mantener el secreto electoral), no se puede bajo ninguna circunstancia asegurar la integridad de la misma.
Lo que es más: Este hecho se ha demostrado ya en repetidas ocasiones, empleando diferentes técnicas, en todo el mundo y en diferentes etapas del proceso. La modificación puede hacerse al grabar los resultados en las urnas (como lo ilustró el grupo “Wij vertrouwen stemcomputers niet” en 2008 en Holanda), al leer de ellas (como lo hicieron Hari K. Prasad, J. Alex Halderman y Rop Gonggrijp en La India en 2010) e incluso al transmitir los votos, sin siquiera tener acceso físico a las urnas electrónicas (como lo hizo Reinaldo Mendonça en Brasil en 2012). Y lo más preocupante es que sólo sabemos de los ataques hechos con fines académicos
¿Cuántos no habrán ya pasado bajo nuestras narices?
2. ¿Cómo se realiza la identificación de los electores?
Del mismo modo que hay distintos fabricantes de urnas y sistemas, también hay distintos esquemas de identificación. En primer término, hay urnas electrónicas que siguen dependiendo de que las autoridades de mesa electoral verifiquen la identidad del votante manualmente (por ejemplo, verificando su identificación contra el padrón) y lo habiliten para emitir un voto manualmente.
Hay urnas electrónicas equipadas con lectores biométricos, como las empleadas en las elecciones venezolanas, que verifican la huella digital del votante.
Por otro lado, cuando se realizan votaciones a distancia por Internet, hay dos mecanismos: Uno es dotar a todas las identificaciones de dispositivos criptográficos, como se hace desde hace varios años en Estonia y se está impulsando que ocurra también en Perú, y requerir que para emitir un voto la computadora cuente con un lector de dicho dispositivo.
Por último, la modalidad que han impulsado empresas como Scytl (y que fue empleada, por ejemplo, para los votantes de la Ciudad de México residentes en el extranjero en las elecciones del 2012) es la generación de una contraseña en las semanas previas a la elección, y la identificación por usuario/contraseña.
Y de nuevo, la fuerza relativa de cada modalidad se cae ante un simple análisis. La identificación personal, con todas sus fallas, sigue siendo la mejor puntuada. Una urna con lectores biométricos lleva a bien fundamentadas dudas acerca de si la urna verdaderamente mantendrá en secreto la relación entre el votante y el sentido del voto — Y hay casos escalofriantes, como la “Lista Tascón“: En 2004, tras el referendo revocatorio venezolano, en que Hugo Chávez logró una aprobación del 60% para seguir al frente del gobierno, se publicó la relación de quienes votaron en contra suya -Muchos de quienes fueron despedidos de puestos públicos o perdieron la cobertura de programas sociales-.
¿Y respecto al voto a distancia? Mucho peor. Ambos esquemas de identificación demuestran únicamente la posesión de determinado documento o información, no que la persona sea el auténtico votante. Si en mi país se permite el voto por Internet, y en mi empresa me ofrecen un aumento (o me amenazan con el despido) a cambio de que yo le “preste” mi documento electoral a mi jefe, puede hacerse una compra de votos a gran escala.
El no contar con un precinto desde donde pueda ejercer el voto secreto tiene un efecto similar: El jefe de familia o el grupo social pueden proponer/imponer una jornada de voto en conjunto, en que cada miembro del grupo pueda verificar el sentido en el cual votaron todos los demás.
3. ¿La adopción del voto electrónico ha incrementado la asistencia a las urnas?
Esto resulta muy dificil de responder, y depende de la modalidad del voto, y de las aprehensiones particulares de la población en cuestión. Del mismo modo que hay gente que resulta atraída, hay gente que, a pesar de todas las jornadas de sensibilización que se realicen al respecto, el uso de computadoras (por simplificada que sea su interfaz) le seguirá produciendo miedo, desconfianza o incomodidad.
No podemos ignorar casos como el ocurrido en Panamá en 2012, en que para las elecciones internas del partido PRD, con sólo 4200 delegados habilitados para votar, las urnas electrónicas causaron demoras superiores a las cinco horas. Y esto es relevante porque, aunque dicha demora no es un problema frecuente, ilustra cómo muchos factores adicionales pueden influir en que una elección sea un éxito o un fracaso: No es descabellado imaginar que una autoridad electoral parcial envíe a los distritos “políticamente confundidos” (esto es, que muestre preferencia al candidato ”equivocado”) máquinas que funcionen de forma correcta, aunque más lenta o presentando alguna otra incomodidad al votante.
4. En ocasiones el sistema no reconoce el 100% de las huellas digitales. ¿Qué sucede con las personas cuyas huellas no pueden ser reconocidas? 
Depende 100% del fabricante y la autoridad electoral.
5. ¿Cuáles son los principales beneficios del voto electrónico?
A decir de sus proponentes, los principales beneficios serían un menor tiempo de escrutinio, una mayor rapidez para conocer los resultados, y una mayor confiabilidad en los mismos. Con lo que hemos visto, sin embargo, resulta claro cómo en cada uno de esos casos el voto electrónico resulta reprobado.
No podemos dejar de ver como ejemplo claro y paradigmático a lo ocurrido apenas el 14 de abril en Venezuela: Por más que en el país se emplee del voto electrónico desde hace ya 14 años, y las empresas proveedoras de urnas lo citen como ejemplo de transparencia y confianza por parte de su ciudadanía, ante un resultado muy cerrado y con cerca de 3000 denuncias de irregularidades (un número bastante dentro de la norma en las elecciones en nuestro continente), no pudo evitarse la polarización y el enfrentamiento en su sociedad.
En los primeros días tras las elecciones hubo enfrentamientos callejeros que llevaron a siete muertos, una toma de posesión con la mitad de la población dudando de la legitimidad del nuevo gobierno — Y la imposibilidad fundamental (ver pregunta 9) de realizar un recuento.
6. ¿Cuáles son los principales riesgos del voto electrónico?
El principal riesgo es convertir a la democracia en un juego de ”capture la bandera”, de perder la legitimidad que da el voto popular, imposibilitando además a la población en general a convencerse de los resultados a través de una auditoría plena. No creo necesario repetir todo lo que he ido respondiendo a las demás preguntas ejemplificando por qué es tan peligroso y tan claro el peligro.
7. ¿Cuánto debemos esperar para tener urnas que puedan reconocer el iris del ojo de los electores?
Depende 100% del fabricante y la autoridad electoral.
8. Alemania, por ejemplo, prohibió el voto electrónico en 2009, después que un tribunal decidió que el proceso automatizado usado en los últimos 10 años era irregular. La misma prohibición ocurrió en los Países Bajos, en 2008. Entonces, ¿cómo regularizarlo?
Desde nuestra perspectiva, la regularización sería seguir los pasos de estos dos países, abandonando una tecnología que no resulta conveniente. Estos dos países han rechazado al voto electrónico de forma explícita y por completo, pero otros muchos otros países lo han rechazado para sus elecciones normales, relegando su aplicación únicamente para los votos desde el extranjero.
Como ya lo expuse, el voto por Internet desde el extranjero puede parecer una buena idea (e incluso un buen compromiso), pero incluso en dichos casos, es necesario enfrentar a la cuestión con mucha cautela y no dejarse engatusar por respuestas aparentemente sencillas, que resultan en pérdida de confiabilidad.
9. Si yo no tengo un comprobante impreso, ¿cómo sé que lo que voté realmente es lo que se registra dentro de la máquina?
No hay manera de saberlo, ni siquiera contando con un comprobante impreso. En caso de haber algún mecanismo que me permita validar que mi voto fue contado en el sentido que yo lo emití, este mismo mecanismo se hará disponible para los delincuentes electorales que extorsionan o dan dinero a cambio del voto. Incluso el mecanismo que se ha popularizado de generar el llamado ”rastro impreso” resulta insuficiente.
Se han hecho estudios estadísticos que apuntan a que una amplia proporción de la población no verifica el “recibo de supermercado” generado. Por poner sólo un ejemplo, los adultos mayores (y demás personas con debilidad visual) verán un mero comprobante, y no se detendrán a leer cada uno de sus renglones. Además, si la máquina emitiera u papelito contrario al voto emitido, ¿qué puede hacer el votante?
¿Le valdrá la pena registrar una queja ante las autoridades de mesa? ¿Lo hará, o lo dejará de lado? Para un mayor análisis al respecto, les sugiero leer el texto de Federico Heinz¹, “Con imprimir el voto no alcanza“.
Y hay otro punto importante a considerar: ¿Qué significa este papelito comprobante? En el Estado de Jalisco (México), para permitir la instalación de urnas electrónicas que realizaron en las elecciones del 2012, se hizo una modificación legal que traslada el peso documental legal de las papeletas emitidas a la memoria de la computadora: Esto es, incluso si se obtuviera un recuento “voto por voto” de cada uno de los comprobantes emitidos y el resultado fuera distinto del anunciado, la verdad legal es la que indique la computadora.
Y por las declaraciones que al día de hoy ha realizado el Tribunal Electoral venezolano, el caso es el mismo por allá: El documento legal es el acta emitida, y un recuento del 100% de los votos, independientemente de su resultado, no alterará el resultado legal de la elección. Esto es, el papelito denominado “testigo” es equiparable a un placebo médico.
10. ¿Qué niveles de encriptación, de codificación de seguridad alfanumérica, tienen los votos que yo emito?
Depende 100% del fabricante y la autoridad electoral.

( categories: )

Aaron Swartz, el acceso abierto y los estándares

Submitted by gwolf on Fri, 03/22/2013 - 08:30
Wolf G.  2013.  Aaron Swartz, el acceso abierto y los estándares. Software Gurú.

Aaron Swartz, el acceso abierto y los estándares

Estoy seguro que la mayor parte de nuestros lectores estarán ya familiarizados con Aaron Swartz, así como del triste desenlace que tuvo su historia. En todo caso, hagamos un corto recuento antes de entrar en materia.

1 Aaron Swartz, breve reseña

Aaron Swartz fue un jóven entusiasta de la programación, firme creyente de la necesidad de la libre circulación de la información. Su vida tiene muchos momentos dignos de nota; los puntos más relevantes incluyen:

  • Participó en la creación de la especificación RSS 1.0 (W3C RFC 3870) a los 14 años de edad.
  • Fue co-autor del lenguaje de marcado Markdown, diseñado para hacer más natural a un usuario no técnico preparar páginas Web que
    lo que hasta entonces permitia el HTML.
  • Es uno de los creadores de la iniciativa Creative Commons, un conjunto de licencias orientadas a facilitar a los creadores elegir un marco que permita la libre circulación de los bienes culturales, sin renunciar a sus derechos autorales.
  • Participó en la creación del sitio sindicador de noticias sociales Reddit, uno de los primeros sitios en aprovechar la interacción viral y en definir lo que hoy conocemos como temas tendencia.
  • Estuvo involucrado en diversas campañas oponiéndose a las propuestas legislativas encaminadas a la restricción de las libertades individuales en línea, entre las cuales destaca SOPA
  • Creó la Open Library, y la pobló con la información bibliográfica completa de la Biblioteca del Congreso de los Estados Unidos, con un conjunto de información que hasta ese momento, si bien era legalmente del dominio público, cobraba cargos por acceso.
  • Descargó en 2008 la base de datos completa de registros judiciales públicos (PACER), otro caso de información legalmente del dominio público pero restringida por un cargo por acceso. Donó los archivos resultantes a http://public.resource.org/; este fue el primer caso que le mereció ser abiertamente investigado por el FBI, aunque el caso fue cerrado sin presentarle cargos después de dos meses.

Dentro de su lucha por la puesta a disposición irrestricta de la información pública, entre 2010 y 2011 descargó cerca de cuatro millones de artículos académicos del repositorio JSTOR, aprovechando la política de «campus abierto»1 que sostenía el MIT.

Los artículos en cuestión provenían mayormente de investigaciones realizadas con fondos públicos, por lo que deberían ser para beneficio de la sociedad toda, pero por las diversas distorsiones que sufre la publicación científica formal, para tener un factor de impacto deseable para sus autores, tienen que ser publicadas en revistas especializadas que (cada vez menos, pero aún por regla general) ejercen una política intransigente de control de derechos de autor.

En julio de 2011 fue acusado formalmente por esta descarga de actividad criminal. Si bien JSTOR retiró su demanda, las autoridades judiciales continuaron persiguiéndolo de oficio — La fiscal Carmen Ortiz buscó repetidamente fincarle una sentencia de hasta 35 años de cárcel y una multa de hasta un millón de dólares, equiparando sus acciones con actos terroristas. Ante esta presión (y con antecedentes de depresión severa), el pasado 11 de enero Aaron Swartz se suicidó.

2 Las ideas sobreviven

Aaron, del mismo modo que muchos de los activistas del movimiento del software libre, fue encontrando la necesidad ética de activar para fomentar la libre circulación y correcta preservación a largo plazo del conocimiento. Para muchos de nosotros, el movimiento del conocimiento libre es sencillamente la consecuencia lógica del movimiento del software libre, y surge naturalmente (y con las mismas premisas) una vez que el acceso a Internet llega a la sociedad toda.

A fin de cuentas, el código es sólo una herramienta de expresión y comunicación humana (aunque tenga la restricción de un lenguaje formal, de ser interpretable por una computadora). El ideario completo de la Fundación del Software Libre puede aplicarse a cualquier otra área del conocimiento — Y tenemos hoy las herramientas para que la circulación del conocimiento no sólo resulte irrestricta, sino que a un costo de reproducción prácticamente cero.

En sus 26 años de vida, Swartz contribuyó con buena parte de la implementación técnica y activismo social necesarios para impulsar al movimiento del Acceso Abierto (Open Access)2.

Los diversos protocolos y sitios agregadores con los cuales él contribuyó quedan no sólo como legado, sino como indicador de cómo y hacia dónde un jóven brillante vio que podríamos, y deberíamos, avanzar.

3 El acceso abierto — y estructurado

Un corolario fundamental del acceso abierto es que la información, para ser útil, debe estar adecuadamente organizada y clasificada. Simplemente volcar millones de artículos científicos (o programas de computadora, obras culturales o literarias, arte, etc.) en un espacio sin estructura no sirve de mucho — Ahogarse en un mar de información resulta casi tan inútil como no tener acceso a ella. Es por eso que el Open Access va casi siempre de la mano del empleo de herramientas de clasificación, redistribución y agregación basadas en estándares ampliamente reconocidos.

Hay muchos sitios –incluyo entre ellos, por cierto, al de nuestra revista– destinados a la difusión de información con importantes cuerpos históricos.

Si bien aplaudo y agradezco la decisión de Software Gurú de ofrecer el acervo histórico de ya ocho años de trabajo, para que esta información sea verdaderamente útil debería comprometerse a mantener URLs estables a largo plazo y adherirse a un esquema de publicación de material bibliográfico — Muy probablemente, el esquema más adecuado sería el DublinCore3. Este estándar permite la indexación, cosecha y agregación de repositorios por medio de protocolos como el OAI-PMH4.

¿Qué significa semejante verborragia de siglas? Que, para que la información resulte de utilidad para el avance técnico-científico, no podemos sólamente confiarnos al criterio de los indexadores de los motores de búsqueda. Siguiendo un poco la retórica de Tim Berners-Lee impulsada con el título de Web semántica,

Extiende la red de páginas hipervinculadas legibles por humanos, insertando metadatos legibles por computadora acerca de las páginas y sus interrelaciones, permitiendo a los agentes Web entenderlas más inteligentemente y realizar tareas en nombre de los usuarios.

Si bien hay críticas bien fundadas a la propuesta de Berners-Lee, para información tan estructurada como una revista de publicación periódica como esta, el modelo de metadatos DublinCore se ajusta perfectamente.

El Instituto de Investigaciones Económicas de la UNAM, donde trabajo, participa del proyecto de Red de Acervos Digitales (RAD-UNAM)5. Hemos ido creando un acervo interdisciplinario con diversas entidades universitarias que, por medio de OAI-PMH, ofrece una colección unificada y distribuida con miles de objetos académicos de gran diversidad, rescatándolos en buena medida del olvido y de la inaccesibilidad.

Software Gurú va más alla de ser una revista — El cuerpo de noticias del ramo, whitepapers y congresos presenciales y virtuales podrían sumarse al cuerpo de conocimiento disponible y sistematizado publicado en nuestro país, impulsando de este modo su visibilidad y el impacto de lo aquí publicado. Del mismo modo, otras revistas (sean más formales o menos formales, impresas o en línea), boletines, congresos y demás actividades de nuestra área de conocimiento podrían beneficiarse de adoptar estos estándares.

Un repositorio correctamente descrito puede ser cosechado enfatizando en diferentes facetas. El esfuerzo para lograrlo, cierto, no es despreciable — Pero tengo la certeza de que Software Gurú tendría mucho por ganar.

Y más que nuestra revista: Sé que muchos de quienes aquí escribimos, y quienes trabajan con dedicación brindándonos este espacio, más que por ganancia personal, lo hacemos en un afán de contribuir con nuestro granito de arena a la sociedad mexicana — Y si bien la revista tiene su carga técnica, muchos de nosotros aspiramos a contribuir a la profesionalización de nuestro gremio, a una introspección acerca del rol y la responsabilidad social que cargamos

A los pocos días de la muerte de Aaron Swartz, cientos de académicos hicieron públicas copias de sus artículos secuestrados por las editoriales científicas restrictivas como un tributo al trabajo de este jóven idealista y activista. En una especie de paralelo, espero poder impulsar un poco más a través de este texto el conocimiento de las herramientas (y no sólo los principios éticos) que puedan permitir que el acceso abierto y pleno al cuerpo de conocimiento generado por los especialistas sea puesto al servicio de la humanidad toda de forma más efectiva.

Pies de página:

1 Política que permitía a cualquier usuario externo conectar una computadora de su propiedad en la red universitaria y aprovechar los convenios que ésta tenía subscritos. Podemos encontrar políticas similares en todas las principales universidades, partiendo de la premisa de facilitar la labor académica y reducir tramitología.

2 Por si se van perdiendo en la sopa de letras de movimientos libertarios, Open Access busca el libre acceso a publicaciones académicas.

3 http://dublincore.org/

4 Open Access Initiative Protocol for Metadata Harvesting, http://www.openarchives.org/OAI/openarchivesprotocol.htm

5 http://rad.unam.mx

Programación en la escuela: ¿Para qué?

Submitted by gwolf on Fri, 03/22/2013 - 08:14
Wolf G.  2012.  Programación en la escuela: ¿Para qué? Software Gurú. :50-51.

En el número de agosto del 2012 de Software Gurú, Ignacio Cabral Perdomo presentó un interesante artículo titulado «Enseñando a niños a programar: ¿Imposible o una oportunidad?». La respuesta me parece clarísima: Claro que se puede. Esto viene siendo demostrado, con gran
éxito, desde los 1960s, empleando el lenguaje BASIC diseñado por Kemeny y Kurtz, y muy particularmente con el lenguaje Logo, conocido principalmente gracias al trabajo de uno de sus autores, Seymour Papert. El origen del planteamiento de estas tempranas experiencias, sin embargo, me parece radicalmente diferente del planteamiento de Ignacio — Y los argumentos, tanto hace 40 o 50 años como ahora, más convincentes.

El énfasis que presentan las conclusiones de Ignacio apuntan al mercado del desarrollo de cómputo. Cito,

Es muy clara la necesidad de más profesionistas en el área de la Computación y las Tecnologías de Información, en especial en los departamentos de desarrollo de software de diferentes corporaciones pero, desgraciadamente, el interés de los alumnos por carreras de este tipo está reduciéndose de una forma alarmante. Una posible solución es el inculcar desde temprana edad el pensamiento lógico y algorítmico en los niños siguiendo el itinerario de aprendizaje que propongo.

Si bien el artículo refiere que la enseñanza de programación a partir de nivel primaria «ayuda a los chicos a formar ese pensamiento lógico y algorítmico que tanto necesitan», no profundiza en este aspecto, que considero fundamental. ¿Por qué los chicos pueden necesitar un pensamiento lógico y algorítmico?

1 Los hijos de Logo

Soy parte de una minoría afortunada — Y pido disculpas anticipadas si el presente artículo se ve como un viaje a mi anecdotario personal.

Aprendí computación cuando el acceso al equipo de cómputo era extremadamente poco común — Mi primer experiencia fue en la minicomputadora Foonly que había en el IIMAS (UNAM) en 1983, a los 7 años, escribiendo LaTeX con el editor Emacs. Cabe mencionar que el presente artículo, casi 30 años más tarde, lo estoy escribiendo con las mismas herramientas. Tuve acceso a la Foonly gracias a que mi padre trabajaba como investigador en dicho Instituto, y a que tuvo la paciencia de enseñar a su ávido niño ese lenguaje cargado de símbolos y comandos.

Pero creo que mi experiencia con la Foonly se habría mantenido como meramente incidental de no ser porque, uno o dos años más tarde, me inscribieron en IDESE, una de las primeras escuelas de verano dedicadas al cómputo en México. IDESE era una apuesta pedagógica muy interesante; por tres semanas, alternábamos dos horas frente a la computadora con dos horas más con juegos de mesa. Si bien no recuerdo los detalles de la interacción, esta alternancia ilustra claramente cómo veían nuestros instructores su tarea: Llevar a los niños a
emplear sus habilidades cognitivas de una manera más completa.

IDESE derivó de la versión de Logo desarrollado por el MIT para la Apple ][, traduciendo todos sus comandos y mensajes al español. Sólo otra vez, también en los 1980, vi un esfuerzo similar: El hecho por la BBC al traducir el lenguaje BASIC de su BBC Micro para crear el EBASIC. Esto permitía enseñar a los niños a programar la computadora sin preocuparse al mismo tiempo de aprender otro idioma — El caso del EBASIC me resulta notorio porque, con un comando, se podía ver el código escrito en EBASIC en BASIC "normal". Para 1985, me tocó formar parte del taller de computación que se impartía en mi escuela a partir de 4° de primaria. A partir de 1986, estuve inscrito para varios cursos de los Centros Galileo. Tuve la suerte de haber pasado por escuelas muy buenas y muy motivantes, con lo cual a esas tempranas alturas ya estaba decidida mi vocación.

El gran acierto de Logo que lo hizo tan importante como lenguaje educativo fue eliminar las capas de abstracción que debía tener en mente un niño: Si bien el lenguaje permite un desarrollo complejo y formal de programación funcional1, el niño podía ver la concreción de sus programas graficándolos a través de una tortuga, originalmente un robot conectado a la computadora, posteriormente reemplazado por una tortuga en pantalla cuando la tecnología lo permitió. Permitir que el niño viera directa e inmediatamente sus resultados, hace 45 años, resultó un cambio fundamental y un gran motivador.

Cuando Logo fue planteado, así como cuando yo lo aprendí2, no existía el planteamiento de formar a los niños en programación por la gran demanda que dichas habilidades tendrían en la sociedad. La enseñanza de programación era vista como una forma de enseñar pensamento abstracto y algorítmico.

¿Y para qué enseñar pensamiento abstracto y algorítmico si no para formar profesionales que comprendan más fácil los paradigmas de cómputo? Bueno… Citando a un buen amigo, de lo que se trata no es de aprender más que a programar, aprender lo que significa programar. Dicho de otro modo, ¿Para qué se enseñan matemáticas, filosofía, historia o biología? Para formar personas más completas, no sólo en su cultura, sino que en la manera de estructurar el pensamento. Habilidades que indudablemente impactan en su crecimiento como adultos. Y sin poder extrapolar más allá de la experiencia personal, no puede pasarme desapercibido la gran proporción de colegas que me he encontrado de aproximadamente mi edad que pasaron por experiencias formativas similares.

2 La OLPC

Ninguna herramienta dura para siempre, sin embargo, y ni siquiera el gran Logo se salva de la obsolescencia que las nuevas tecnologías van causando. Hoy en día, sería iluso pensar que mover una "tortuga" por la pantalla pudiera impresionar a un niño. Afortunadamente, no han sido pocos los estudios en este campo que se han realizado — El artículo de Ignacio presentó cuatro entornos de programación orientados a la enseñanza en diferentes edades — Scratch, Alice, Greenfoot y BlueJ. Me sorprendió que no presentara a uno de los trabajos más comentados de los últimos años, que tiene un impacto muy medible: El proyecto OLPC (One Laptop Per Child, una computadora por niño)3 , iniciado –al igual que Logo– en el MIT y con el decidido apoyo de Seymour Papert, entre otras muchas personalidades.

La OLPC no es cualquier computadora: Fue planteada como el vehículo sobre del cual correría Sugar4. Yo no tengo experiencia de primera mano con el entorno, por lo cual prefiero dirigir a quienes estén interesados en una descripción más completa al artículo que publicó Werner Westermann5 dentro del libro «Construcción Colaborativa del Conocimiento»6.

En resumen, Sugar es un entorno dirigido a facilitar un aprendizaje construccionista, en que cada alumno debe ir explorando y construyendo su camino por medio de la experiencia personal, lo cual lleva a una mayor apropiación del contenido que cuando éste es dictado. A partir de una interfaz sencilla y una orientación más a actividades que a aplicaciones, y empleando a fondo la colaboración entre todos los alumnos, la computadora se vuelve un actor, un facilitador de la transmisión del conocimiento. Y una característica fundamental de Sugar es que el alumno no sólo puede utilizar las actividades, sino que puede (y está bienvenido a) modificarlas. Las actividades están escritas en Python, un lenguaje de sintaxis limpia y conceptualmente fácil de adoptar.

OLPC fue planteado como un proyecto necesariamente a gran escala: Está planteado para que una computadora sea entregada a cada niño en edad escolar en los países receptores. El proyecto busca además resolver problemáticas específicas de los países menos favorecidos; con ciertas modificaciones al planteamiento inicial, actualmente hay despliegues de OLPC en once países de escasos recursos7.

Y siguiendo con el tono personal que he mantenido en esta ocasión, relato lo que me contó Manuel Kauffman, un desarrollador argentino de Sugar, en una visita que hizo a una escuela en Uruguay: Un niño, de 11 o 12 años, le explicó que prefería editar en texto los iconos de las actividades que iba creando o modificando directamente en un editor de texto, en SVG8 porque le quedaban más limpios que utilizando un editor gráfico.

Este ejemplo habla como pocas cosas de apropiación de la herramienta y de la apreciación estética de la representación en código de un objeto. Hay programadores de larga carrera profesional que son incapaces de desarrollar estas habilidades.

3 Conclusiones

Enseñar a programar a un niño va mucho más allá de transmitirle una habilidad para su futuro profesional. La enseñanza básica no puede basarse sólamente en la transmisión de competencias medibles en el mercado.

Hay, sin embargo, puntos importantes a considerar. Si bien algunos tuvimos la gran suerte de aprender de la forma y en el momento correcto, es una materia con la que muchos se enfrentan con dificultad — El desarrollo de las capacidades de abstracción necesarias para esta materia se produce de forma muy desigual, y la frustración que esta materia puede causar en algunos alumnos puede ser muy grande. Cabe mencionar, claro, que esto mismo se presenta en varias otras materias que forman ya parte de la currícula básica.

Por otro lado, otro punto importante a considerar es la formación de los docentes. Para incorporar una materia a la currícula básica, es necesario contar con un cuerpo docente suficientemente amplio y capacitado, no sólo con las habilidades técnicas sino que pedagógicas. Esto, claro, debe presentarse como un proceso gradual, pero nada indica que sea de fácil resolución.

Pies de página:

1 Logo ha sido descrito como "Lisp, pero sin los paréntesis"

2 Con casi 20 años de distancia — ¡Una verdadera eternidad en el avance de la popularización del cómputo!

3 http://one.laptop.org/

4 http://sugarlabs.org/

5 http://seminario.edusol.info/seco3/pdf/seco3_apend2.pdf

6 http://seminario.edusol.info/seco3/

7 http://one.laptop.org/stories

8 Un lenguaje basado en XML para representar gráficos vectoriales

"No al voto electrónico", Triple W, W Radio

Submitted by gwolf on Tue, 02/19/2013 - 21:50
Wolf G, Ruiz O.  2013.  "No al voto electrónico", Triple W, W Radio.

In yet another episode where we push for the population to be aware of the perils that electronic voting represents, Octavio Ruiz (@tacvbo) and me were invited to (briefly) talk about the topic in W Radio, one of the largest radio networks in Mexico.

The interview was short-ish, but we managed to get several points accross. And, of course, one of the best ways to do so is via a radio show with tens of thousands of listeners. So, we were quite happy to be there!

Here is the audio of the segment we presented in Fernanda Tapia's radio show "Triple W", in W Radio, Mexico.

( categories: )

Bienes culturales libres: ¿Qué y por qué? (¿Y qué papel puedo jugar?)

Submitted by gwolf on Fri, 11/23/2012 - 13:18
Written in...: 
2012

I was invited to give this talk at the Cultural and Artistic Interchange Festival (FINCA) at the National School for Plastic Arts (ENAP) at UNAM. In this talk I try to present to plastic artists and graphical designers, through my experience with free software, how permissive licensing models are permeating all cultural expressions, and how they can (and why should they!) get on this and be a part of it, rather than looking at it with distrust.

Resumen: 

Me invitaron a dar esta ponencia para el Festival de Intercambio Cultural y Artístico (FINCA), en la Escuela Nacional de Artes Plásticas (ENAP) de la UNAM. En esta plática busco plantear a artistas plásticos y diseñadores gráficos, a través de mi experiencia con el software libre, cómo las licencias permisivas van permeando a todas las expresiones culturales, y cómo ellos pueden (¡y por que deberían!) aprovechar y participar en ella, más que verla con recelo.

Mecanismos emergentes de desregulación en la red

Submitted by gwolf on Thu, 11/22/2012 - 12:09
Written in...: 
2012

Throughout the years, since the Internet was opened for commercial use in the mid-1990s (and gave way for the bulk of the population to start using the network, leading to the massification towards the end of the decade) the notion that the cyberspace is a bold new free space, without rules or regulations, ruled for some time. In those years it was common to refer to the Internet as to a «Wild West» where anybody could do whatever they pleased.

Little by little, that apparent lack of laws started to change, be it as laws usually applied to other scopes started being applied, be it because of specific laws regarding online behaviour. We also started seeing the legal difficulties this meant: An almost constant extraterritoriality of each of the parties (and computers) involved in every action.

However, going back to the origins of the Internet as a research network founded by the United States Department of Defense, how this space, by nature highly regulated, became the ideal place for freedom of expression and anonymacy to flourish becomes a natural question.

Today, Internet is migrating towards a model strongly linked to the two large "social networks": Twitter and Facebook. This migration poses important changes in the way we relate to computers — to such a degree it has to be more deeply analyzed. In the third part of this exposition I sketch the main challenges this means to us.

This presentation was prepared for the Agencia Latinoamericana de Información (ALAI) seminar in Quito, Ecuador, 2012-11-22.

Resumen: 

A lo largo de los años desde que Internet se abrió para uso comercial a mediados de los 1990 (y por tanto se dio entrada a la población en general, masificándose hacia fines de dicha década) ha privado la visión de que el /ciberespacio/ es un ámbito nuevo, libre, carente de regulaciones y leyes. Hacia esos años era común referirse a Internet como un nuevo «Salvaje Oeste» en el que cualquiera podía hacer lo que quisiera.

Poco a poco, esa aparente falta de leyes fue cambiando, sea por la extensión de leyes aplicables a otros ámbitos de la vida, sea por leyes específicas a las conductas en línea. Fueron apareciendo también las dificultades legales que suponía este entorno: Una casi constante extraterritorialidad de cada uno de los equipos y personas involucradas en cualquier acción.

Sin embargo, partiendo los orígenes de Internet como una red de investigación del Departamento de Defensa de los Estados Unidos de América, se hace natural la pregunta de cómo es que un espacio altamente regulado por naturaleza se volvió el entorno ideal de la libertad de expresión y el anonimato.

Al día de hoy, Internet está migrando hacia un modelo fuertemente basado en las dos grandes "redes sociales": Twitter y Facebook. Esta migración nos plantea importantes cambios en la forma de relacionarnos con las computadoras — A un grado tal que merece un análisis más profundo. En la tercer parte de esta exposición delíneo los principales retos que esto nos significa.

Esta presentación fue preparada para el seminario de la Agencia Latinoamericana de Información (ALAI) en Quito, Ecuador, 2012-11-22.

México, el voto electrónico y el 2012

Submitted by gwolf on Fri, 09/07/2012 - 23:57
Wolf G.  2012.  México, el voto electrónico y el 2012. .Seguridad: Cultura de prevención para TI. :27-30.

México es un país que, a lo largo de su historia, ha sufrido fraudes y otros malos manejos electorales, por medio de diferentes esquemas. Los mexicanos frecuentemente nos sentimos autoridades mundiales en este tema; la constante respecto a nuestras autoridades electorales ha sido más de duda y cuestionamiento que de confianza. Hubo un breve periodo, los últimos años de la década de los 1990 y los primeros de los 2000, en que parecía que se consolidaba una institución sólida y confiable, pero las dudas –fundadas o no– que surgieron tras la elección del 2006 devolvieron a las autoridades electorales a los niveles desconfianza tradicional que han sostenido a lo largo de buena parte de nuestra historia como nación independiente.
Y un reclamo muchas veces escuchado es que, dado que es imposible confiar en los individuos, corruptibles por naturaleza, la responsabilidad del escrutinio de los votos debería recaer en un sistema computarizado, siempre limpio, eficiente y honesto.

Índice

1 ¿Qué hace una urna electrónica?

Las urnas electrónicas se han propuesto desde hace mucho tiempo ya, y muchos países (o jurisdicciones menores) las han adoptado.
En el corazón de todas las propuestas de voto electrónico está la urna electrónica. Esta es básicamente una computadora, con una interfaz usuario limitada para sólo permitir un conjunto específico de operaciones, construida dentro de una caja o maletín que dificulten el acceso a cualquiera de sus componentes fuera del expresamente autorizado, y encargado de recibir cada uno de los votos, convirtiéndolos en información almacenada de forma electrónica. Por medio de un procedimiento previamente diseñado, las autoridades electorales pueden indicarle que deje de recibir votos, y entregue los totales que cada una de las opciones recibió.
Las primeras urnas electrónicas que cumplen con esta definición, las llamadas DRE voting machines (Direct-Recording Electronic, máquinas de voto electrónico de grabación directa) fueron puestas en práctica ampliamente hacia 1996, y al día de hoy, la totalidad de votantes de países tan grandes como la India y Brasil, y amplios segmentos de otros países como los Estados Unidos, votan de esta manera.

2 La confianza y los aguafiestas

No perdamos de vista que si una cosa caracteriza al gremio de los desarrolladores de software es la cantidad de errores (tanto accidentales como, lo que es mucho más peligroso, inducidos) que pueden aparecer en un programa. El mero hecho de que exista un área de especialización tan importante como la seguridad informática lo hace patente: La complejidad hasta de los sistemas más sencillos hace imposible asegurar con toda certeza que una computadora haga lo que que debe hacer.

Para ilustrarlo: Pocas computadoras en el mundo corren hoy sin antivirus. Estos programas se hicieron necesarios dadas las grandes deficiencias de diseño que tuvo el sistema operativo más popular del mundo ante la realidad de estar hoy permanentemente conectados a una red hostil. Y hasta corriendo los sistemas más seguros, es necesario estar al tanto de todas las actualizaciones y notas de seguridad si queremos confiar en que nuestra computadora responde únicamente a nuestras órdenes, y lo hace de forma confiable.
Incluso ante el mismo programador, como proféticamente lo demostró en 1984 Ken Thompson al aceptar el premio Turing (reconocido en nuestro campo como el premio Nóbel de la Ciencia de la Computación) con el artículo /Reflexiones acerca de la confianza en la confianza/1 , un programador siempre confía ciegamente en un conjunto de programas sobre de los cuales construye (compilador, ligador, sistema operativo), y por tanto, un atacante determinado sólo tiene que bajar lo suficiente para plantar un troyano.

3 Desconfiando del DRE… Y de lo demás

Expertos en seguridad informática no tardaron en señalar diversos expertos diversas fallas elementales en el voto DRE; el principal, el de la confiabilidad. Si los votos únicamente son grabados en la memoria electrónica, ¿cómo puede asegurarse que reflejen fielmente el sentido del voto de cada individuo? O puesto de otro modo, ¿cómo podría asegurarse un recuento de los votos en caso de ser nacesario?
La respuesta no se hizo esperar: A cada voto emitido, sería impreso un comprobante o testigo del voto, mismo que serviría para contar los votos manualmente en caso de impugnación. Este esquema es conocido como VVPAT (Voter-verified paper audit trail, Rastro auditable en papel verificado por el votante).
Esto, si bien ha sido aceptado por numerosos sistemas electorales en el mundo, sigue sin ser suficiente. Como sugiere Federico Heinz2, hay varios esquemas que podrían reventar una elección con este planteamiento. Por ejemplo, si las personas interesadas en sabotear una urna, tras votar, reclaman ante la mesa de autoridades indicando que la urna registró un voto contrario a lo que le solicitaron, podrían llevar a que se anulen todos los sufragios emitidos por dicha urna, dado que son potencialmente ilegítimos.
Por otro lado, podría presentarse nuevamente el escenario que se dió en la ciudad de Nueva York en 20103: Al calentarse las urnas electrónicas, emitían votos aleatorios por error. Se estima que esto puede haber invalidado hasta el 30% de los votos efectivos de algunas
mesas.

4 La futilidad de los simulacros

Este 2012, el principal proyecto de implementación de voto electrónico en México será en las elecciones locales del Estado de Jalisco. Uno de los muchos puntos preocupantes de este ejercicio es que, como pruebas previas a la instalación de más de mil urnas electrónicas en dos distritos electorales y un municipio, las únicas pruebas de confiabilidad disponible para ser analizada públicamente son cinco simulacros.
¿Qué puede comprobarse en un simulacro? Que, en el mejor de los mundos posibles y sin ninguna intencionalidad maligna, las urnas funcionen como dicen funcionar. En caso de haber algún componente malicioso en las urnas, es del total interés de quien lo haya sembrado que no cause ningún comportamiento inusual (para no perder su agente encubierto sin obtener la ventaja que le llevó a introducirlo en primer lugar). Un simulacro busca demostrar que, bajo condiciones controladas, la elección no colapsa. Y lo peor del caso es que en este caso, 3 de los 4 simulacros que habían ocurrido hasta la fecha en que este documento fue escrito registraron fallos diversos que hacían –ya a menos de dos meses del proceso electoral– replantearse si se emplearían o no4. En el Distrito Federal, la implementación de urnas electrónicas licitadas a la misma empresa que las provee en Jalisco fue rescindida, en parte, por habérsele encontrado 28 fallas5.
¿Un simulacro exitoso aseguraría que no habrá fallas el día de la elección? ¡De ninguna manera!

5 Conclusión

Por restricciones de espacio, en este texto apenas me ha sido posible arañar algunos de los puntos más notorios del voto electrónico, y de por qué, comprendiendo puntos básicos de seguridad en cómputo y estando conscientes de la gran importancia que tiene el voto dentro de un sistema democrático representativo como el que aspiramos tener en nuestro país, resulta imposible confiar en que las urna electrónica resuelva nuestros problemas de confianza — Muy por el contrario.
Se ha hablado de emplear al voto electrónico para resolver otros problemas, como el del costo o la agilidad de la transmisión de resultados. Estos puntos pueden desmenuzarse y descartarse con todavía mayor facilidad que el aquí presentado.
Si este breve artículo resultó de su interés, les invito a leer el artículo publicado a fines del 20116 , así como el abundante material que al respecto ha generado la Fundación Vía Libre (Argentina)7, destacando el libro Voto electrónico: los riesgos de una ilusión, publicado en 20098.

Pies de página:

1 Reflections on Trusting Trust, Ken Thompson, Communications of the ACM, Vol. 27, No. 8, August 1984, pp. 761-763
2 Urnas electrónicas: con imprimir el voto no alcanza, Federico Heinz, Fundación Vía Libre, septiembre de 2010; http://www.vialibre.org.ar/2010/09/12/urnas-electronicas-con-imprimir-el-voto-no-alcanza/
3 Machine Casts Phantom Votes in the Bronx, Invalidating Real Ones: Report, The Empire, mayo de 2012; http://www.wnyc.org/blogs/empire/2012/may/09/reports-find-machine-errors-led-uncounted-votes-2010/
4 Pide diputada que IEPC esté listo a llevar a cabo elección tradicional, Zaira Ramírez, El Informador, 8 de mayo de 2012;
http://www.informador.com.mx/primera/2012/374801/6/pide-diputada-que-iepc-este-listo-a-llevar-a-cabo-eleccion-tradicional.htm
5 Urnas electrónicas tienen 28 fallas: IEDF, Jonathan Villanueva, El Universal, 13 de abril del 2012; http://www.eluniversal.com.mx/ciudad/111073.html
6 Voto electrónico: ¿Quién tiene realmente la decisión?, Construcción Colaborativa del Conocimiento (IIEc-UNAM), Gunnar Wolf, 2011; http://seminario.edusol.info/seco3/pdf/seco3_apend3.pdf
7 Fundación Vía Libre — Voto electrónico http://www.votoelectronico.org.ar/
8Voto electrónico: los riesgos de una ilusión, Fundación Via Libre, 2009; http://www.vialibre.org.ar/wp-content/uploads/2009/03/evoto.pdf

Voto Electrónico, 2012

Submitted by gwolf on Tue, 08/21/2012 - 19:00
Wolf G.  2012.  Voto Electrónico, 2012. Software Gurú. :44,45.

¿Más acerca de votaciones? Sí, escucho el clamor de todos nuestros lectores, después de un proceso electoral más, de haber nuevamente soportado meses de saturación de candidatos en los medios. Sin embargo, este es el momento justo para analizar una importante parte del proceso electoral en la cual los desarrolladores de software, expertos en seguridad y administradores de sistemas podemos ejercer influencia sobre el rumbo que sigue el país — Y darnos el lujo de ignorar nuestro rol de profesionales hablaría muy mal de cada uno de nosotros. Es por esta razón que presento esta actualización de estado y reflexión acerca de lo que puede esperarle a nuestro país de avanzar las propuestas de adopción del voto electrónico.

Los lectores asiduos de Software Gurú podrán recordar que abordamos ya este tema en el número 27 (febrero del 2010)1. Desde entonces, tuve oportunidad de participar en algunas publicaciones2 en las que expliqué los puntos básicos acerca de por qué toda implementación que pueda hacerse de voto electrónico, sin importar las mejores intenciones o incluso la pericia técnica del equipo que entregue una solución, no hay manera de que ésta resulte más confiable y garantice mejor cuidado de los derechos del votante que una revisión hecha por humanos de votos emitidos en papel.

1 Urnas electrónicas

Cuando nos hablan del voto electrónico, casi siempre pensamos directamente en las urnas electrónicas, estaciones de propósito específico diseñadas y configuradas para recibir directamente cada uno de los votos de los electores. Sus proponentes argumentan a su favor principalmente por tres razones: Reducción de costos, tiempo de entrega de resultados y mayor confiabilidad en el proceso. Estos tres puntos, como lo explico en los artículos citados anteriormente, se vienen abajo incluso ante una revisión somera del tema.

En México, el tema de las urnas electrónicas no nos resulta nuevo. Los primeros intentos fueron pilotos limitados en el Distrito Federal, en el año de 2003, y en Coahuila, en 2005, para las elecciones locales. En ambos casos, las urnas fueron desarrolladas en casa, y aplicadas a muy pequeña escala.

Para Coahuila, en 2008 la experiencia se repitió en 11 municipios. Las urnas se emplearon en 10 de ellos, pero en San Buenaventura, los partidos PAN, PANAL y PT impidieron su implementación dado que, argumentaron podría resultar fraudulenta3.

Una muy extraña característica del voto en Coahuila es que, para ”asegurar” que todos los votos correspondieran con la voluntad ciudadana, los votantes tenían que emitirlo por vía electrónica y firmar el comprobante emitido por la urna, depositándolo en una segunda urna para el eventual caso de un recuento. Esto, obviamente, viola al principio de la secrecía del voto, y permite el control corporativo o la compra del voto.

En el Distrito Federal, tras años de aparente silencio, el Instituto Electoral local (IEDF) intentó implementar urnas electrónicas de
manufactura industrial. Tras haber firmado contrato con la empresa Pounce Consulting para la adquisición de 1000 urnas electrónicas, a mediados de abril tomó la decisión de rescindirlo4 por demoras injustificables en la entrega de los equipos, así como por 28 fallas como:

…Ensamblados incompletos, chapas trabadas, ranuras abiertas en el depósito de votos, micas transparentes, bases derrapantes, puertos extraíbles sin protección, compartimiento del cable sin tapa y carga lenta de la batería.

En este caso, lo destacable es que, si bien grupos de académicos de la UNAM y el IPN localizaron estas 28 fallas, lo que verdaderamente detuvo a la implementación de la urna electrónica fue la demora en la entrega de los equipos. Eso se traduce en que, muy probablemente, el IEDF continuará intentando implementar urnas electrónicas — Y nosotros como sociedad tenemos que mantenernos atentos.

Por último, veamos el caso de Jalisco: El Instituto Electoral y de Participación Ciudadana (IEPC) aprobó que para la votación local se empleen urnas electrónicas en los distritos 1 y 17 y en el municipio
de Gómez Farías, para un 11% del padrón total. Tras una licitación muy cuestionada5, la empresa ganadora fue también Pounce Consulting. En este caso, al igual que en el DF, la empresa demoró la entrega de las urnas en casi seis semanas, apenas entregando a tiempo cuando ya se analizaba la cancelación del contrato.

Previo a la elección, se realizaron cinco simulacros para presentar la urna a la población, y para ir corrigiendo los problemas que presentaran — Al que más seguimiento se le dió fue al que afectaba la secrecía del voto (podía verse el testigo impreso de los votantes anteriores). Las variaciones eléctricas han llegado causaron, al menos en una ocasión, impresión descontrolada de votos, y en los simulacros se han reportado urnas pre-cargadas6.

El modelo de urna empleado en Jalisco incluye no sólo el acopio de la votación, sino que la transmisión de los resultados por vía de telefonía celular a las cabeceras distritales. Esto, si bien está protegido por criptografía, abre nuevas vías de ataque: No sólo cada una de las urnas se conecta a la red celular (aunque sea sólo por breves instantes al cerrarse la votación), sino que los equipos centrales deben estar a la escucha. Esto permite no sólo un ataque que comprometa el sentido de los votos emitidos, sino que abre la puerta para ataques negación de servicio.

Un problema reportado en cerca del 20% de las urnas fue, precisamente, la falta de cobertura celular. El distrito 1 de Jalisco cubre la parte norte del estado, una zona de profundas barrancas y de una gran cantidad de poblados de muy difícil acceso — Y que no tienen cobertura de telefonía celular. El planteamiento de realizar las votaciones con urnas que contemplan la transmisión de datos por esta vía no sólo revela una profunda desconexión respecto a la población objetivo a cubrir, sino que –al presentar distintas vías para que se lleve a cabo el acopio de la información– abre un vector más para el ataque, ya no tanto técnico sino que a través de la ingeniería social.

Un punto alarmante de la implementación en Jalisco es el traslado de la figura legal de lo que constituye un voto. Si bien las urnas empleadas emiten testigos para asegurar la posibilidad de un recuento (cabe mencionar, no es universalmente aceptado que esto sea garantía suficiente), el documento de validez legal no es el papel testigo sino que el estado interno de la memoria de la urna electrónica. En caso de presentarse un recuento, citando al consejero electoral Carlos Martínez Maguey, ”existe la posibilidad de que […] se puedan contar los testigos de voto, no es vinculante el resultado del testigo de voto, pero siempre nos dará el mismo resultado que la base de datos”. Los votos están en la memoria, y el papel únicamente da fé de ello. Esto es, en Jalisco se ha legalizado la desmaterialización del voto. Y si bien el proceso electoral mexicano –como siempre– todavía da para muchas impugnaciones, hay reportes de inconsistencias7 entre el números de votantes del IFE y del IEPC en la misma casilla.

2 Voto no presencial

México es un país fuertemente expulsor de migrantes, principalmente a los Estados Unidos, pero a muy diversos puntos del mundo. Parte importante de los migrantes mexicanos, además, están en una situación de precariedad legal que les hace imposible registrarse como residentes legales o desplazarse libremente en su país de residencia, por lo cual el modelo que requiere registrarse y desplazarse hasta una embajada o consulado no aplican. Se han planteado dos modalidades para realizar el voto no presencial: El voto en línea y el voto postal.

Antes de analizar estas alternativas, es muy importante explicitar a lo que renunciamos con ambas: Perdemos la garantía de que el votante sea verdaderamente quien dice ser. En caso del voto postal, es bastante probable que el votante correcto reciba el paquete con las boletas en la dirección indicada, pero mantiene la necesidad de registrar una dirección postal permanente, lo cual rompe con el planteamiento de origen.

En el caso del voto electrónico, la perspectiva es peor aún, porque si bien el potencial elector podía registrarse presentando los datos de su credencial electoral, las instrucciones y contraseña le son enviadas por correo electrónico. La confiabilidad y la confidencialidad de los proveedores de servicios de correo electrónico, especialmente de los gratuitos (que son por mucho los más frecuentemente utilizados) no garantizan que sea genuinamente el votante quien los revisa, especialmente en el caso de la población con menor dominio de la tecnología. Lo que es más: En un escenario como el ampliamente impugnado en las elecciones recién ocurridas, la compra de votos se vuelve trivial: Basta con que el votante entregue su contraseña en los días previos al operador electoral, y que éste verifique el poder votar por su propio partido, para la entrega de los recursos económicos.

En una plática informal con personal del IEDF, me indicaron estar al tanto de esta realidad, pero –dada la cantidad de población registrada– era un riesgo aceptable: Para este año, hubo 10,786 empadronados — Únicamente el 0.13% del padrón, pese a la grandísima campaña en medios. De ellos, apenas 4192 optaron por hacerlo en línea.

3 Conclusiones

Si bien he definido mi postura al respecto desde hace tiempo ya, he buscado honestamente expertos en seguridad en cómputo independientes (no asociados con empresas vendedoras de sistemas del rubro) dispuestos a argumentar a favor del voto electrónico, y honestamente no he encontrado a ninguno. Sin embargo, el voto electrónico tiene un atractivo desde un punto de vista político — y hay un gran negocio en ofrecer soluciones basadas en él. Nosotros, como profesionales del ramo, más que buscar la oportunidad de negocio espero sepamos responder con los argumentos que hacen del voto electrónico un verdadero peligro para la democracia.

Los vendedores de urnas tienden a argumentar que ha habido elecciones exitosas con voto electrónico, y justifican los fracasos indicando que fueron fallos puntuales de implementación. Sin embargo, nuestro punto es que es precisamente imposible hacer una implementación tan segura y confiable como lo que plantean reemplazar.

En una prueba piloto, o incluso en una primera implementación, es muy poco probable que se presente un ataque. En ambos casos, estaríamos hablando de implementaciones muy controladas, en que prácticamente si se registra una falla es por un error más que por un ataque.

Desde hace algunos meses hemos estado alimentando al Observatorio del Voto Electrónico8. Invito a los interesados a emplearlo como fuente de información, y de unirse a nuestro trabajo de análisis y difusión.

Pies de página:

1 http://sg.com.mx/content/view/919

2 http://seminario.edusol.info/seco3/pdf/seco3_apend3.pdf

3 http://www.eluniversal.com.mx/notas/631827.html

4 http://www.eluniversal.com.mx/ciudad/111073.html

5 http://votodigital.wordpress.com/2011/11/11/notas-de-una-escandalosa-licitacion-que-arriesga-el-voto-electronico/

6 http://www.lajornadajalisco.com.mx/2012/05/15/todavia-es-viable-aplicar-el-voto-electronico-en-el-estado-figueroa/

7 http://www.informador.com.mx/jalisco/2012/388153/6/el-iepc-desmiente-irregularidades-en-votacion-electronica-de-distrito-1.htm

8 http://evoto.iiec.unam.mx/

( categories: )

Impromptu session on information freedom, network neutrality, etc. — COSIT 2011, Mexico

Submitted by gwolf on Tue, 08/21/2012 - 17:54
Wolf G, Romo F, Miranda A, Méndez O, Hernández C, Araico S.  2011.  Impromptu session on information freedom, network neutrality, etc. — COSIT 2011, Mexico. :0:56:00.

During the COSIT 2011 conference, we held a very celebrated and fun impromptu talk. This was a very interesting session where many of the long-time Free Software activists in Mexico took the stage (we were waiting for a speaker who was late, so the audience was bored and waiting) and started talking –in a completely irreverent, disorganized way– about the status of network neutrality, ACTA, Free Software, Free Culture, legal issues regarding copyright and many other similar points.

At some point or another, we had on stage: Fernando Romo "el Pop", Alejandro Miranda "Pooka", Sandino Araico, Claudia Hernández, Octavio Méndez... Anybody else? ☺

Regarding the quality of the recording: Regina just found this file in her cheap, aging hand-held, photo camera. Again, this was not a planned session, so don't expect a high quality recording. It is hard to follow the audio at points, and the video is not steady. Anyway, it's worth following!

Great thanks to Regina, and to her quick sense of opportunity, for reaching for her camera and filming this, as it would otherwise just get lost and stay only in our memory! ♥

Herramientas de privacidad en la red

Submitted by gwolf on Thu, 08/16/2012 - 19:06
Written in...: 
2012

The internet was conceived as a network where reliability should be more important than privacy: What matters is to get the messages from their origin to their destination, even though this makes them highly traceable. Throughout the years, a large variety of schemes have been created to protect privacy, both while the packages are in transit and in form of stored documents, and at different levels.

In this talk, I present some (relatively) user-friendly programs helping users keep their communications and data more secure.

Resumen: 

Internet de inicio fue planteada como una red donde privaría la robustez sobre la privacidad: Lo importante es poder hacer que los mensajes lleguen de su emisor a su destino, a pesar de que eso los haga altamente rastreables. A lo largo de los años, se han creado una gran variedad de esquemas para proteger la privacidad de, tanto cuando se habla de paquetes en tránsito como en forma de documentos almacenados, a diferentes niveles.

En esta presentación hablo acerca de algunos programas (relativamente) amigables al usuario que ayudan a mantener las comunicaciones y los datos más seguros.

Syndicate content