spanish

warning: Creating default object from empty value in /home/gwolf/drupal6/modules/taxonomy/taxonomy.pages.inc on line 33.

Privacidad, vigilancia, filtraciones, y el resto de nosotros

Submitted by gwolf on Fri, 12/13/2013 - 09:49
Wolf G.  2013.  Privacidad, vigilancia, filtraciones, y el resto de nosotros. Software Gurú.

Este año que va terminando tuvo una buena cantidad de sorpresas y de temas prevalentes con que podremos caracterizarlo al referirnos a él en el futuro. Pero muchos estarán de acuerdo en que si tuviéramos que elegir un solo tema que revele los cambios de percepción (y los resultantes cambios conductuales de la población toda), en particular en nuestra área de ocupación, muy probablemente será todo lo que se ha escrito y debatido alrededor de las filtraciones de Snowden. La confirmación de que la Agencia de Seguridad Nacional (NSA) de los Estados Unidos lleva a cabo un espionaje profundo y constante sobre los datos relativos a las comunicaciones, no sólo de sus 300 millones de habitantes, sino que de todo lo que pasa por las redes que cruzan su país (lo cual significa, con mucho, la mayor parte del tráfico de Internet del mundo), y de forma un tanto más selectiva, de tantas personas como sea posible en todo el mundo.

El lector cuidadoso habrá notado que no califico de revelador a las filtraciones mismas, sino que al fenómeno que ha surgido alrededor de ellas. Posiblemente uno de los hechos más fascinantes acerca de esto que muchos han bautizado de fantasía distópica vuelta realidad es que… El nivel y profundidad del espionaje no sorprenden a nadie. Los datos que reveló Snowden no nos revelan nada que no supusiéramos — Su impacto está en que nos lo confirman, nos detallan los mecanismos con que operan, algunos nombres clave, y poco más que eso. Y sin embargo, desde que las primeras filtraciones respecto a PRISM fueron publicadas el 5 de junio, tras la huída de Snowden a Hong Kong… Toneladas de tinta han corrido (electrónica y tradicional) reseñando tanto las filtraciones originales como a otras posteriores, tal vez de menor envergadura, pero de mayor impacto. Con estas me refiero a las revelaciones específicas que se han hecho acerca de los mecanismos de espionaje a actores políticos, particularmente de Alemania, Brasil, China, Francia, el Reino Unido — Y México.

Claro está, si bien son datos completamente independientes, estas filtraciones se engranaron perfectamente con las publicadas en 2010 por Wikileaks. Y el principal argumento que ha respondido el gobierno de los Estados Unidos ha sido también el mismo:1 Básicamente, «Si espiamos, es porque requerimos tener información acerca de los riesgos que nos acechan; cualquier gobierno tiene que hacerlo, y la NSA se mantiene dentro de su marco legal». Argumento, a ojos de muchos, falaz, incompleto e insatisfactorio — Pero no por eso inesperado.

Resulta interesante ver cuál ha sido la reacción de algunos de los gobiernos recién mencionados. Tristemente, el nuestro no ha presentado mayor muestra de incomodidad; al día de hoy, la mayores reacciones han sido las de Alemania y Brasil. Y si bien es aún muy temprano para hablar de resultados tangibles, el movimiento que se ha despertado –entre entidades gubernamentales– para crear un tendido de fibras que una a los países de Sudamérica directamente con los europeos, para dejar de depender de las telecomunicaciones estadounidenses, apuntan claramente en un sentido interesante.

Pero… ¡Son sólo metadatos!

Otra respuesta, que vimos particularmente en los primeros momentos tras estas revelaciones, resulta también muy interesante — Y es a partir de esta que quiero elaborar. La NSA justificó la información recabada por medio de PRISM como inocua indicando que no se ocupaban del registro de los datos (grabación de las llamadas telefónicas o correos electrónicos), sino que únicamente de los metadatos (quién habla con quién, a qué hora lo hace, por cuánto tiempo). Esto permite a la NSA enfocarse en quienes traban contacto regular con los actores más peligrosos, o presentan patrones más sospechosos. Esperaban con esto acallar a los defensores de la privacidad.

Lo que me sorprendió en este sentido no es que una o dos personas dijeran, "eso que dicen es falso". Cientos de aficionados al análisis de patrones por todo el mundo lo dijimos, en nuestros pequeños foros. Lo que me sorprendió es la cantidad de publicaciones que hubo, en espacio de apenas un par de días, demostrando el verdadero impacto de los datos que PRISM había recabado en términos claros y concisos, en claros artículos de divulgación. Un par de ejemplos:

  • El 7 de junio, la conocida organización de defensa de los derechos personales en el mundo digital, Electronic Frontier Foundation, publicó un texto corto, de menos de una cuartilla: «Why Metadata Matters».2 Por medio de cinco sencillísimos ejemplos demuestran que los metadatos son muchas veces más importantes que los mismos datos, revelan tanta información como la que revelaría el contenido mismo de las llamadas. Estos ejemplos aparecieron repetidos en decenas de otras publicaciones de los días subsecuentes.
  • El 9 de junio, Kieran Healy publicó en su blog «Using Metadata to find Paul Revere».3 Hace un paralelo de lo más simple e interesante, dando los fundamentos del análisis de redes sociales desde una perspectiva sociológica, que podría haber conducido al arresto de uno de los padres de la independencia de los Estados Unidos por parte de los ingleses.
  • Matt Blaze, investigador en criptografía de la Universidad de Pennsylvania, presentó el 13 de junio en la revista Wired el artículo «Phew, NSA Is Just Collecting Metadata. (You Should Still Worry)»;4 en un breve artículo cubre la profundidad de la información que puede obtenerse de sólo conocer los metadatos, y el por qué resulta tan difícil evitar dejar rastros, incluso siendo individuos plenamente informados.

Pero, de nuevo, estas filtraciones no son nada verdaderamente nuevo, sólo trajeron de vuelta (y con gran fuerza) a una arena más amplia el debate sobre lo que ya era bien conocido. Como ejemplo, me permito referirlos a la columna que publiqué en Software Gurú hace dos años y medio, «Georeferenciación a nuestras espaldas».5

La red toda: ¿En quién confiamos?

Ahora, ¿qué hay cuando nos enfocamos en algo más cercano a nuestra vida diaria? ¿Qué hay acerca de las empresas cuyos servicios empleamos en nuestro diario navegar? Algunas de las revelaciones más importantes que han seguido a las filtraciones originales se encaminan mucho más al cómo obtuvo el gobierno americano los datos en cuestión: A través de solicitudes (muchas veces más bien casuales, no necesariamente por los canales que demanda la justicia) hechas a los principales proveedores de servicios. Facebook, Google, Amazon, los proveedores de conectividad responden gustosamente a todas las solicitudes de información.6

Hay, claro, otras empresas que basan su operación y su reputación en asegurar la privacidad de sus usuarios. Y en agosto nos encontramos con algo muy parecido a la historia del cierre del anonimizador más famoso de la red, anon.penet.fi, allá por 1997:7 El proveedor de correo seguro Lavabit, en el cual tenía su cuenta Snowden, decidió cerrar operaciones por completo antes que otorgar a la NSA las llaves criptográficas que les permitirían tener acceso a la información de todos sus usuarios. Pero este caso de respeto a la privacidad es claramente minoritario.

A niveles intra-organizacionales, tras una primer etapa de emoción por emplear servicios en la nube, he visto un resurgimiento del interés por no perder la flexibilidad, pero operar dentro de nubes propias. Pongo como ejemplo a la UNAM, que tras algunos años de haber enviado la gestión del correo electrónico de decenas de miles de sus académicos a la nube de Microsoft, probablemente por presiones de los mismos, ahora está ofreciendo nuevamente trasladarlo a infraestructura propia.8

Privacidad y vigilancia… ¿De quién?

Supongo que hasta este punto, prácticamente todos los lectores van conmigo. Nadie quiere ser espiado, y mucho menos por el gobierno de una nación extranjera, un gobierno que ha demostrado una y otra vez que no conoce de límites.

Pero por otro lado, muchos de nosotros no tendremos mucho que temer en lo personal de dicho gobierno, o incluso del nuestro propio (que estaría mucho más directamente interesado en conocer algunas de nuestras peligrosas actividades, tal vez incluso de actuar en consecuencia). Pero… Como dicen, quien tiene la información tiene el poder. ¿Tenemos que pensar tal vez en otros actores que estén penetrando a la esfera de nuestros datos?

Si bien siempre ha habido quien intenta que comprendamos la gravedad del tema (¿Visionarios? ¿Activistas? ¿Obsesivos? ¿Paranóicos? El calificativo queda en manos de usted, querido lector), el tema apenas está entrando al debate público ahora. Sobra explicar a este público el potencial y la profundidad de lo que se puede obtener por medio de mecanismos de minería de datos, del famoso Big Data.

Hay una gran cantidad de razones por las cuales cada uno de nosotros como persona podría no querer brindar todos sus patrones de movimiento y comportamiento social — Ya no sólo a los gobiernos del mundo, sino que a las grandes empresas de publicidad dirigida (recordemos que el gigante tecnológico Google es en primer término una empresa de publicidad, y sólo despúés de ello todo lo demás).

Más allá de la publicidad: Los vendedores de servicios. Desde los más directos y honestos, como Amazon (¡pero recordemos lo importante que les resulta construir nuestros perfiles de consumo personal cuando les contratemos espacio en la nube!) hasta los más obscuros (Seguramente han visto que distintos sitios de relaciones discretas entre adultos
se toman la molestia de crear un perfil a su nombre al enviarles publicidad, facilitándoles emplear sus servicios).

Y para nosotros que hemos invertido tanto en convertirnos en tecnólogos respetados, ¿qué tanto podemos cuidar nuestra identidad sin convertirnos en ermitaños digitales, sin renunciar a las bondades de la red? Hay una gran cantidad de matices. Si les interesa profundizar en el tema, les invito a leer el texto publicado por Sarah Kessler en la revista electrónica Fast Company9.

Les sugiero también revisar varios de los artículos que publica este mismo mes la revista Communications of the ACM10, que tocan el tema desde muy distintos ángulos: Desde la editorial, que compara la realidad actual con el 1984 de George Orwell hasta explicar por qué una tecnología tan potencialmente invasiva como el Google Glass, que presenta ejemplos de cómo las expectativas de privacidad han cambiado en los últimos cien años con ejemplos que, a pesar de su seriedad hace décadas, hoy nos parecen francamente risibles.

Nota al pie

1 Encontrarán muchas fuentes, cito meramente como ejemplo a http://www.jornada.unam.mx/2013/10/26/index.php?section=mundo&article=016n1mun
2 https://www.eff.org/deeplinks/2013/06/why-metadata-matters
3 http://kieranhealy.org/blog/archives/2013/06/09/using-metadata-to-find-paul-revere/
4 http://www.wired.com/opinion/2013/06/phew-it-was-just-metadata-not-think-again/
5 http://gwolf.org/node/3089
6 Por ejemplo, a fines de agosto, Facebook publicó el «Reporte Global de Requisiciones Gubernamentales»,
https://www.facebook.com/about/government_requests
7 http://www.december.com/cmc/mag/1997/sep/helmers.html
8 http://infocorreo.unam.mx/
9 http://www.fastcompany.com/3019847/think-you-can-live-offline-without-being-tracked-heres-what-it-takes
10 http://cacm.acm.org/magazines/2013/11

Aaron Swartz, el acceso abierto y los estándares

Submitted by gwolf on Fri, 03/22/2013 - 08:30
Wolf G.  2013.  Aaron Swartz, el acceso abierto y los estándares. Software Gurú.

Aaron Swartz, el acceso abierto y los estándares

Estoy seguro que la mayor parte de nuestros lectores estarán ya familiarizados con Aaron Swartz, así como del triste desenlace que tuvo su historia. En todo caso, hagamos un corto recuento antes de entrar en materia.

1 Aaron Swartz, breve reseña

Aaron Swartz fue un jóven entusiasta de la programación, firme creyente de la necesidad de la libre circulación de la información. Su vida tiene muchos momentos dignos de nota; los puntos más relevantes incluyen:

  • Participó en la creación de la especificación RSS 1.0 (W3C RFC 3870) a los 14 años de edad.
  • Fue co-autor del lenguaje de marcado Markdown, diseñado para hacer más natural a un usuario no técnico preparar páginas Web que
    lo que hasta entonces permitia el HTML.
  • Es uno de los creadores de la iniciativa Creative Commons, un conjunto de licencias orientadas a facilitar a los creadores elegir un marco que permita la libre circulación de los bienes culturales, sin renunciar a sus derechos autorales.
  • Participó en la creación del sitio sindicador de noticias sociales Reddit, uno de los primeros sitios en aprovechar la interacción viral y en definir lo que hoy conocemos como temas tendencia.
  • Estuvo involucrado en diversas campañas oponiéndose a las propuestas legislativas encaminadas a la restricción de las libertades individuales en línea, entre las cuales destaca SOPA
  • Creó la Open Library, y la pobló con la información bibliográfica completa de la Biblioteca del Congreso de los Estados Unidos, con un conjunto de información que hasta ese momento, si bien era legalmente del dominio público, cobraba cargos por acceso.
  • Descargó en 2008 la base de datos completa de registros judiciales públicos (PACER), otro caso de información legalmente del dominio público pero restringida por un cargo por acceso. Donó los archivos resultantes a http://public.resource.org/; este fue el primer caso que le mereció ser abiertamente investigado por el FBI, aunque el caso fue cerrado sin presentarle cargos después de dos meses.

Dentro de su lucha por la puesta a disposición irrestricta de la información pública, entre 2010 y 2011 descargó cerca de cuatro millones de artículos académicos del repositorio JSTOR, aprovechando la política de «campus abierto»1 que sostenía el MIT.

Los artículos en cuestión provenían mayormente de investigaciones realizadas con fondos públicos, por lo que deberían ser para beneficio de la sociedad toda, pero por las diversas distorsiones que sufre la publicación científica formal, para tener un factor de impacto deseable para sus autores, tienen que ser publicadas en revistas especializadas que (cada vez menos, pero aún por regla general) ejercen una política intransigente de control de derechos de autor.

En julio de 2011 fue acusado formalmente por esta descarga de actividad criminal. Si bien JSTOR retiró su demanda, las autoridades judiciales continuaron persiguiéndolo de oficio — La fiscal Carmen Ortiz buscó repetidamente fincarle una sentencia de hasta 35 años de cárcel y una multa de hasta un millón de dólares, equiparando sus acciones con actos terroristas. Ante esta presión (y con antecedentes de depresión severa), el pasado 11 de enero Aaron Swartz se suicidó.

2 Las ideas sobreviven

Aaron, del mismo modo que muchos de los activistas del movimiento del software libre, fue encontrando la necesidad ética de activar para fomentar la libre circulación y correcta preservación a largo plazo del conocimiento. Para muchos de nosotros, el movimiento del conocimiento libre es sencillamente la consecuencia lógica del movimiento del software libre, y surge naturalmente (y con las mismas premisas) una vez que el acceso a Internet llega a la sociedad toda.

A fin de cuentas, el código es sólo una herramienta de expresión y comunicación humana (aunque tenga la restricción de un lenguaje formal, de ser interpretable por una computadora). El ideario completo de la Fundación del Software Libre puede aplicarse a cualquier otra área del conocimiento — Y tenemos hoy las herramientas para que la circulación del conocimiento no sólo resulte irrestricta, sino que a un costo de reproducción prácticamente cero.

En sus 26 años de vida, Swartz contribuyó con buena parte de la implementación técnica y activismo social necesarios para impulsar al movimiento del Acceso Abierto (Open Access)2.

Los diversos protocolos y sitios agregadores con los cuales él contribuyó quedan no sólo como legado, sino como indicador de cómo y hacia dónde un jóven brillante vio que podríamos, y deberíamos, avanzar.

3 El acceso abierto — y estructurado

Un corolario fundamental del acceso abierto es que la información, para ser útil, debe estar adecuadamente organizada y clasificada. Simplemente volcar millones de artículos científicos (o programas de computadora, obras culturales o literarias, arte, etc.) en un espacio sin estructura no sirve de mucho — Ahogarse en un mar de información resulta casi tan inútil como no tener acceso a ella. Es por eso que el Open Access va casi siempre de la mano del empleo de herramientas de clasificación, redistribución y agregación basadas en estándares ampliamente reconocidos.

Hay muchos sitios –incluyo entre ellos, por cierto, al de nuestra revista– destinados a la difusión de información con importantes cuerpos históricos.

Si bien aplaudo y agradezco la decisión de Software Gurú de ofrecer el acervo histórico de ya ocho años de trabajo, para que esta información sea verdaderamente útil debería comprometerse a mantener URLs estables a largo plazo y adherirse a un esquema de publicación de material bibliográfico — Muy probablemente, el esquema más adecuado sería el DublinCore3. Este estándar permite la indexación, cosecha y agregación de repositorios por medio de protocolos como el OAI-PMH4.

¿Qué significa semejante verborragia de siglas? Que, para que la información resulte de utilidad para el avance técnico-científico, no podemos sólamente confiarnos al criterio de los indexadores de los motores de búsqueda. Siguiendo un poco la retórica de Tim Berners-Lee impulsada con el título de Web semántica,

Extiende la red de páginas hipervinculadas legibles por humanos, insertando metadatos legibles por computadora acerca de las páginas y sus interrelaciones, permitiendo a los agentes Web entenderlas más inteligentemente y realizar tareas en nombre de los usuarios.

Si bien hay críticas bien fundadas a la propuesta de Berners-Lee, para información tan estructurada como una revista de publicación periódica como esta, el modelo de metadatos DublinCore se ajusta perfectamente.

El Instituto de Investigaciones Económicas de la UNAM, donde trabajo, participa del proyecto de Red de Acervos Digitales (RAD-UNAM)5. Hemos ido creando un acervo interdisciplinario con diversas entidades universitarias que, por medio de OAI-PMH, ofrece una colección unificada y distribuida con miles de objetos académicos de gran diversidad, rescatándolos en buena medida del olvido y de la inaccesibilidad.

Software Gurú va más alla de ser una revista — El cuerpo de noticias del ramo, whitepapers y congresos presenciales y virtuales podrían sumarse al cuerpo de conocimiento disponible y sistematizado publicado en nuestro país, impulsando de este modo su visibilidad y el impacto de lo aquí publicado. Del mismo modo, otras revistas (sean más formales o menos formales, impresas o en línea), boletines, congresos y demás actividades de nuestra área de conocimiento podrían beneficiarse de adoptar estos estándares.

Un repositorio correctamente descrito puede ser cosechado enfatizando en diferentes facetas. El esfuerzo para lograrlo, cierto, no es despreciable — Pero tengo la certeza de que Software Gurú tendría mucho por ganar.

Y más que nuestra revista: Sé que muchos de quienes aquí escribimos, y quienes trabajan con dedicación brindándonos este espacio, más que por ganancia personal, lo hacemos en un afán de contribuir con nuestro granito de arena a la sociedad mexicana — Y si bien la revista tiene su carga técnica, muchos de nosotros aspiramos a contribuir a la profesionalización de nuestro gremio, a una introspección acerca del rol y la responsabilidad social que cargamos

A los pocos días de la muerte de Aaron Swartz, cientos de académicos hicieron públicas copias de sus artículos secuestrados por las editoriales científicas restrictivas como un tributo al trabajo de este jóven idealista y activista. En una especie de paralelo, espero poder impulsar un poco más a través de este texto el conocimiento de las herramientas (y no sólo los principios éticos) que puedan permitir que el acceso abierto y pleno al cuerpo de conocimiento generado por los especialistas sea puesto al servicio de la humanidad toda de forma más efectiva.

Pies de página:

1 Política que permitía a cualquier usuario externo conectar una computadora de su propiedad en la red universitaria y aprovechar los convenios que ésta tenía subscritos. Podemos encontrar políticas similares en todas las principales universidades, partiendo de la premisa de facilitar la labor académica y reducir tramitología.

2 Por si se van perdiendo en la sopa de letras de movimientos libertarios, Open Access busca el libre acceso a publicaciones académicas.

3 http://dublincore.org/

4 Open Access Initiative Protocol for Metadata Harvesting, http://www.openarchives.org/OAI/openarchivesprotocol.htm

5 http://rad.unam.mx

Programación en la escuela: ¿Para qué?

Submitted by gwolf on Fri, 03/22/2013 - 08:14
Wolf G.  2012.  Programación en la escuela: ¿Para qué? Software Gurú. :50-51.

En el número de agosto del 2012 de Software Gurú, Ignacio Cabral Perdomo presentó un interesante artículo titulado «Enseñando a niños a programar: ¿Imposible o una oportunidad?». La respuesta me parece clarísima: Claro que se puede. Esto viene siendo demostrado, con gran
éxito, desde los 1960s, empleando el lenguaje BASIC diseñado por Kemeny y Kurtz, y muy particularmente con el lenguaje Logo, conocido principalmente gracias al trabajo de uno de sus autores, Seymour Papert. El origen del planteamiento de estas tempranas experiencias, sin embargo, me parece radicalmente diferente del planteamiento de Ignacio — Y los argumentos, tanto hace 40 o 50 años como ahora, más convincentes.

El énfasis que presentan las conclusiones de Ignacio apuntan al mercado del desarrollo de cómputo. Cito,

Es muy clara la necesidad de más profesionistas en el área de la Computación y las Tecnologías de Información, en especial en los departamentos de desarrollo de software de diferentes corporaciones pero, desgraciadamente, el interés de los alumnos por carreras de este tipo está reduciéndose de una forma alarmante. Una posible solución es el inculcar desde temprana edad el pensamiento lógico y algorítmico en los niños siguiendo el itinerario de aprendizaje que propongo.

Si bien el artículo refiere que la enseñanza de programación a partir de nivel primaria «ayuda a los chicos a formar ese pensamiento lógico y algorítmico que tanto necesitan», no profundiza en este aspecto, que considero fundamental. ¿Por qué los chicos pueden necesitar un pensamiento lógico y algorítmico?

1 Los hijos de Logo

Soy parte de una minoría afortunada — Y pido disculpas anticipadas si el presente artículo se ve como un viaje a mi anecdotario personal.

Aprendí computación cuando el acceso al equipo de cómputo era extremadamente poco común — Mi primer experiencia fue en la minicomputadora Foonly que había en el IIMAS (UNAM) en 1983, a los 7 años, escribiendo LaTeX con el editor Emacs. Cabe mencionar que el presente artículo, casi 30 años más tarde, lo estoy escribiendo con las mismas herramientas. Tuve acceso a la Foonly gracias a que mi padre trabajaba como investigador en dicho Instituto, y a que tuvo la paciencia de enseñar a su ávido niño ese lenguaje cargado de símbolos y comandos.

Pero creo que mi experiencia con la Foonly se habría mantenido como meramente incidental de no ser porque, uno o dos años más tarde, me inscribieron en IDESE, una de las primeras escuelas de verano dedicadas al cómputo en México. IDESE era una apuesta pedagógica muy interesante; por tres semanas, alternábamos dos horas frente a la computadora con dos horas más con juegos de mesa. Si bien no recuerdo los detalles de la interacción, esta alternancia ilustra claramente cómo veían nuestros instructores su tarea: Llevar a los niños a
emplear sus habilidades cognitivas de una manera más completa.

IDESE derivó de la versión de Logo desarrollado por el MIT para la Apple ][, traduciendo todos sus comandos y mensajes al español. Sólo otra vez, también en los 1980, vi un esfuerzo similar: El hecho por la BBC al traducir el lenguaje BASIC de su BBC Micro para crear el EBASIC. Esto permitía enseñar a los niños a programar la computadora sin preocuparse al mismo tiempo de aprender otro idioma — El caso del EBASIC me resulta notorio porque, con un comando, se podía ver el código escrito en EBASIC en BASIC "normal". Para 1985, me tocó formar parte del taller de computación que se impartía en mi escuela a partir de 4° de primaria. A partir de 1986, estuve inscrito para varios cursos de los Centros Galileo. Tuve la suerte de haber pasado por escuelas muy buenas y muy motivantes, con lo cual a esas tempranas alturas ya estaba decidida mi vocación.

El gran acierto de Logo que lo hizo tan importante como lenguaje educativo fue eliminar las capas de abstracción que debía tener en mente un niño: Si bien el lenguaje permite un desarrollo complejo y formal de programación funcional1, el niño podía ver la concreción de sus programas graficándolos a través de una tortuga, originalmente un robot conectado a la computadora, posteriormente reemplazado por una tortuga en pantalla cuando la tecnología lo permitió. Permitir que el niño viera directa e inmediatamente sus resultados, hace 45 años, resultó un cambio fundamental y un gran motivador.

Cuando Logo fue planteado, así como cuando yo lo aprendí2, no existía el planteamiento de formar a los niños en programación por la gran demanda que dichas habilidades tendrían en la sociedad. La enseñanza de programación era vista como una forma de enseñar pensamento abstracto y algorítmico.

¿Y para qué enseñar pensamiento abstracto y algorítmico si no para formar profesionales que comprendan más fácil los paradigmas de cómputo? Bueno… Citando a un buen amigo, de lo que se trata no es de aprender más que a programar, aprender lo que significa programar. Dicho de otro modo, ¿Para qué se enseñan matemáticas, filosofía, historia o biología? Para formar personas más completas, no sólo en su cultura, sino que en la manera de estructurar el pensamento. Habilidades que indudablemente impactan en su crecimiento como adultos. Y sin poder extrapolar más allá de la experiencia personal, no puede pasarme desapercibido la gran proporción de colegas que me he encontrado de aproximadamente mi edad que pasaron por experiencias formativas similares.

2 La OLPC

Ninguna herramienta dura para siempre, sin embargo, y ni siquiera el gran Logo se salva de la obsolescencia que las nuevas tecnologías van causando. Hoy en día, sería iluso pensar que mover una "tortuga" por la pantalla pudiera impresionar a un niño. Afortunadamente, no han sido pocos los estudios en este campo que se han realizado — El artículo de Ignacio presentó cuatro entornos de programación orientados a la enseñanza en diferentes edades — Scratch, Alice, Greenfoot y BlueJ. Me sorprendió que no presentara a uno de los trabajos más comentados de los últimos años, que tiene un impacto muy medible: El proyecto OLPC (One Laptop Per Child, una computadora por niño)3 , iniciado –al igual que Logo– en el MIT y con el decidido apoyo de Seymour Papert, entre otras muchas personalidades.

La OLPC no es cualquier computadora: Fue planteada como el vehículo sobre del cual correría Sugar4. Yo no tengo experiencia de primera mano con el entorno, por lo cual prefiero dirigir a quienes estén interesados en una descripción más completa al artículo que publicó Werner Westermann5 dentro del libro «Construcción Colaborativa del Conocimiento»6.

En resumen, Sugar es un entorno dirigido a facilitar un aprendizaje construccionista, en que cada alumno debe ir explorando y construyendo su camino por medio de la experiencia personal, lo cual lleva a una mayor apropiación del contenido que cuando éste es dictado. A partir de una interfaz sencilla y una orientación más a actividades que a aplicaciones, y empleando a fondo la colaboración entre todos los alumnos, la computadora se vuelve un actor, un facilitador de la transmisión del conocimiento. Y una característica fundamental de Sugar es que el alumno no sólo puede utilizar las actividades, sino que puede (y está bienvenido a) modificarlas. Las actividades están escritas en Python, un lenguaje de sintaxis limpia y conceptualmente fácil de adoptar.

OLPC fue planteado como un proyecto necesariamente a gran escala: Está planteado para que una computadora sea entregada a cada niño en edad escolar en los países receptores. El proyecto busca además resolver problemáticas específicas de los países menos favorecidos; con ciertas modificaciones al planteamiento inicial, actualmente hay despliegues de OLPC en once países de escasos recursos7.

Y siguiendo con el tono personal que he mantenido en esta ocasión, relato lo que me contó Manuel Kauffman, un desarrollador argentino de Sugar, en una visita que hizo a una escuela en Uruguay: Un niño, de 11 o 12 años, le explicó que prefería editar en texto los iconos de las actividades que iba creando o modificando directamente en un editor de texto, en SVG8 porque le quedaban más limpios que utilizando un editor gráfico.

Este ejemplo habla como pocas cosas de apropiación de la herramienta y de la apreciación estética de la representación en código de un objeto. Hay programadores de larga carrera profesional que son incapaces de desarrollar estas habilidades.

3 Conclusiones

Enseñar a programar a un niño va mucho más allá de transmitirle una habilidad para su futuro profesional. La enseñanza básica no puede basarse sólamente en la transmisión de competencias medibles en el mercado.

Hay, sin embargo, puntos importantes a considerar. Si bien algunos tuvimos la gran suerte de aprender de la forma y en el momento correcto, es una materia con la que muchos se enfrentan con dificultad — El desarrollo de las capacidades de abstracción necesarias para esta materia se produce de forma muy desigual, y la frustración que esta materia puede causar en algunos alumnos puede ser muy grande. Cabe mencionar, claro, que esto mismo se presenta en varias otras materias que forman ya parte de la currícula básica.

Por otro lado, otro punto importante a considerar es la formación de los docentes. Para incorporar una materia a la currícula básica, es necesario contar con un cuerpo docente suficientemente amplio y capacitado, no sólo con las habilidades técnicas sino que pedagógicas. Esto, claro, debe presentarse como un proceso gradual, pero nada indica que sea de fácil resolución.

Pies de página:

1 Logo ha sido descrito como "Lisp, pero sin los paréntesis"

2 Con casi 20 años de distancia — ¡Una verdadera eternidad en el avance de la popularización del cómputo!

3 http://one.laptop.org/

4 http://sugarlabs.org/

5 http://seminario.edusol.info/seco3/pdf/seco3_apend2.pdf

6 http://seminario.edusol.info/seco3/

7 http://one.laptop.org/stories

8 Un lenguaje basado en XML para representar gráficos vectoriales

Syndicate content