2011

Columnas y artículos publicados en 2011

Identidad y reputación en línea: Esquemas de confianza

TitleIdentidad y reputación en línea: Esquemas de confianza
Publication TypeMagazine Article
Year of Publication2011
AuthorsWolf G
MagazineSoftware Gurú
Volume31
FrequencyQuarterly
Issue Number31
Pagination48-49
Date Published03/2011
Type of ArticleColumn
ISSN1870-0888
Keywordsconfianza, identidad, reputación
URLhttp://www.sg.com.mx/content/view/1159
Full Text

Querido amigo: Soy la señora Mariam Abacha1, viuda del finado General Sani Abacha, ex-jefe de gobierno de Nigeria. (…) Para salvar a mi familia de una total bancarrota, estoy buscando transferir el total de US$24,000,000 a través de una institución bancaria confiable. (…) Como pago por su ayuda, le ofrezco el 30% de lo que podamos rescatar de la fortuna de mi querido esposo.

El tema conducente del presente ejemplar de SG, Pagos en línea, cruza necesariamente por el tema de los esquemas de establecimiento de reputación en línea. Cada vez menos gente asume confiable cualquier dato que encuentra en Internet sencillamente por estar ahí. Un logro del que puede enorgullecerse la comunidad de expertos que apuntan a la necesidad de concientización en nuestro quehacer en red es que la generalidad de los usuarios, por lo menos, ya desconfía cuando le piden datos para tener acceso a su dinero. Sin embargo, ¿qué es lo que nos lleva a confiar en determinados proveedores?
El problema de establecer la reputación de un tercero puede presentarse como un muy interesante ejercicio académico, con anclas en muy diversas áreas del conocimiento, desde las ciencias sociales hasta las matemáticas.
En un plano mucho más aplicado, todo el problema de la reputación puede resumirse en las preguntas, ¿Puedo confiar en que la contraparte es quien dice ser?, y ¿Puedo confiar en que dice la verdad?. Enfocándonos a las aplicaciones actuales, podemos principalmente traducir estas preguntas en:

Confianza en la identidad

Seguramente habrán recibido alguna vez un correo similar a aquel cuyas primeras líneas reproduje. Afortunadamente, es poca la gente que cae en estos esquemas2. Lo primero que debe venir a nuestra mente es, ¿estoy realmente intercambiando correo con la Sra. Abacha?
Hemos aprendido a desconfiar de la identidad de los extraños. Y cuando un extraño nos propone una transacción económica, nuestra primer reacción es desconfiar. Cuando efectuamos transacciones a través del navegador, nos hemos acostumbrado a buscar indicaciones de que estemos hablando con un servidor seguro. ¿Qué es esto? ¿Cómo lo valida el navegador?
Más allá de aplicar el sentido común, hay dos esquemas principales que nos permiten confiar la identidad de una entidad –individuo o empresa– con la que podamos tener un intercambio que incluya información confidencial (que requiera mantenerse a resguardo de terceros, como el número de nuestra tarjeta de credito) o no-repudiable (que nos interese tener un comprobante de haber realizado determinada transacción¸ sea pública o privada, con la persona o entidad en cuestión; lo que se ha dado por llamar firma electrónica): El esquema centralizado, basado en autoridades certificadoras (CAs) y firmas corporativas, y el esquema descentralizado, basado en llaveros de confianza y firmas personales. Ambos están basados en la criptografía de llave pública, con implementaciones derivadas de la criptografía de llave pública. No profundizaré en cómo estos pueden utilizarse para el intercambio de información, sino sobre la metainformación: Cómo apuntan a la confiabilidad sobre la identidad de un actor.
Por un lado, tenemos a la infraestructura de llave pública (PKI). Este es el esquema que siguen los navegadores Web, punto de contacto que casi todos tendremos con los pagos en línea. Además de los navegadores, y el ocasional cliente de correo, muchos otros servicios pueden emplear certificados de esta naturaleza para realizar autenticación o cifrado3 — Pero estos dos son los más visibles a los usuarios en general.
Bajo un esquema PKI, nuestro navegador confiará ciegamente en la identidad de un conjunto de CAs centrales, definidas por el proveedor del softare4. Mientras un certificado esté firmado por una autoridad conocida, el navegador mostrará la conexión como segura.
Tenemos por otro lado a los esquemas basados en el esquema de llaveros de confianza. Éste esquema fue dado a conocer en los 1990, con el sistema de criptografía PGP, de Phil Zimmermann. Un llavero de confianza podría definirse como un sistema colaborativo, par a par: Cada participante del llavero firma la llave de los otros participantes a los que conoce personalmente, certificando confianza en que su identidad es verdadera5. Cuando un usuario quiere comunicarse con otro, puede ver cuál es el camino de confianza yendo entre individuos, y en base a la distancia y grado de conexión (y, por tanto, de certificación) que tiene determianda identidad, decidir el nivel de confianza que depositará en ésta.
Entonces, un servidor seguro no es sólo el que implementa una conexión cifrada, sino que aquél en cuya identidad puedo confiar. Emplear cifrado sólo tiene sentido cuando podemos confiar en la identidad de nuestra contraparte. De muy poco serviría que garantizáramos que toda nuestra comunicación llega cifrada hasta nuestra contraparte si dicho sistema no es el sistema destino — Si no verificamos la identidad de nuestra contraparte, un atacante podría interponer un servidor entre nosotros y nuestro destino, descifrando y cifrando nuevamente la comunicación, modificando o guardando los datos que juzgara necesario.
En un esquema PKI, basta con engañar a una CA respecto a nuestra identidad para tener la puerta abierta a interceptar las solicitudes de usuarios. Y, tristemente, esto ya hace mucho tiempo pasó del terreno del discurso académico al del mundo real: En 2001 fue detectado un certificado firmado por Verisign a nombre de Microsoft, otorgado a un individuo sin relación alguna con dicha compañía6.
A diferencia de PKI, en que un conjunto de firmas se ve como una serie de árboles con raíces en cada una de las CAs certificadas, una red de firmas basada en las ideas de Zimmermann nos aparece como una red fuertemente interconectada, y nos permite validar varios caminos de confianza entre dos participantes de esta red, y evaluar cada a uno de ellos basado en la confianza subjetiva que damos a los actores involucrados7.
No hay un esquema indiscutiblemente mejor que el otro — Son utilizados con fines distintos. Ambos tienen su ámbito de aplicación — Y si hoy podemos confiar en la confidencialidad, integridad y seguridad de las transacciones en línea, es por estos esquemas. Nuevamente, de muy poco nos serviría cifrar nuestras transacciones en un entorno hostil sin tener confianza en que la contraparte es quien esperamos que sea.

Reputación del individuo

Asumamos, sin embargo, que la Sra. Abacha nos convenció plenamente de ser ella. ¿Debemos por ello confiar en su oferta?
Es aquí donde entra en juego la reputación: Ya que tengo certeza de estar interactuando con la entidad deseada, saber si es una entidad con la que me conviene mantener una transacción es el siguiente albur. Y, en este caso, la reputación es algo que debe establecerse bidireccionalmente. No sólo al comprador le interesa saber que el vendedor le entregará un producto genuino y a tiempo, sino que al proveedor le interesa saber si el comprador tiene cómo pagarlo. No sólo al solicitante de un préstamo le interesa que el banco confíe en su capacidad crediticia, sino que al banco le importa saber si éste no ha faltado a sus obligaciones de pago. Si entro a un sitio de intercambio entre particulares, sea de venta directa o a través de subastas (y seguramente en ambos casos todos habrán pensado en cuál sitio pensé al escribir tan amplia categoría — Eso también entra en el amplio ámbito de la reputación), los individuos participantes tienen una calificación indicando su confiabilidad basada en su comportamiento previo.
O, saliéndonos del árido tema de las transacciones económicas, en un foro de discusión puede interesarme filtrar los mensajes para sólo ver los que más vale la pena leer — Y, sin recurrir a un sistema que requiera involucramiento masivo de los editores, la mayor parte de estos sitios basan este filtro dando un valor inicial dependiente de la reputación del autor.
La asignación de reputación es un área completamente dependiente del campo de aplicación, por lo que resulta imposible hablar de implementaciones como en la sección anterior.
Nuevamente, las restricciones de espacio me dejan apenas arañando el campo, apuntando a un gran área a tener en consideración para cualquier desarrollo que emprendamos en que pueda involucrarse el peso o la complejidad de las relaciones entre entidades complejas. Tomar estos elementos en cuenta de forma transversal a los diferentes dominios de aplicación nos llevará a variadas e interesantes consideraciones, que seguramente mejorarán no sólo la confiabilidad de nuestras transacciones, sino incluso la oportunidad y el valor de la información que presentamos a nuestros usuarios.

Notas al pie

1 El nombre de la Sra. Abacha es el más prevalente en los fraudes de pago anticipado; tristemente, su identidad y reputación son ya demasiado bajos. Mi intención no es dañarlo más, claro está, sino señalar un fenómeno preexistente
2 Sin embargo, una pequeña proporción de una cantidad absurdamente grande de correos enviados sigue resultando en buen negocio… Y es por ello que estos defraudadores siguen saturando nuestros buzones.
3 Encontraremos referencias a estos certificados como X.509; si vamos a implementar directamente opeaciones sobre los certificados, conviene hacerlo empleando la biblioteca libre openssl.
4 Por ejemplo, puede consultar la lista de CAs autorizadas por Mozilla en http://www.mozilla.org/projects/security/certs/included/index.xml
5 Es muy importante tener en cuenta que lo único que aquí se certifica es la identidad, no la confianza en la entidad en cuestión. La confianza será tratada en la siguiente sección.
6 Bruce Schneier: Fake Microsoft certificates, http://www.schneier.com/crypto-gram-0104.html#7
7 Por poner un ejemplo, si yo (llave C1DB921F) obtengo un documento firmado por Marcelo Tosatti (llave E8E1FE55), desarrollador del kernel de Linux, encuentro que (al día en que escribo este texto) estamos a tres "brincos" de distancia: http://pgp.cs.uu.nl/paths/C1DB921F/to/E8E1FE55.html, http://webware.lysator.liu.se/jc/wotsap/wots/latest/paths/0xC1DB921F-0xE...

AttachmentSize
Versión publicada por la revista (PDF)104.42 KB

Interoperabilidad: ¿A qué aspiramos cuando hablamos de ella?

TitleInteroperabilidad: ¿A qué aspiramos cuando hablamos de ella?
Publication TypeMagazine Article
Year of Publication2011
AuthorsWolf G
Refereed DesignationNon-Refereed
MagazineSoftware Gurú
FrequencyQuarterly
Issue Number33
Pagination50-51
Date Published08/2011
Type of ArticleColumn
ISSN1870-0888
URLhttp://www.sg.com.mx/content/view/1216
Full Text

El pasado 2 de junio, participé en el foro «Software Libre en México, reflexiones y oportunidades», organizado por la Comisión de Ciencia y Tecnología del Senado de la República. En este foro tocamos cuatro temas principales (Educación, gobierno, industria y sociedad).
Si bien el objetivo explícito central del foro fue presentar ante los legisladores y medios interesados tanto los puntos de vista que tenemos los activistas del software libre como las historias de éxito, los avances y problemas con que nos hemos encontrado en los ya más de quince años que llevamos de existencia en nuestro país, posiblemente lo más importante que nos llevamos los participantes fue la reactivación de un grupo de discusión para tratar temas políticos relacionados con la tecnología, y con el factor cohesivo de estar interesados en la difusión del software libre.
Este grupo, coordinándose a través de una lista de correo pública1, está actualmente en proceso de definir los puntos de la agenda digital a presentar; el primero de ellos es el de la interoperabilidad.
El tema coincide con la presentación de la versión preliminar de un acuerdo de la Secretaría de la Función Pública (SFP), a ser discutido y –esperamos– aprobado en las próximas semanas o meses. Nos resulta de gran importancia no sólo analizar y proponer en lo relativo a esta temática hacia el interior de nuestro grupo (y de las instancias gubernamentales involucradas), sino que hacia los demás profesionales en el tema — Como lo son los lectores de esta revista. Dada la imposibilidad de proporcionar referencias a un documento aún inexistente y motivado por el interés que seguramente ésto causará a más de uno de ustedes, coloqué a su disposición una copia de una versión preliminar de este texto en mi sitio Web2.

Definición

¿A qué nos referimos con interoperabilidad?
Al enfrentar un desarrollo, un punto fundamental a considerar desde muy temprano es cuál será su límite o interfaz — Sea un sistema, un API sobre la nube, un servicio, un componente o una biblioteca, debemos delimitar por qué mecanismo recibiremos las solicitudes de los usuarios y por cuál le entregaremos los resultados. Del mismo modo, nuestro sistema parte de un contrato con diversos elementos (nuevamente, de cualquiera de los niveles antes descritos) que le brindarán facilidades, por ejemplo, de conectividad a red o de manejo de bases de datos. Hablar de interoperabilidad significa que en cada uno de dichos puntos, en cada una de las interfaces, el intercambio de datos se realice de forma tal que evite imponer dependencia en algún paquete específico, en los designios de algún producto que a futuro pudiera –de cierto modo– mantener como rehén sea al usuario final, al desarrollador, o a la entidad que requirió del desarrollo en cuestión.
En palabras del Grupo de Trabajo para la Interoperabilidad, de la Asociación Francófona de Usuarios de Software Libre3:

La interoperabilidad es la capacidad que tiene un producto o un sistema, cuyas interfaces son totalmente conocidas, para funcionar con otros productos o sistemas existentes o futuros y eso sin restricción de acceso o de implementación.

El borrador de la SFP divide la definición de interoperabilidad en cinco sub-definiciones:

Interoperabilidad
Definición del concepto global
Interoperabilidad organizacional
Homologar criterios y procedimientos entre distintas dependencias
Interoperabilidad semántica
Un manejo estandarizado del significado de los diversos conceptos
Interoperabilidad técnica
A las especificaciones técnicas que garantizan que los componentes tecnológicos de los sistemas de información están preparados para interactuar de manera conjunta
Neutralidad tecnológica
Busca que cada dependencia pueda elegir los programas y mecanismos más adecuados para su desarrollo sin que se favorezca o penalice a ninguno por criterios más allá de los puramente técnicos.

Del dicho al hecho

Quien pegue una etiqueta que diga "esta página Web se ve mejor con el navegador X" en una página Web es un nostálgico por los días viejos y malos, antes de la Web, cuando tenías muy pocas probabilidades de leer un documento escrito en otra computadora, otro procesador de textos u otra red.
— Tim Berners-Lee, Technology Review, julio 1996

El documento presentado por la SFP nos parece muy esperanzador, está escrito de forma clara y bastante exhaustiva. El cuidado que debemos ahora poner va principalmente hacia que el acuerdo no quede en letra muerta — Debe ser del conocimiento de las diversas dependencias y ser tomado en serio para beneficio no sólo de la población toda, sino que de cada una de dichas dependencias. Además, debe ser conocido y comprendido por la industria nacional de desarrolladores de software, dado que interoperar sin restricciones no únicamente beneficia al sector público, sino que –a fin de cuentas– a todos los implicados. Escribir software que no dependa de implementaciones específicas es sencillamente escribir mejor software.
Al día de hoy, como usuarios, tristemente nos resulta muy común encontrar, una y otra vez, ejemplos de cosas que podrían trivialmente ser interoperables, pero resultan no serlo — Y lo que es peor, sin razón alguna.
Ejemplos de lo que digo son demasiado comunes. Desde la aplicación desarrollada por el SAT para presentar la declaración de impuestos (desarrollada en Java, plataforma que se popularizó al ser la primera en impulsar explícitamente la interoperabilidad como su principal promesa), que sencillamente se niega a operar al ser llamada con cualquier navegador que no sea Internet Explorer, hasta el SUA del IMSS, única manera en que una empresa puede dar de alta y administrar a su plantilla de trabajadores ante IMSS e INFONAVIT, que requiere ser ejecutada en computadoras corriendo Windows. Y al igual que estos dos casos de altísima visibiliad, seguramente ustedes podrán citar a ejemplos adicionales que obligan a sus usuarios a emplear tecnologías específicas, sin justificación técnica alguna para hacerlo.
El pretexto más frecuente que encontramos ante cualquier solicitud de que algún sistema sea utilizable desde una plataforma distinta es el consabido eso es lo que hay y no podemos hacer nada al respecto; modificar la base de software ya desarrollado e instalado significaría una tarea titánica. Sin embargo, los servicios fundamentales que deben estar disponibles para toda la población deben ser priorizados — Resulta inaceptable que a la población en general se le imponga el requisito de emplear una tecnología específica (independientemente del papel dominante que ésta tenga actualmente en el mercado), especialmente dado el desarrollo y rápida adopción de estándares como HTML5, que permiten un despliegue extensivo de interfaces de usuario ricas y completamente multiplataforma.

Las múltiples facetas de la interoperabilidad

Pero hablar de interoperabilidad no se limita a permitir que usuarios con configuraciones diversas puedan usar los sistemas de gobierno — Como lo mencionamos en el primer apartado, parte importante de la interoperabilidad se refiere a cómo facilitar el intercambio de información entre entidades del mismo gobierno, a la creación de modelos estandarizados (la ya citada interoperabilidad semántica) con los que puedan representarse e intercambiarse datos acerca de las estructuras más comunmente encontradas y repetidas — Y que posiblemente facilite que paulatinamente se vaya creando, en vez de una colección de sistemas que conforman al e-gobierno, una nube de información con un mínimo de duplicación de información.
¿Y cómo elegir entre tantos estándares disponibles? ¿Qué formatos, protocolos y lenguajes son los más adecuados? ¿Cómo podemos determinar cuál es un estándar abierto? Este es un tema que da para largas discusiones, y motivo de los diferentes foros referidos. Cito lo que marca el Proyecto de Acuerdo al respecto:

Los estándares abiertos deberán tener, como mínimo, las características siguientes:

  1. Disponibilidad;
  2. Que los derechos de autor estén disponibles, libres de
    regalías y condiciones;
  3. Maduros;
  4. Internacionalmente aceptados;
  5. De fácil distribución, y
  6. Con amplio soporte en el mercado;

El sólo hecho de reducir la cantidad de datos redundantes (y por consiguiente avanzar en la larga lucha contra los peregrinares a mil ventanillas para cualquier trámite trivial) ya por sí sólo lo valdría. Agreguemos a esto que reducirá fuertemente la dependencia de proveedores únicos y de la permanencia en el mercado de productos específicos, fomentando el crecimiento de una verdadera industria de desarrollo de software.
Sigamos, pues, la discusión que se presentará sobre estos temas en los próximos meses. Este es un tema que indudablemente impactará el trabajo de todos nosotros, y en el que todos tendremos algo que aportar.

Referencias

1 Archivo público de la lista de correo
«discusion-softlibre-senado»

2 Proyecto del Acuerdo por el que se establece el Esquema de Interoperabilidad y de Datos Abiertos de la Administración Pública Federal
3 Grupo de Trabajo para la Interoperabilidad, AFUL

AttachmentSize
Versión del artículo (en PDF) como apareció impresa en la revista141.78 KB

Georeferenciación a nuestras espaldas

TitleGeoreferenciación a nuestras espaldas
Publication TypeMagazine Article
Year of Publication2011
AuthorsWolf G
Refereed DesignationNon-Refereed
MagazineSoftware Gurú
Volume32
FrequencyQuarterly
Pagination46-47
Date Published05/2011
Type of ArticleColumn
ISSN1870-0888
URLhttp://www.sg.com.mx/content/view/1181
Full Text

La idea para la columna de este número surgió de una plática con mi padre, comentando acerca de un texto que él presentó, como parte del espacio de la Academia de Ciencias de Morelos en el periódico La Unión de Morelos el pasado 18 de abril1. En éste, habla acerca de la disparidad de las cifras reportadas ante la manifestación dirigida por Javier Sicilia en la ciudad de Cuernavaca (ésta, el miércoles 6 de abril), y acerca de métodos que podrían utilizarse para tener una estimación más precisa. Yo, como buen consultor, le sugerí algo bonito y preciso en teoría, pero impracticable para todos los que no contamos con el poder coercitivo gubernamental: Acceder a los registros de las compañías de telefonía celular, para averiguar cuántas personas entraron durante el periodo de nuestro interés a la región por donde cruzó la marcha. A fin de cuentas, una muy alta proporcionón de la población hoy en día cuenta con teléfono celular, y podría ser una buena manera no sólo de estimar la magnitud de la marcha, sino de hacerlo a lo largo del tiempo que duró.
Ahora, dado que la información que poseen las telefónicas no es pública, dejamos la conversación a un nivel puramente especulativo — Seguros de que las autoridades de Seguridad Pública tienen acceso a estos datos, pero que a la mayor parte de nosotros nos resultan inalcanzables, como no sea a través de una órden judicial.
En los días siguientes a esta conversación, sin embargo, se presentaron varias noticias que se me hicieron interesantes, y que vinculan a esta discusión relativa a la participación ciudadana en la política nacional con temáticas más cercanas a las que toca esta revista: El cómputo ubicuo, la rastreabilidad de un dispositivo móvil, la seguridad de la información de geolocalización, y nuestro derecho a controlar quién tiene acceso a ella.

Compañías telefónicas

Me encontré con un artículo publicado por el diario alemán «Zeit Online» el 26 de marzo2, que ilustra precisamente la profundidad de esta información: Malte Spitz, del Partido Verde alemán, presentó una demanda judicial para obligar a Deutsche Telekom a entregarle todos los datos suyos que tuvieran registrados en los últimos seis meses. Los datos están disponibles en crudo — Y adicionalmente, gracias a una simple aplicación Web3 realizada para presentar esta información de una manera fácil de comprender, nos hace ver la profundidad de los patrones de comportamiento que puede construirse de cada uno de nosotros: Ubicación geográfica, llamadas y mensajes recibidos/enviados, conexión de datos...
Si bien la geolocalización es mucho menos precisa que la que arrojaría un GPS (es obtenida por triangulación entre las torres de telefonía celular, resultando en una precisión de unos cien metros), el punto más importante es que esta información se genera y almacena centralmente, en las instalaciones del proveedor de telecomunicaciones, e independientemente de las capacidades tecnológicas de nuestro teléfono.
Y si bien Malte Spitz tuvo acceso a sus datos a través de los canales legales, ¿qué tanto podemos confiar en que dichos datos estén adecuadamente protegidos de los ojos de atacantes capaces de vulnerar servidores conectados a Internet? Precisamente, el experimento de Spitz fue llevado a cabo para sustentar el peligro de la ordenanza de 2008 que obliga (y por tanto permite) a las compañías de telecomunicaciones guardar esta información por medio año — Ordenanza que en marzo de 2010 fue declarada inconstitucional. En México nos hemos topado una y otra vez con casos en que datos confidenciales han sido encontrados en el mercado negro. ¿Qué nos indica que esta información, escalofriantemente precisa acerca de nuestros hábitos no está disponible al mejor postor?

Proveedores de hardware

Otro conjunto de noticias que aparecieron en los días recientes son los relacionados a la información de ubicación que guardan diversos teléfonos inteligentes y equipos similares: Los equipos iPhone e iPad de Apple que corren el iOS versión 4 o superior, guardan un registro histórico de los puntos por los que ha pasado el usuario4,5 (al igual que lo mencionado anteriormente, mayormente basado en triangulación contra las antenas celulares, aunque de mucho mayor precisión cuando el GPS está activado). Y si bien esto no debería sorprendernos, hay tres puntos clave en lo revelado:

  • Los datos son guardados sin cifrado, y son incluídos en todo respaldo hecho al dispositivo.
  • La licencia de uso del software permite expresamente a Apple recolectar, usar y compartir información precisa respecto a la ubicación, incluyendo la ubicación geográfica en tiempo real de tu computadora o dispositivo Apple.
  • La información recopilada no se limita a una ventana de tiempo preestablecida, sino que durará la vida entera del equipo.

Para verificar (y/o jugar) con esta funcionalidad, pueden instalar en cualquier computadora con la que hayan sincronizado un iPhone o iPad el iPhoneTracker (MacOS)6 o el iPhoneTrackerWin (Windows)7. En el sitio del iPhoneTracker hay una interesante lista de preguntas muy interesantes para entender este problema.
Claro, pero el que Apple controle los dispositivos que los usuarios han comprado no es novedad. Quienes me conozcan, probablemente esperan que haga a continuación una apología de por qué el software libre es más seguro, y por qué deberían todos cambiar a un teléfono basado en el sistema Android, de Google. Sin embargo, la situación no es tan distinta ahí.
Con la salvedad de que para que éste archivo exista el usuario tiene que haber aceptado previamente que el teléfono provea servicios relacionados con los datos de geolocalización (sin duda una muy importante característica de los equipos, y que poca gente dejará desactivada), los teléfonos Android guardan también información con nivel de detalle muy similar8. Esta información además no se mantiene a largo plazo: Los dispositivos Android guardan únicamente un número limitado de ubicaciones — Hasta 50 entradas derivadas de torres celulares, y hasta 200 derivadas de redes WiFi.
Ahora, de este último punto podemos aún jalar más hilo: Si bien el contrato de licencia del software de Apple permite que reciban todos los datos de ubicación, hasta el momento han negado estar utilizándolos. Sin embargo, al autorizar a Android, explícitamente estamos autorizando que esta información sea reportada a Google9 — ¿Y qué uso directo le dan? Los dispositivos con Android notifican a Google la ubicación de cada red inalámbrica que encuentran, como lo demuestra el sitio Web desarrollado por Samy Kamkar10: Los dispositivos informan a Google de la ubicación geográfica de cada red WiFi que encuentran.
Ahora bien, sé que este texto puede ser leído como una carta escrita por un paranóico de las teorías de la conspiración. No es así, estoy consciente de que la tecnología va cambiando nuestra vida, y que lo que para muchos puede ser visto como una invasión a la privacidad, para muchos otros representa la gran conveniencia tanto de contar con una ubicación razonablemente precisa en un tiempo aceptable como de poder compartirla con nuestros contactos en un tiempo pertinente.
Mi convocatoria, claro, al tiempo que lleva a que tengamos conciencia de los insospechados ojos que pueden estar aprendiendo de nuestras vidas con cualquier tipo de fines, también lleva a que, como desarrolladores de aplicaciones, sepamos ser creativos y aprovechar la información que tenemos a nuestro alcance — ¡Porque sin duda podrán encontrar también maneras lícitas y atractivas de emplear estas fuentes de información!

Referencias

  1. ¿Cuántos miles marchamos? — http://www.launion.com.mx/images/stories/Hemeroteca%20Virtual/2011/abril-2011/18-abr.pdf (pag. 34)
  2. Betrayed by our own data — http://www.zeit.de/digital/datenschutz/2011-03/data-protection-malte-spitz
  3. Tell-all telephone — http://www.zeit.de/datenschutz/malte-spitz-data-retention
  4. Secret iPhone location tracking — http://www.theregister.co.uk/2011/04/20/secret_iphone_location_tracking/
  5. How to See the Secret tracking Data in Your iPhone — http://www.pcmag.com/article2/0,2817,2383943,00.asp
  6. iPhoneTracker — http://petewarden.github.com/iPhoneTracker/
  7. iPhoneTrackerWin — http://huseyint.com/iPhoneTrackerWin/
  8. It’s not just the iPhone, Android stores your location data too — http://thenextweb.com/google/2011/04/21/its-not-just-the-iphone-android-stores-your-location-data-too/
  9. Google Android privacy concerns — http://www.theregister.co.uk/2011/04/22/google_android_privacy_concerns/
  10. Android Map http://samy.pl/androidmap/
AttachmentSize
Versión publicada en Software Gurú106.29 KB

Software libre, cultura libre

TitleSoftware libre, cultura libre
Publication TypeMagazine Article
Year of Publication2011
AuthorsWolf G
Refereed DesignationNon-Refereed
MagazineRevista Zocalo
VolumeXI
Frequencymonthly
Issue Number137
Pagination42-43
Date Published07-2011
ISSN1665-8698
Full Text

Software libre

Cada vez es más común escuchar el concepto software libre en medios destinados a la sociedad en general, y ya no sólo ante quienes nos dedicamos al cómputo. Pero no teman — En el presente texto, abordaré el tema enfatizando en él en tanto movimiento social, enfocándome en cómo ha comenzado a influir en la sociedad toda.
Desde un punto de vista meramente técnico, puede llamarse software libre a todo programa que no imponga un licenciamiento restrictivo a sus usuarios — Todo programa que nos permita utilizarlo con cualquier fin, comprender cómo está hecho (tener acceso a su código fuente), adecuarlo a nuestras necesidades, y compartirlo con otras personas. Entre los programas más conocidos que califican como software libre encontramos al sistema operativo Linux en sus muchas variantes, la herramienta ofimática OpenOffice, el navegador Web Firefox, una gran variedad de programas de rango servidor, y un larguísimo etcétera.
Pero el software libre va mucho más allá de un producto técnico: Es un movimiento social en toda forma. A mediados de los 1980, Richard Stallman acuñó el concepto, formalizó los requisitos arriba descritos, y creó a la Free Software Foundation y al Proyecto GNU, que habría de convertirse en el sistema operativo completo; es a partir de esto que consideramos que una forma de desarrollar y compartir se convierte en movimiento. Su planteamiento partió de una fuerte base ideológica, de la necesidad del libre acceso al conocimiento. Por años, la FSF se enfrentó a las críticas y escepticismo respecto a la viabilidad del proyecto. Específicamente, ¿Por qué miles de programadores donarían de su esfuerzo de desarrollo de software en beneficio de la humanidad?
El proyecto GNU sobrevivió lo suficiente para crear una base mínima utilizable, y obtuvo una masa crítica suficiente para impulsar con cada vez más fuerza su desarrollo hasta el día de hoy. Pero lo fundamental es que el fenómeno trascendió a la comunidad original, y creó a todo un abanico de ideologías, en lo técnico y en lo social. Al día de hoy, habemos decenas de miles de desarrolladores trabajando de manera completamente descentralizada, cada quién persiguiendo sus propios incentivos (que si bien en algunos casos son económicos, directos o indirectos, en otros son por afición, por diversión, incluso de inspiración artística).

¿Por qué funciona?

Ahora, ¿por qué éste cambio cultural se presentó antes que en ningún otro lado en el desarrollo de software?
El proceso natural humano de construcción de conocimiento (la forma en que aprendemos, pensamos y reelaboramos los avances) atraviesa necesariamente por la socialización — Por compartir los avances, los pensamientos, por que un experto corrija al otro. El software libre no puede explicarse sin Internet, sin comunicación ágil y directa entre los participantes.
Internet no es un fenómeno nuevo. Tiene ya más de 40 años de edad — Obviamente, en primer término se difundió en los círculos militares y académicos. Y naturalmente, la convocatoria del proyecto GNU se difundió inicialmente dentro de Internet, cayendo y difundiéndose en un campo fértil.

Hacia la cultura libre

El movimiento del software libre ha encontrado grandes puntos de coincidencia con diversos grupos sociales y culturales, y conforme van encontrando puntos de coincidencia, se arma un movimiento que promete ser mucho mayor, e incluso cambiar la forma en que opera la creación del conocimiento en el mundo entero: La cultura libre. Y es aquí donde comienza el engranaje hacia lo que sostengo que es la evolución natural del movimiento.
Podemos ya encontrar varios ejemplos de éxito. Posiblemente el más notorio hoy en día sea Wikipedia, un proyecto de construcción de un cuerpo de conocimiento libre y carente de la noción tradicional de autoría: Una enciclopedia escrita por todos, corregida por todos, mejorada con todos. No está exenta, claro, de problemas de control de calidad, pero va encontrando mecanismos que cada vez más aumentan su confiabilidad.
Wikipedia tiene, por cierto, un antecedente que muestra la importancia de la participación abierta en un proyecto colaborativo: La Nupedia. El proyecto Nupedia fue lanzado en el año 2000 (un año antes del de Wikipedia), buscando crear una enciclopedia de libre acceso y redistribución que garantizaba la calidad de sus contenidos por medio de la revisión por pares. Sin embargo, pese a las buenas intenciones, en los primeros 18 meses sólo se publicaron 20 artículos. Buscando de nuevas fórmulas para involucrar a más personas en la producción de contenidos, se pensó que los usuarios de crearan los contenidos que luego los editores y expertos revisarían. Mientras tanto, nació el proyecto Wikipedia, y en tan sólo su primer mes de existencia llegó a los 1000 artículos — Cierto, algunos de no muy buena calidad, pero todos constituyeron una semilla a partir de la cual cualquiera podía participar para mejorarla. Y el resultado es lo que hoy ya conocemos: Una enciclopedia verdaderamente universal, con más de 3 millones de artículos, y con más de 30 lenguajes cuya versión local supera los 100,000.
La iniciativa Creative Commons es otra digna de nota: Toda creación intelectual o artística recibe protección automática de derechos de autor. Muchos queremos que nuestras creaciones sean libremente redistribuibles, pero puede desmotivarnos el obstáculo del lenguaje legal que implica elegir una licencia adecuada. En 2001, el abogado estadounidence Larry Lessig creó a Creative Commons. Esta organización ofrece un marco legal para que gente no experta en estos temas pueda elegir los términos de licenciamiento que juzgue más adecuados para su creación, sin tener que ahondar de más en las áridas estepas legales, y se mantiene asesorada y liderada por un grupo de abogados, cuya principal labor es traducir y adecuar sus licencias base para cada una de las jurisdicciones en que sean aplicables.
Han nacido también una gran cantidad de servicios en línea que buscan ser centro de contacto para que creadores independientes puedan distribuir su material sin depender de casas editoriales. Jamendo es una comunidad en línea dedicada a promover a artistas que publiquen música bajo licencias Creative Commons. Cualquiera puede entrar y bajar una gran cantidad de música de muy buena calidad, hacer donativos directos a los grupos de intérpretes y promover nuevo material.
Y no sólo las formas de compartir y colaborar que a lo largo de 30 años han dominado al desarrollo de Software Libre están permeando a las diversas áreas creativas de la humanidad: El conjunto de valores que impulsaron a Stallman a iniciar el movimiento resultan compartidos por estos creadores, y su ideología de a pocos va convirtiéndose en parte del fundamento cultural de la sociedad.

¿Y en qué radica el cambio?

No quiero cerrar este texto sin puntualizar algunos factores principales que determinan el sentido que está tomando esta revolución:
A diferencia de lo que ocurría hace pocos años (con las fotocopias o con los cassettes), los contenidos pueden reproducirse de manera fiel, sin pérdida alguna de calidad, y con costo casi-cero — Los contenidos se han liberado de sus soportes.
Además, distancia entre el creador y el consumidor se reduce fuertemente. Cualquiera puede hoy en día publicitar su material a través de su propia página Web (o de servicios de terceros), facilitándose la distribución de material y la retribución directa a los titulares.
El marco jurídico que norma a los diversos aspectos de la propiedad intangible tiene casi tres siglos, y requiere –por puntos como los aquí expuestos, y por muchos más que no sería a abordar en un texto como éste– de grandes adecuaciones y replanteamientos. Y sin lugar a dudas, el tema aquí abordado representa un cambio social imparable.
El avance de la humanidad ha sido históricamente determinado por la facilidad de comunicación — Estamos en un punto de quiebre, en un momento que determina un cambio fenomenal en nuestro desarrollo. Y éste movimiento, que nació en una esfera aparentemente muy aislada del resto de la sociedad, se ha configurado en una avalancha imparable que modificará muchos de los supuestos básicos alrededor de los cuales se estructura el sistema.

Referencias

Free Software Foundation
http://www.fsf.org/
Proyecto GNU
http://www.gnu.org/
GNU Manifesto
http://www.gnu.org/gnu/manifesto.html
Definición de licencias de cultura libre
http://freedomdefined.org/Definition/Es
Creative Commons
http://creativecommons.org/
Jamendo
http://www.jamendo.com/
AttachmentSize
Primera página del artículo tal como aparece publicado en la revista938.32 KB
Segunda página del artículo tal como aparece publicado en la revista944.04 KB

Monitoreo de PostgreSQL con Munin

TitleMonitoreo de PostgreSQL con Munin
Publication TypeJournal Article
Year of Publication2011
AuthorsWolf G
Refereed DesignationRefereed
Journal TitleRevista Cubana de Ciencias Informáticas
Volume5
Issue1
Pages1-8
Start Page1
Journal Date09/2011
ISSN1994-1536
Keywordsanálisis de tendencias, desarrollo, monitoreo, Munin
Abstract

Una de los principales tareas del trabajo diario de un administrador de sistemas, redes o bases de datos es el monitoreo de recursos. Con herramientas adecuadas de monitoreo, el administrador puede no sólo detectar un problema antes de que cause interrupciones en la operación de los sistemas, sino que puede prevenir que ocurran, conociendo la evolución histórica de los valores relevantes. En el presente trabajo presento el marco de recopilación y graficación de datos Munin, enfocándome a su uso para monitorear el gestor de base de datos relacional PostgreSQL, así como en la flexiblilidad y facilidad con que administradores y programadores pueden adecuarlo para desarrollar plugins específicos para el monitoreo de sus necesidades puntuales.

URLhttp://rcci.uci.cu/index.php/rcci/article/view/91/85
AttachmentSize
PDF file published in the journal391.24 KB

Producir y reproducir el conocimiento

TitleProducir y reproducir el conocimiento
Publication TypeMagazine Article
Year of Publication2011
AuthorsWolf G
Refereed DesignationNon-Refereed
MagazineHorizontes: Los nuevos saberes
Date Published09/2011
Full Text

Las culturas del denominado mundo occidental han transitado por grandes etapas claramente diferenciadas — Si bien no hay un criterio único, en líneas generales podríamos hablar de cinco: Prehistoria, antigüedad, edad media, edad moderna y era contemporánea. Uno de los principales factores de quiebre que marca el salto de una a otra es la forma que tiene la humanidad de difundir el conocimiento — Historia, cultura, nuevas ideas. Y hoy estamos sin duda alguna a las puertas de un nuevo cambio, que con toda seguridad replanteará el mismo funcionamiento de la sociedad.
La antigüedad, primer etapa de la civilización inicia con la invención de la escritura — Ya no es indispensable que el sabio en turno reúna todos los conocimientos de su cultura; al dejarlos por escrito, puede aumentarse el total de conocimiento sin que sea a la vez propiedad y responsabilidad de una persona o un reducido grupo. Además, la muerte del viejo sabio no significa volver al punto de partida.
La edad media inició con la caída del imperio romano: Al colapsar la red de caminos, al surgir bandas de ladrones que imposibilitaban el tránsito, y al no haber ya un idioma oficial para todas las comunicaciones del mundo conocido, el desarrollo del conocimiento sufrió un fuerte freno.
No podemos concebir que inicie la era moderna sin la invención de la imprenta: Durante siglos, el conocimiento fue patrimonio de muy pocos, principalmente de ecleciásticos, en una institución altamente conservadora. Al volverse posible la reproducción masiva de los documentos (en contraposición a esperar meses o años a que un copista reproduzca un único ejemplar), la explosión en el saber y en el contacto entre culturas sencillamente destruyó el órden establecido, y sólo a través de éste cambio llegamos a una sociedad que comienza a ser comparable con la actual.
Pero tardó aún varios siglos la formación de una masa crítica de gente capaz de leer y escribir. En un principio, los libros circulaban sólo entre científicos y religiosos. Poco a poco, más gente obtuvo acceso al conocimiento — y no es casual que en todo el mundo occidental inicie con pocos años de diferencia la era de las revoluciones, y con ella la era contemporánea: El tener acceso a debates, a ideas, el plantearse siquiera la existencia de derechos fundamentales, dieron inicio a la revolución francesa, la independencia de los Estados Unidos, seguidas por las de Latinoamérica, y continuaron con la mezcla de debates y guerras en que se convirtieron los siguientes dos siglos. Más enfocado a la temática que busco abordar: En 1710 apareció el Estatuto de la Reina Ana, el antecedente directo de las actuales leyes de derechos de autor, estableciendo un periodo de 14 a 28 años durante el cual tendría efecto un monopolio legal del autor sobre las reproducciones que pudieran hacerse de su obra, pasado el cual ésta pasaría a convertirse en dominio público.
Me atrevo a apuntar que un cambio tan grande como el que supuso la imprenta lo supuso también el mimeógrafo, inventado en los 1880: Montar un taller tradicional de imprenta, de tipos de plomo fundido, si bien es más fácil que copiar libros a mano y uno a uno, sigue requiriendo una gran inversión económica y de tiempo para cada obra. Un mimeógrafo es muy económico y portátil, y un original puede prepararse en minutos. Los mimeógrafos fueron un agente fundamental para las revoluciones ideológicas de inicios y mediados del siglo XX. En México, la época de la revolución vio el nacimiento de una gran cantidad de publicaciones, mini-periódicos, que reproducían caricaturas y corridos –la forma más fácil de llevar las noticias y la ideología a un abundante público– precisamente gracias al bajo costo y facilidad de operación de los mimeógrafos.
Claro está, estoy seguro de que al leer ustedes los elogios que hago al mimeógrafo, les resultará obvio hacia dónde es que quiero dirigirme: El punto de quiebre que estamos cruzando hoy está representado por el acceso prácticamente universal a Internet. Y este cambio se presenta por varios factores: Como nunca antes en la historia, hoy podemos reproducir y diseminar el conocimiento: 1) sin que importen límites o distancias geográficas; 2) con un costo de reproducción casi cero; 3) es posible publicar de inmediato, sin necesidad de un proceso editorial; 4) todo mundo puede publicar sus obras sin la intervención de intermediarios, sin controles impuestos, sin censura, y sin responder a criterios de mercado.
Estos cuatro puntos sacuden –nuevamente– los cimientos de grupos políticos y económicos muy poderosos en nuestra sociedad. Al cambiar la realidad, debe cambiar la normatividad. Específicamente, hoy nos encontramos con que las leyes de derecho de autor no se ajustan ya a la realidad actual — Si bien los legisladores han intentado actualizar las leyes que reglamentan a la propiedad intangible, los supuestos de la producción y la reproducción del conocimiento han cambiado de forma fundamental. En las últimas tres décadas han ido apareciendo grupos –desde los diferentes ámbitos de la creación cultural– que cuestionan la pertinencia de leyes ya obsoletas, definitivamente no adecuadas a la realidad actual.
La industria editorial es de gran importancia económica, pero se enfrenta a una irremediable obsolescencia. A lo largo de los últimos 80 años, el término de protección de derechos de autor se ha sextuplicado, protegiendo los primeros ejemplos de propiedad intangible masivos de la historia (los primeros personajes animados de Walt Disney — ¡Resulta triste descubrir que Mickey Mouse dirija las políticas públicas en materia de creación cultural!). Al mismo tiempo, sin embargo, han nacido grupos de creadores que defienden la libertad del conocimiento y de las artes — Organizaciones de todo tipo, como Free Software Foundation, Creative Commons, Wikipedia o Public Library of Science nos muestran una gran diversidad de conocimiento, de la más alta calidad, creado y distribuído sin pasar a través de los filtros de la industria editorial.
El momento histórico en el que nos ubicamos nos presenta grandes retos, grandes oportunidades, a la mayor escala posible. Está en juego el que podamos aprovechar la tecnología para crear una verdadera nueva etapa en el desarrollo de la humanidad toda. No podemos permitirnos desaprovecharlo.

AttachmentSize
Printed edition: first page (photo)874.28 KB
Printed edition: second page (photo)963.58 KB

Repensando las certificaciones

TitleRepensando las certificaciones
Publication TypeMagazine Article
Year of Publication2011
AuthorsWolf G
Refereed DesignationNon-Refereed
MagazineSoftware Gurú
Issue Number34
Pagination50-51
Date Published11/2011
Type of ArticleColumn
ISSN1870-0888
URLhttp://www.sg.com.mx/content/view/1242
Full Text

Diversas personas me han preguntado qué certificaciones deberían buscar para afianzar su carrera o posición, o por otro lado, cuál conviene a una empresa buscar en un prospecto de contratación. Me llama la atención principalmente el que asuman la respuesta a un cuestionamiento previo y condicionante a éste: ¿Vale la pena buscar certificaciones? Esta pregunta me puso a pensar en lo relativo a quién las pide (tanto desde el punto de vista del individuo que las persigue como del contratante que las valúa); dado el público alcanzado por esta revista, creo que puede ser de interés enfocar la columna hacia este tema.

¿Qué es una certificación?

Para el presente análisis me centro en las certificaciones como un documento emitido por una entidad comercial no dedicada principalmente a la educación superior, validando que el sustentante posee el dominio de un conjunto específico de herramientas o tecnologías (típicamente, aunque no necesariamente, limitadas a las generadas por la organización certificadora).
Las certificaciones difieren de otros métodos de cualificación en que normalmente son otorgadas ante la presentación y aprobación de un examen; típicamente no requieren que el sustentante siga un curso.
Además de lo anterior, las certificaciones típicamente tienen –a diferencia de prácticamente cualquier programa académico– una validez determinada, ya sea por un tiempo preestablecido, o por estar atadas a tecnologías específicas, con un ciclo de vida y obsolescencia planificado.
Y un punto adicional: Las certificaciones, si bien se presentan a sus clientes potenciales como una oportunidad de obtener mejores cualificaciones para aumentar sus evaluaciones (redundando directamente en beneficios económicos), en ningún momento buscan ocultar que son para sus promotores un negocio antes que ninguna otra cosa. Lo cual, claro, no es ningún pecado — Pero sí es un punto a considerar al evaluarlas.
Consideremos dos perfiles en particular — Los dos antiperfiles donde, a mi forma de ver, las certificaciones juegan en contra de la mayor parte tanto de individuos como de empresas.

Antiperfil 1: El recién egresado

El argumento para buscar certificaciones es simple: Si cuando un postulante es evaluado para un puesto laboral, el entrevistador de primer contacto no tiene un perfil técnico, sino que busca descartar a quien no cumpla con las características básicas que busca la empresa, en realidad la primer entrevista "real" se presenta una vez pasado ese filtro. El Can Cerbero corporativo no permitirá el paso del postulante si no cuenta con el altero completo de papeles.
Este punto de vista apunta a un postulante novato, probablemente recién egresado de la universidad, sin experiencia laboral en el mundo real, que no ha tejido aún redes profesionales y no encuentra una mejor vía de acceso. Este punto crece especialmente cuando estos nuevos integrantes de la fuerza laboral buscan emplearse en una de las relativamente pocas grandes empresas consultoras de desarrollo que hay en nuestro país.
Las certificaciones que están al alcance de un recién egresado, sin experiencia en el campo, son relativamente pocas — Y el peso económico de perseguirlas resulta relativamente elevado. Muchas universidades han incorporado a los servicios que ofrecen a los alumnos el prepararlos para alguna certificación básica y reducir el precio a pagar por ella. Esto, a mi modo de ver, equivale a que dicha universidad se reconozca incapaz de ofrecer una formación suficiente para que sus egresados encuentren un puesto de trabajo adecuado, y –al impulsar una tecnología específica– demerita la universalidad de la formación que dio nombre a las universidades desde un principio.

Antiperfil 2: El experto en certificaciones

Un perfil que nace como consecuencia lógica del anterior es el del experto en certificaciones. Si por cada examen que presento crece mi elegibilidad laboral, ¿por qué no acumularlos? Aprender el material necesario para presentar un examen es, a fin de cuentas, una habilidad que puede ser aprendida y dominada. Si bien muchas certificaciones incluyen la resolución de problemas prácticos, siguen presentándose en un entorno donde, hasta cierto punto, las situaciones presentadas son muy distintas a las de la vida real.
Por otro lado, una persona altamente calificada no necesariamente sabrá presentar un examen, cosa que a ninguno de ustedes debe sorprender — Los ejemplos abundan; traigo ante ustedes a uno en particular, aunque sea sólo como evidencia anecdótica: He tenido oportunidad de trabajar con algunas personas veraderamente talentosas, referencia en el campo de la seguridad y administración de sistemas, que frecuentemente asesoran a los técnicos de empresas transnacionales. Uno de ellos intentó certificarse en uno de los temas en que es pionero en nuestro país, y no logró aprobarlo.
¿Significa esto acaso que su conocimiento de la tecnología, las herramientas y los procesos es menor que el de quien sí aprobó el curso? Definitivamente, no. Sólamente significa que los procesos mentales que ésta persona sigue no se alínean con los que la empresa certificadora sugiere. Y es precisamente esto lo que le ha permitido convertirse en su asesor: El seguir procesos creativos, no buscar dentro de lo predecible, y tener un verdadero conocimiento profundo del sistema como un todo.

Alternativas

Y pasando de la crítica a la propuesta, ¿qué puedo aportar tras mi crítica a este modelo?
Para un recién egresado, enfrentarse al mounstro corporativo sin experiencia real previa, cierto, no da espacio a la negociación. Mientras las empresas sigan imponiendo estos filtros previos a la entrevista real, ¿qué puede hacer quien inicia su carrera profesional?
Ser recién egresado no significa no tener experiencia real. Entrar a estudiar una carrera relacionada con la computación debería indicar una genuina afición al pensamiento analítico. En nuestro campo, tenemos la gran fortuna de que un aficionado puede –sin estudios, sin equipo profesional, sin cualificaciones formales– desarrollar proyectos en casi cualquier ámbito del campo. En el cómputo, todos ustedes podrán citar numerosos ejemplos que han contribuído al campo de forma decisiva, sin formación profesional.
Claro, sería iluso pensar que todos coordináramos proyectos de gran envergadura siendo aún adolescentes o que impulsar una idea exitosa nos lleve a abandonar los estudios profesionales y saltar a la fama como estrellas de la programación. Sí podemos, sin embargo, ir haciendo públicos los pequeños proyectitos que hacemos, los retos interesantes que vamos resolviendo, los programas que escribimos por gusto. Publicar código, especialmente como software libre, es una muy buena manera de demostrar capacidad profesional, compromiso, capacidad de documentar y de brindar soporte a los usuarios. Es más, si nuestro proyecto juguete fue adoptado por una distribución de Linux, esto resulta clara muestra de que otros expertos juzgan nuestro trabajo digno de ser promovido.
Respecto al segundo antiperfil, el caso presentado ilustra que las competencias laborales de un profesional con trayectoria no pueden ser juzgadas de manera meramente cuantitativa — Los diversos campos relacionados con el cómputo requieren de una gran creatividad, y no pueden ser juzgados como una materia de la escuela, en que el desarrollo del resultado debe ser idéntico al que nos fue impartido en clase.
Quien busca contratar a un profesional con trayectoria no puede limitarse a evaluar en base a los certificados presentados. En mi experiencia, las veces que mi recomendación ha sido requerida para un proceso de selección de personal, coloco en último lugar todos los currículos que presentan certificaciones de forma destacada. Nunca me he arrepentido de hacerlo — Estos tienden a ser los que menos conocimiento real tienen del campo.
El que una entrevista laboral para un puesto que requiere conocimientos especializados –sean de un estudiante recién graduado o de un experto– tenga que pasar por un filtro no conocedor de la materia es síntoma de un problema estructural: La tercerización a los corporativos de desarrollo de software ha crecido en detrimento de la capacidad de las entidades que las contratan. No con esto digo que deban desaparecer — Si bien debe ampliarse la capacidad de respuesta de los departamentos de sistemas de quienes típicamente contratan a estas empresas (entiéndase: Ampliarse su tamaño, sus áreas de especialización, y la seguridad laboral brindada a sus integrantes), muchos de los proyectos podrían perfectamente ser encargados ya sea a empresas de escala más humana (PyMEs), o contratar a grandes empresas verdaderamente especializadas en un ramo específico. Esto, claro, reduciría el tamaño de las consultoras — Pero aumentaría su calidad, y aumentaría las oportunidades laborales con una justa comparación basada en méritos reales, más cerca de quien verdaeramente requiera del servicio.
Por otro lado, no todos los proyectos en que participamos –por hobby o por encargo– puede ser publicado. Sin embargo, permítanme insistir en que la mejor carta de presentación es el trabajo realizado. En otras áreas laborales es común –incluso en algunos países, obligatoria– la pertenencia a colegios de profesionales — Cuerpos que establecen las normas mínimas de operación, calidad y cobro en el campo, y guardan registro de la actividad de sus agremiados. De tal suerte, en vez de requerir un certificado emitido por una empresamente claramente parcial y con innegables intereses económicos en el área, habría una entidad a la cual preguntar acerca de la experiencia comprobable de un postulante.
Los colegios citados nacieron dada la necesidad de una entidad que validara –y asumiera responsabilidad ante dicha validación– de profesiones en las que puede haber amplia responsabiliad civil, como la medicina o la arquitectura. La importancia que van adquiriendo los desarrollos hoy en día nos lleva a plantear si no es momento de una reglamentación similar en nuestra área.
Hay, sí, lugar para las certificaciones. Hay trabajos en que hace falta contratar a alguien que domine una tecnología específica, aún sin ser un –probablemente sobrecalificado– experto en el ramo entero. La distorsión, a mi opinión, está más en la escala que han adquirido. No pueden ser requeridas como carta de presentación, no puede dárselas un peso comparable al de un estudio prolongado y general (como un título universitario) o al de las capacidades demostradas con trabajo.

AttachmentSize
Versión facsimilar de la publicada111.92 KB