*

Bitcoin (24h)
.54% Ars
71671.63
Bitcoin (24h)
.54% USA
4159.82
Bitcoin (24h)
.54% Eur
$3523.25

Dónde está el límite de la privacidad online

Las compañías web y las agencias gubernamentales analizan cada vez más información sobre nuestras vidas. Avanzan los pedidos por leyes que regulen la privacidad. Para muchos, la democracia está en riesgo.

Por Evgeny Morozov - 27 de Mayo 2014
Dónde está el límite de la privacidad online



 

En 1967, The Public Interest, en ese entonces un lugar de liderazgo para el debate político intelectual, publicó un provocativo ensayo de Paul Baran, uno de los padres del método de transmisión de datos conocido como conmutación de paquetes. Titulado “El futuro de la computadora pública”, el ensayo especulaba con que algún día computadoras grandes y centralizadas proveerían “procesamiento de información… de la misma manera que uno hoy compra electricidad”.

“La consola de computación hogareña será usada para enviar y recibir mensajes, como telegramas. Podremos chequear que la tienda departamental de la zona tenga en stock la remera deportiva publicitada en el color y talle deseados. Se podrá preguntar si la entrega está garantizada, una vez pedido. La información estará al instante y será precisa. Se podrán pagar las facturas y declarar los impuestos vía la consola. Se le podrán hacer preguntas y recibir respuestas desde “bancos de información”, versiones automatizadas de las bibliotecas. Se podrán obtener listados actualizados de todos los programas de radio y televisión… La computadora podría, por sí misma, enviarle un mensaje al usuario recordándole un próximo aniversario y evitar las desastrosas consecuencias del olvido.”

Poster Privacidad Web MitLe tomó décadas a la computación en la nube poder cumplir con la visión de Baran. Pero él fue lo suficientemente profético como para preocuparse de que la computación necesitaría su propio modelo regulatorio. Aquí estaba un empleado de RAND Corporation —lejos de ser un reducto del pensamiento marxista— preocupándose sobre la concentración del poder de mercado en las manos de grandes computadoras públicas y demandando la intervención del estado. Baran también quería políticas que pudieran “ofrecer la máxima protección para preservar los derechos de la privacidad de la información”:

“La información personal altamente sensible e importante sobre negocios estará almacenada en muchos de los sistemas contemplados… Hoy, nada más que la confianza o, en el mejor de los casos, la falta de sofisticación tecnológica, se enfrenta a cualquier intento de espiar… Hoy carecemos de los mecanismos para garantizar la seguridad necesaria. Por la dificultad de reconstruir sistemas complejos para incorporar estos salvavidas después, es deseable anticiparse a estos problemas.”

Un análisis agudo y libre de tonterías: el tecno-futurismo está en declive desde entonces.

Todas las soluciones de privacidad que uno escucha están en el mal camino.
Leer el ensayo de Baran (sólo uno de los tantos sobre este tema publicado entonces) es darse cuenta de que nuestro problema contemporáneo de privacidad no es contemporáneo. No es sólo una consecuencia de Mark Zuckerberg vendiéndole nuestra alma y nuestros perfiles a la NSA. El problema fue reconocido antes, pero se hizo poco.

Casi todos los usos imaginados por Baran para la “computación pública” son puramente comerciales. Ordenar remeras, pagar facturas, buscar entretenimiento, conquistar los descuidos de memoria: ésta no es la Internet de “comunidades virtuales” y “ciudadanos de la red”. Baran simplemente imaginó que la computación en red nos permitiría hacer las cosas que ya hacemos sin esa computación en red: compras, entretenimiento, investigación. Pero también: espionaje, vigilancia y voyeurismo.

Si la “revolución de la computadora” de Baran no suena muy revolucionaria, es en parte porque no imaginó que cambiaría drásticamente los cimientos del capitalismo y la administración burocrática que se mantuvo durante siglos. Para los ’90, sin embargo, muchos entusiastas digitales creían lo contrario; estaban convencidos de que el alcance de las redes digitales y el rápido declive en los costos de comunicación representaban una nueva etapa genuina en el desarrollo humano.

Para ellos, la vigilancia disparada en el año 2000 por el 9/11 y la colonización de estos espacios digitales prístinos por parte de Google, Facebook y big data eran aberraciones que podían ser resistidas o por lo menos revertidas. ¡Si tan sólo se pudiera borrar la década que perdimos y volver a la utopía de los ’80 y ’90 para aprobar leyes más estrictas, dándonos a los usuarios más control y para construir mejores herramientas de encriptación!

Una diferente lectura de la historia reciente traería una agenda diferente para el futuro. El sentimiento generalizado de la emancipación a través de la información que mucha gente todavía le atribuye a los ’90 fue probablemente una alucinación prolongada. Tanto el capitalismo como la administración burocrática se acomodaron fácilmente al nuevo régimen digital; ambos progresan en los flujos de información, cuanto más automatizados, mejor. Las leyes, mercados o tecnologías no obstaculizarán o redireccionarán esa demanda de datos, ya que los tres juegan un rol en sostener al capitalismo y la administración burocrática. Se necesita algo más: política.

Incluso los programas que parecen inocuos pueden socavar la democracia.
Primero, hay que abordar los síntomas de nuestro malestar actual. Sí, los intereses comerciales de las compañías tecnológicas y los intereses políticos de las agencias gubernamentales convergieron: ambos están interesados en la recolección y el análisis rápido de los datos de los usuarios. Google y Facebook están obligados a recolectar incluso más datos para impulsar la efectividad de las publicidades que venden. Las agencias gubernamentales necesitan los mismos datos —pueden obtenerlos por su cuenta o en cooperación con las firmas tecnológicas— para perseguir sus propios programas.

centrodedatosgoogle

Imponente. Así se ve uno de los centros de procesamiento de datos de Google. Foto: Archivo Apertura.

Muchos de estos programas lidian con la seguridad nacional. Pero ese tipo de datos se puede usar de muchas otras maneras que también socavan la privacidad. El gobierno italiano, por ejemplo, está usando una herramienta llamada redditometro, o medidor de ingreso, que analiza las facturas y los patrones de gasto para detectar a las personas que gastan más de lo que aseguran ganar como potenciales evasores impositivos. Una vez que los pagos móviles reemplacen un gran porcentaje de las transacciones en efectivo —con Google y Facebook como intermediarios—, los datos recolectados por estas compañías serán indispensables para los recaudadores impositivos. De igual forma, los académicos legales están ocupados en explorar cómo se puede usar data mining para diseñar contratos o testamentos a medida de las personalidades, características y comportamientos pasados de ciudadanos individuales, impulsando la eficiencia y reduciendo la mala praxis.

En otro frente, los tecnócratas como Cass Sunstein, el ex administrador de la Oficina de Información y Asuntos Regulatorios en la Casa Blanca y uno de los defensores líderes del “gobierno niñera” que alienta a los ciudadanos a hacer ciertas cosas, espera que la recolección y el análisis inmediato de los datos sobre los individuos puedan ayudar a resolver problemas, como la obesidad, el cambio climático y el manejar alcoholizados, al dirigir nuestro comportamiento. Un nuevo libro de tres académicos británicos —“Cambiando comportamientos: sobre el crecimiento del estado psicológico”— incluye una larga lista de ese tipo de esquemas en el Reino Unido, donde la unidad de impulso del gobierno, inspirada por Sunstein, ha sido tan exitosa que se está por convertir en una operación con fines de lucro.

Gracias a los smartphones o Google Glass, ahora se nos puede llamar la atención cuando estamos por hacer algo estúpido, insalubre o demente. No necesariamente tendríamos que saber por qué la acción está mal: los algoritmos del sistema hacen el cálculo moral por su cuenta. Los ciudadanos toman el rol de máquinas de información que alimentan el complejo tecno-burocrático con nuestros datos. ¿Y cómo no lo haríamos, si nos prometieran a cambio cinturas más delgadas, aire más limpio o vidas más largas (y seguras)?

Esta lógica de prioridad no es diferente de aquella de la NSA en su pelea contra el terrorismo: mejor prevenir los problemas que lidiar con sus consecuencias. Aunque atemos las manos de la NSA —con alguna combinación de mejor supervisión, reglas de acceso a los datos más estrictas o tecnologías de encriptación más fuertes y amigables— el hambre de datos de otras instituciones estatales continuará. Lo justificarán. En temas como la obesidad y el cambio climático —donde los legisladores son rápidos en agregar que estamos enfrentando a un escenario de bomba de tiempo— dirán que un poco de déficit de democracia podría ayudar mucho.

Así es como se vería el déficit: la nueva infraestructura digital, floreciendo como lo hace con los datos aportados por los ciudadanos en tiempo real, les permite a los tecnócratas tomar la política, con todo su ruido, fricción y descontento, fuera del proceso político. Reemplaza la desordenada construcción de coaliciones, las negociaciones y la deliberación, con la claridad y eficiencia de la administración alimentada por datos.

Ilustracion privacidad Mit

Alternativas. Leyes que regulen la privacidad o mecanismos para que las empresas paguen por los datos de los usuarios son algunas de las soluciones ideadas para trabajar sobre esta problemática.

Este fenómeno tiene un nombre amigable con un meme: “regulación algorítmica”, como la llama Tim O’Reilly, editor de Silicon Valley. En esencia, las democracias ricas en información llegaron a un punto en el quieren tratar de resolver problemas públicos sin tener que explicarse o justificarse ante los ciudadanos. En cambio, simplemente pueden apelar a nuestro propio interés —y saben lo suficiente sobre nosotros como para crear un empujón perfecto, altamente personalizado e irresistible—.

La privacidad es un medio para la democracia, no un fin en sí mismo.
Otra alerta del pasado. El año era 1985 y Spiros Simitis, erudito y profesional líder en privacidad en Alemania —en ese momento presidente de protección de datos del estado alemán de Hesse—, se dirigía a la Escuela de Leyes de la Universidad de Pennsylvania. Su charla exploró el mismo tema que preocupaba a Baran: la automatización del procesamiento de datos. Pero Simitis no perdió de vista la historia del capitalismo y la democracia, así que vio los cambios tecnológicos bajo una luz mucho más ambigua.

También reconoció que la privacidad no es un fin en sí mismo. Es un medio para lograr un cierto ideal de políticas democráticas, donde se confía que los ciudadanos son más que sólo proveedores contentos de información para los tecnócratas que todo lo ven y todo lo optimizan. “Donde se desmantela la privacidad —alertó Simitis—, tanto la posibilidad de la evaluación personal del proceso político y la oportunidad de desarrollar y mantener un estilo particular de vida, se desvanecen.”

Tres tendencias tecnológicas socavaron el análisis de Simitis. Primero, apuntó, incluso entonces, cada esfera de la interacción social estaba mediada por la tecnología de la información —él alertó acerca de la “recuperación intensiva de los datos personales de virtualmente cada empleado, contribuyente, paciente, cliente bancario, receptor de cuidado de la salud o conductor”—. Como resultado, la privacidad ya no era sólo un problema de algún tipo sin suerte agarrado por sorpresa en una situación incómoda; se volvió un problema de todos. Segundo, las nuevas tecnologías, como los autos inteligentes y los textos con video, no sólo hacían posible “grabar y reconstruir actividades individuales al minuto”, sino que también normalizaban la vigilancia, volcándola en la vida diaria. Tercero, la información personal grabada por estas nuevas tecnologías permitiría que las instituciones sociales reforzaran estándares de comportamiento, disparando “estrategias de largo plazo de manipulación destinadas a moldear y ajustar conductas individuales”.

Las instituciones modernas ciertamente pensaban ganar algo. Las aseguradoras podrían armar programas a medida para ahorrar costos a las necesidades y demandas de pacientes, hospitales y la industria farmacéutica. La policía podría usar las nuevas bases de datos disponibles y varios “perfiles de movilidad” para identificar potenciales criminales y localizar sospechosos. Las agencias de beneficios sociales podrían de repente exhumar el comportamiento fraudulento.

¿Pero cómo nos afectarían estas tecnologías como ciudadanos, como sujetos que participan en el entendimiento y reforma del mundo alrededor nuestro, no sólo como consumidores o clientes que simplemente se benefician de eso?

computadoras

Información. Los intereses de las empresas y los gobiernos convergieron en la recolección y el análisis rápido de los datos de los usuarios.

En caso tras caso —Simitis argumentó— estábamos para perder. En lugar de tener más contexto para las decisiones, tendríamos menos; en lugar de ver el manejo lógico de nuestros sistemas burocráticos y hacer esa lógica más acertada y menos kafkiana, nos confundiríamos más porque el proceso de toma de decisiones se automatiza y nadie sabe con exactitud cómo funcionan los algoritmos. Podríamos percibir una fotografía más turbia de qué hace funcionar a nuestras instituciones sociales; a pesar de la promesa de una mayor personalización y poder, los sistemas interactivos darían sólo una ilusión de más participación. Como resultado, “los sistemas interactivos sugieren actividad individual donde de hecho no se dan más que reacciones estereotipadas”.

Si cree que Simitis estaba describiendo un futuro que nunca podría darse, considere un reciente trabajo sobre la transparencia de los sistemas de predicción automática de Tal Zarsky, uno de los expertos líderes en el mundo sobre políticas y éticas de data mining. Él dice que “data mining podría apuntar a individuos y eventos, indicando un riesgo elevado, sin decirnos por qué fueron elegidos”. El grado de interpretación es una de las decisiones políticas con mayores consecuencias cuando se diseñan sistemas de data mining. Zarsky ve vastas implicaciones para la democracia aquí:

”Un proceso no-interpretable podría derivar de un análisis de data-mining que no se explica en lenguaje humano. Aquí, el software toma las decisiones de selección a partir de múltiples variables (incluso miles)... Sería difícil para el gobierno proveer una respuesta detallada cuando se le pregunta por qué un individuo fue separado para recibir un tratamiento diferenciado por un sistema de recomendación automático. Lo máximo que podría decir el gobierno es que es lo que descubrió el algoritmo a partir de casos previos”.

Este es el futuro al que entramos caminando dormidos. Todo parece funcionar y las cosas podrían incluso verse mejor, sólo que no sabemos exactamente por qué o cómo.

Demasiada poca privacidad puede poner en peligro a la democracia. Pero lo mismo puede hacer demasiada privacidad.
Simitis vio bien las tendencias. Libre de las suposiciones ambiguas sobre “la era de Internet”, llegó a una original pero cautelosa defensa de la privacidad como característica vital de la democracia autocrítica; no la democracia de una teoría política abstracta sino la democracia desordenada y ruidosa que habitamos, con sus contradicciones sinfín. En particular, el conocimiento más crucial de Simitis es que la privacidad puede tanto apoyar como socavar la democracia.

Tradicionalmente, nuestra respuesta a los cambios en el procesamiento de la información automática los ve como un problema personal para los individuos afectados. Un ejemplo es el influyente artículo “El derecho a la privacidad”, de Louis Brandeis y Samuel Warren. Al escribir para Harvard Law Review en 1890, buscaron un “derecho para ser dejados solos”—para vivir una vida sin disturbios, lejos de los intrusos—. Según Simitis, expresaron un deseo, común para muchos individuos artífices de su éxito en ese momento, “para disfrutar, estrictamente para ellos y bajo condiciones que ellos determinasen, los frutos de su economía y actividad social”.

Una meta loable: sin extender ese tipo de cobertura legal a los emprendedores, el capitalismo moderno estadounidense quizá nunca se hubiera vuelto tan robusto. Pero este derecho, desconectado de cualquier responsabilidad conjunta, también podría sancionar un excesivo nivel de retiro que nos escude del mundo externo y socave los fundamentos del mismo régimen democrático que hizo posible ese derecho. Si todos los ciudadanos estuvieran en el ejercicio pleno de su derecho a la privacidad, la sociedad se vería privada de los datos transparentes y disponibles que son necesarios no sólo para los tecnócratas, sino —incluso más— para que los ciudadanos puedan evaluar temas, formar opiniones y debatir (y, ocasionalmente, dispararle a los tecnócratas).

Este no es un problema específico del derecho a la privacidad. Para algunos pensadores contemporáneos, como el historiador y filósofo francés Marcel Gauchet, las democracias tienen el riesgo de ser víctimas de su propio éxito: al haber instituido un régimen legal de derechos que les permiten a los ciudadanos seguir sus propios intereses privados sin ninguna referencia a lo que es bueno para el público, pueden agotar los mismos recursos que permitió que florecieran.

Cuando todos los ciudadanos demandan sus derechos pero no saben sus responsabilidades, las preguntas políticas que definieron la vida democrática durante siglos —¿Cómo deberíamos vivir juntos? ¿Qué hay en el interés público y cómo balanceo mi propio interés con él?— están incluidas en los dominios legales, económicos o administrativos. “La política” y “el público” ya no se registran como dominios; leyes, mercados y tecnologías desvían el debate y las respuestas como soluciones preferidas y menos ambiguas.

Pero una democracia sin ciudadanos comprometidos no suena mucho como una democracia (y quizá no pueda sobrevivir como tal). Esto era obvio para Thomas Jefferson, quien, aunque quería que cada ciudadano fuera “partícipe en los asuntos de gobierno”, también creía que la participación cívica involucra una tensión constante entre la vida pública y privada. Una sociedad que cree, como dice Simitis, que el acceso a la información de los ciudadanos “termina donde empieza el reclamo burgués por privacidad” no durará como una democracia de buen funcionamiento.

De ahí que el balance entre privacidad y transparencia necesita especialmente ajustes en épocas de rápidos cambios tecnológicos. Ese balance en sí mismo es un tema político por excelencia, para ser determinado a través del debate público y siempre abierto a la negociación. No se puede cerrar de una vez por todas por alguna combinación de teorías, mercados y tecnologías. Como dijo Simitis: “Lejos de ser considerado un elemento constitutivo de la sociedad democrática, la privacidad parece una contradicción tolerada, cuyas implicancias deben ser continuamente reconsideradas”.

Las leyes y los mecanismos de mercado son soluciones insuficientes.
En las últimas décadas, cuando comenzamos a generar más datos, nuestras instituciones se volvieron adictas. Si uno retuviera los datos y agravara los “loops de feedback”, no está claro si podrían continuar. Nosotros, como ciudadanos, estamos atrapados en una difícil posición: nuestra razón para revelar los datos no se debe a que sentimos una preocupación profunda para el bien público. No, emitimos datos por interés propio, sobre Google, a través de aplicaciones de auto-trackeo. Somos demasiado mezquinos como para no usar servicios gratuitos subsidiados por la publicidad. Pero si queremos realizar un seguimiento de nuestro ejercicio y dieta, entonces vendemos los datos.

Simitis sabía incluso en 1985 que esto inevitablemente llevaría a la “regulación algorítmica” que toma forma hoy, mientras que la política se transforma en “administración pública” que funciona en piloto automático para que los ciudadanos puedan relajarse y disfrutar, sólo para ser empujados, ocasionalmente, cuando se están por olvidar de comprar brócoli.

”Hábitos, actividades y preferencias se compilan, registran y recuperan para facilitar un mejor ajuste, no para mejorar la capacidad de los individuos para actuar y decidir. Cualquiera sea el incentivo original que había para la computarización, el procesamiento parece cada vez más el medio ideal para adaptar a un individuo a realizar un comportamiento estandarizado, predeterminado, que apunta al mayor grado posible de cumplimiento con el paciente, consumidor, contribuyente, empleado o ciudadano modelo”.

Lo que Simitis está describiendo aquí es la construcción de lo que llamó “alambre de púas invisible” alrededor de nuestras vidas intelectuales y sociales. Big data, con sus tantas bases de datos interconectadas que se alimentan con información y algoritmos de dudoso origen, impone severas restricciones a cómo maduramos política y socialmente. El filósofo alemán Jürgen Habermas tenía razón en alertar —en 1963— que “una civilización exclusivamente técnica está amenazada por la división del ser humano en dos clases: los ingenieros sociales y los presos de las instituciones sociales cerradas”.

El alambre de púas invisible de big data limita nuestras vidas a un espacio que podría parecer tranquilo y lo suficientemente tentador, pero que no es de nuestra elección y no se puede reconstruir o expandir. La peor parte es que no lo vemos como tal. Porque creemos que estamos libres de ir a cualquier lado, el alambre de púas sigue siendo invisible. Peor, no hay a quién culpar: ciertamente no a Google, Dick Cheney o la NSA. Es el resultado de muchas lógicas y sistemas diferentes —del capitalismo moderno, el gobierno burocrático, el manejo de riesgos— que se recargan por la automatización del procesamiento de la información y la despolitización de la política.

Cuanta más información revelamos sobre nosotros mismos, más denso e invisible se vuelve el alambre de púas. Gradualmente perderemos nuestra capacidad de razonar y debatir; ya no entendemos por qué nos pasan las cosas.

Pero no todo está perdido. Podríamos aprender a percibirnos como atrapados dentro de este alambre e incluso salir de él. La privacidad es el recurso que nos permite hacer eso y, si tenemos suerte, incluso planear nuestra ruta de escape.

Aquí es donde Simitis expresó un conocimiento verdaderamente revolucionario que está perdido en los debates de privacidad contemporáneos: no se puede lograr ningún progreso, dijo, mientras la protección a la privacidad “es más o menos igual al derecho de un individuo a decidir cuánto y qué datos están accesibles”. La trampa en la que caen muchos defensores de la privacidad con buenas intenciones es pensar que si sólo pudieran proveer al individuo con un mayor control sobre sus datos —a través de leyes más fuertes o un régimen de propiedad robusto— entonces el alambre de púas invisible se volvería visible y se raería. No lo hará; no si los datos finalmente se devuelven a las mismas instituciones que están erigiendo el alambre alrededor nuestro.

Piense en la privacidad en términos éticos.
Si aceptamos a la privacidad como un problema de y para la democracia, entonces los arreglos populares son inadecuados. Por ejemplo, en su libro “¿Quién es dueño del futuro?”, Jaron Lanier propone que ignoremos un aspecto de la privacidad —el legal— y nos enfoquemos, en cambio, en el económico. “Los derechos comerciales son más aptos para la multitud de pequeñas situaciones que surgirán en la vida real que los nuevos tipos de derechos civiles del estilo de privacidad digital”, escribe. Sobre esta lógica, al transformar nuestros datos en un bien que podemos vender, logramos dos cosas. Primero, podemos controlar quién tiene acceso a ella y, segundo, podemos compensar algunas pérdidas económicas causadas por la disrupción de todo aquello similar.

La propuesta de Lanier no es original. En “Código y otras leyes del ciberespacio” (publicado por primera vez en 1999), Lawrence Lessig se entusiasmó con la construcción de un régimen de propiedad alrededor de los datos privados. Lessig quería un “mayordomo electrónico” que pudiera negociar con los sitios web: “El usuario determina sus preferencias una vez —especifica cómo negociaría la privacidad y qué está dispuesto a dar— y, desde ese momento, cuando entra a un sitio, el sitio y su máquina negocian. Sólo si las máquinas pueden lograr un acuerdo, el sitio podrá obtener sus datos personales”.

Es fácil ver adónde podría llevarnos ese razonamiento. Todos tenemos apps de smartphones personalizados que continuamente incorporan la última información sobre las personas que conocemos, los lugares que visitamos y la información que poseemos para actualizar el precio de nuestro portfolio de datos personales. Sería extremadamente dinámico: si uno camina por una lujosa joyería, la tienda podría estar dispuesta a pagar más para saber el cumpleaños de su mujer que cuando uno está sentado en casa mirando televisión.

celularsmartphone_crop_1358283472472.jpg

Recolección. Muchas de las aplicaciones que se utilizan a diario desde los smartphones almacenan información de los usuarios sin que estos lo hayan aceptado.

El régimen de la propiedad puede, de hecho, fortalecer la privacidad: si los consumidores quieren un buen retorno en su portfolio de datos, necesitan asegurar que sus datos ya no están disponibles en todos lados. Entonces, o la “alquilan” como Netflix alquila películas o la venden bajo la condición de que pueda ser usada o revendida sólo bajo condiciones altamente controladas. Algunas compañías ya ofrecen “lockers de datos” para facilitar esos intercambios seguros.

Entonces, si uno quiere defender el “derecho a la privacidad” en beneficio propio, transformar los datos en bienes intercambiables puede resolver las dudas. La NSA igualmente obtendría lo que querría; pero si uno está preocupado de que nuestra información privada se volvió demasiado líquida y de que perdimos el control sobre sus movimientos, un modelo de negocios inteligente, emparejado con un régimen fuerte de manejo de derechos digitales, podría arreglar eso.

Mientras tanto, las agencias gubernamentales comprometidas en el “arte de gobernar como una niñera” querrían también estos datos. Quizá querrían pagar un pequeño “fee” o prometer un crédito impositivo por el privilegio de codearte o empujarte después —con la ayuda de los datos del smartphone—. Los consumidores ganan, los emprendedores ganan, los tecnócratas ganan. La privacidad, de alguna manera u otra, también se preserva. Entonces, ¿quién, exactamente, pierde acá? Si uno leyó a Simitis, sabe la respuesta: la democracia.

No es sólo porque el alambre de púas invisible permanecería. También deberíamos preocuparnos sobre los efectos en la justicia y la igualdad. Por ejemplo, mi decisión de revelar información personal, incluso aunque lo haga sólo para mi aseguradora, inevitablemente tendrá implicancias para otras personas, mucho menos solventes. Las personas que dicen que realizan el seguimiento de sus ejercicios o de su ubicación es simplemente una elección positiva de la que pueden salir, tienen poco conocimiento de cómo piensan las instituciones.

Una vez que hay suficientes “early adopters” que se “auto-trackean” —y la mayoría ganan algo de eso— aquellos que se niegan ya no son vistos como individuos raros ejerciendo su autonomía. Serán considerados desviados con algo por ocultar. Y su seguro será más costoso. Si nunca perdemos de vista este hecho, nuestra decisión de auto-trackear no será tan fácil de ser reducida a un auto-interés puramente económico; en algún punto, las consideraciones morales golpearán. ¿Realmente quiero compartir mis datos para obtener un cupón que no necesito si significa que alguien que tiene tres trabajos tendrá que pagar más? Ese tipo de preocupaciones morales pasan a ser insignificantes si delegamos la toma de decisiones en los “mayordomos electrónicos”.

Pocos de nosotros tenemos cuestionamientos morales sobre los esquemas de compartir datos, pero eso podría cambiar. Antes de que el medio ambiente se volviera una preocupación global, pocos de nosotros pensábamos dos veces antes de subirnos al transporte público si pudiésemos manejar. Antes de que el consumo ético se volviera una preocupación moral, nadie hubiera pagado más por un café que tuviera el mismo gusto pero prometiera “comercio justo”.

Considere la remera barata que uno ve en la tienda. Sería perfectamente legal comprarla, pero luego de décadas de trabajo duro por parte de los grupos activistas, una etiqueta de “Hecho en Bangladesh” nos hace pensarlo dos veces. Quizá tememos que esté hecha por chicos o adultos explotados. O, luego de pensarlo, quizá queremos comprarla porque esperamos apoyar el trabajo de un chico que de otra manera se vería forzado a la prostitución. ¿Qué es lo correcto? No lo sabemos, así que investigamos. Ese tipo de escrutinio no se puede aplicar a todo lo que compramos, o nunca nos iríamos de la tienda. Pero los intercambios de información —el oxígeno de la vida democrática—deberían caer en la categoría de “Aplicar más pensamiento, no menos”. No es algo que se pueda delegar en un “mayordomo electrónico”; no, si no queremos limpiar nuestra vida de la dimensión política.

Sabotear al sistema provoca más preguntas.
Todos deberíamos estar preocupados por la sugerencia de que podemos reducir el problema de la privacidad a la dimensión legal. La pregunta que nos hacemos durante las últimas dos décadas —¿cómo podemos asegurarnos de que tenemos más control sobre nuestra información personal?— no puede ser la única. A menos que aprendamos y continuamente reaprendamos cómo el procesamiento de la información automática promueve y obstruye la vida democrática, una respuesta a esta pregunta podría no valer nada, especialmente si el régimen democrático necesita implementar cualquier respuesta a la que lleguemos mientras tanto.

Intelectualmente, por lo menos, está claro qué hay que hacer: debemos confrontar la pregunta no sólo en las dimensiones económica y legal, sino también en la política, encadenando el futuro de la privacidad al futuro de la democracia de una manera que se niegue a reducir la privacidad para los mercados o las leyes. ¿Qué implica esta filosofía en la práctica?

Primero, debemos politizar nuestro debate sobre la privacidad y el compartir información. Articular la existencia —y las profundas consecuencias políticas— del alambre de púas invisible sería un buen comienzo. Debemos escrutar la resolución del problema “dato-intensivo” y exponer su carácter ocasionalmente democrático. En momentos debemos aceptar más riesgo, imperfección, improvisación e ineficiencia en nombre de mantener el espíritu de la democracia vivo.

Segundo, debemos aprender cómo sabotear el sistema —quizá negándonos del todo al auto-trackeo—. Si negarse a grabar la ingesta de calorías o la ubicación es la única manera de que los legisladores atiendan las causas estructurales de los problemas como la obesidad y el cambio climático —y no sólo jugar con sus síntomas a través de los empujones— los boicots a la información podrían ser justificados. Negarse a ganar dinero a partir de los datos propios podría ser un acto tan político como negarse a manejar un auto o comer carne. La privacidad puede entonces resurgir como un instrumento político para mantener vivo el espíritu de la democracia: queremos espacios privados porque todavía creemos en nuestra habilidad para reflejar qué aqueja al mundo y encontrar una manera de arreglarlo, y preferimos no entregarle esta capacidad a los algoritmos.

Tercero, necesitamos servicios digitales más provocativos. No es suficiente que un sitio web nos motive a decidir quién debería ver nuestros datos. En cambio, debería volver a despertar nuestra imaginación. Bien diseñados, los sitios deberían no empujar a los ciudadanos a guardar o compartir su información privada, sino a revelar las dimensiones políticas escondidas de varias acciones de compartir la información. No queremos un mayordomo electrónico: queremos un agitador electrónico. En lugar de otra app más que nos diga cuánto dinero podemos ahorrar monitoreando nuestra rutina de ejercicio, necesitamos una app que pueda decirnos cuántas personas tienen posibilidades de perder su cobertura médica si la industria tiene los mismos datos de la NSA, la mayoría provistos por nosotros mismos. Eventualmente, podremos discernir estas dimensiones por nuestra cuenta, sin ningún impulso tecnológico.

Finalmente, tenemos que abandonar los preconceptos sobre cómo funcionan y se interconectan nuestros servicios digitales. De otra manera, seremos víctimas de la misma lógica que contuvo la imaginación de muchos defensores de la privacidad con buenas intenciones que piensan que defender el “derecho a la privacidad” —no pelear por preservar la democracia— es lo que debería mover a la política pública. Mientras que muchos activistas de Internet seguramente argumenten de otra manera, lo que pasa en Internet es sólo de una importancia secundaria. Como con la privacidad, es el destino de la misma democracia lo que debería ser nuestra meta primaria.

Después de todo, en 1976, Paul Baran tuvo la suficiente suerte como para no saber en qué se transformaría Internet. Eso no lo frenó de ver los beneficios de la computación de servicio y sus peligros. Abandone la idea de que Internet cayó en desgracia durante la última década. Liberarnos de esa mala lectura de la historia podría ayudarnos a responder a las amenazas antidemocráticas del futuro digital.

La edición original de este artículo se publicó por primera vez en el número 199 de la revista Information Technology.



¿Te gustó la nota?

Comparte tus comentarios

Sé el primero en comentar

Notas Relacionadas