Neutralidad en la red global-local: la Deep Web hace pendular a la sociedad civil entre la privacidad y la seguridad Introducción Las tensiones y la balanza continuamente inclinada hacia un lado o hacia otro entre seguridad y control vs. libre circulación de información online y privacidad son los ejes sobre los que se moverá este trabajo. Para poder ver los reversos de esta cuestión, se toma el fenómeno Deep Web como caso límite para ver hasta dónde los actores y los discursos que sostienen son arrastrados, matizados o radicalizados, en pos de sus objetivos. ¿Es la Deep Web una reacción a un peso desmedido que tendría la parte que promueve la seguridad y el control? ¿Qué sucede con los guardianes de internet (Maldonado, 2009) frente a un espacio que en teoría es inexpugnable? ¿Existe un balance posible entre la seguridad y la privacidad? ¿Se podría considerar a la Deep Web como un espacio que promueve una específica noción de neutralidad de la red a rajatabla? ¿La sociedad civil es juez y parte? Alguna de estas preguntas son las que guiarán los temas hilados en este trabajo. Escenario vertiginoso y actores en conflicto El paraguas bajo el que se desarrollará este trabajo será la vigilancia y la censura que pueden encarnar las nuevas tecnologías de la información y la comunicación, presentando nuevos modelos de control social y de relaciones de poder. Cierto es también que habrá otros temas que estarán pivoteando junto a este: la restricción a la circulación de información online, la educación en nuevas tecnologías de la información y las zonas grises, posibilidades y probabilidades de una efectiva gobernanza de internet. En término del cuadrante que propone Lessig (1998), donde el mercado, las normas culturales, las leyes y la arquitectura son las formas de regular una tecnología de la información y la comunicación, en este caso el análisis se apoyará sobre las regulaciones por arquitectura que construyeron internet y aquellas programaciones de software que dieron lugar a la posibilidad técnica del anonimato, como así también se le dará importancia a las normas culturales que adoptó la sociedad de internautas respecto al uso del contenido web. Entonces, dentro del cuadrante, la regulación por arquitectura y por normas culturales son sobre las que pivoteará este trabajo. Hacia el final, veremos que también la regulación por leyes adquiere un papel clave frente a un escenario que parece no tener mellas. En 2005 se tenía un estimado de 1.000 millones de usuarios de internet a nivel global (Kurbalija y Gelbstein, 2005), y según el último reporte de Internet Society (2014), para 2015 se proyectan 3.000 millones. Teniendo en cuenta que la población mundial para 2013 ronda los 7.000 millones de personas (Centro de Noticias ONU, 2013), esto nos plantea que más de un tercio de la población mundial circula en internet. Esta concentración mundial de la población, madurando internet como ámbito colectivo de comunicación y circulación de información y comunicaciones, ha traído consigo la evolución espontánea de la regulación y la gestión de internet. (Abbate, 1999 y Castells, 2001 en Castells, 2009). Pero esas 3.000 millones de personas que circulan por internet, ¿por dónde circulan? Puede ser una pregunta extraña a primera vista, pero este trabajo tiene por
objetivo tomar un fenómeno particular del ciberespacio y observar cómo las tensiones entre la vigilancia y el control social chocan y rebotan cuando la circulación de información online y la privacidad son banderas que la sociedad civil elige levantar frente a estos poderes. El fenómeno en cuestión es la Deep Web. Bajo este nombre se conoce a aquellas páginas web o contenidos online que no serían accesibles a través de los buscadores y/o navegadores más utilizados por los internautas. Durante el desarrollo de este trabajo, se intentará ver qué rol cumple y podría cumplir la Deep Web en un entorno donde actores tan poderosos como el capital y los gobiernos ponen especial interés en que internet sea un lugar seguro y por lo tanto controlado, siendo esto pre-condición para hacer de la red de redes un lugar económicamente rentable y políticamente útil. A través de los discursos que entre una y otra parte sostienen para legitimar posiciones, con los cuales se puede pensar en un binomio complejo entre seguridad y control vs. privacidad y libre acceso y circulación de la información, a través de estos discursos, repito, se verá que el plano de batalla, porque así es la internet, tiene posiciones globales y actores fundamentales a nivel mundial. Hay una red de influencias a nivel mundial que circula por las venas de internet. Pero como tal, también se verá que a medida que las posiciones se van endureciendo, el lugar de debate pasa a ser regional o llanamente local, y los Estados nacionales se constituyen entonces en los nuevos guardianes. Internet «sufre, como todo lo demás, la presión implacable de dos fuentes fundamentales de dominación que todavía planean sobre nuestra existencia: el capital y el Estado.» (Castells, 2009:164) ¿Pero la Deep Web es un único actor? ¿Qué comprenden «el capital y los gobiernos»? Los actores que se presentan en el escenario que este trabajo asumirá son muy variados, y pueden ser institucionalmente gigantes o pequeños actores capilares perdidos en las redes de internet. Los actores que tensionan el campo son, por un lado, los guardianes de internet. Acá se podrá encontrar a (1) las empresas que desarrollan los motores de búsqueda como Google, Yahoo o Bing, o los navegadores populares como Google Chrome, Mozilla Firefox o Internet Explorer. Estos actores son los encargados de construir para la mayor parte de los internautas una determinada realidad social informática, ya que, para la mayor parte de aquellos, a través de sus algoritmos y sus índices la información tiene su socialización primaria. (Berger y Luckmann, 1978) Sus discursos, principalmente el de Google, versa sobre el simple ofrecimiento de un servicio. (2) Los guardianes que libran sus batallas informáticas pero que no son participantes visibles del mundo de internet también son un actor importante: las potencias económicas son las más interesadas en regular lo que sucede por las carreteras de internet. A la cabeza de este bloque está Estados Unidos y las instituciones que ha fundado (algunas ad hoc) para regular o controlar los espacios donde circula información en internet, como la CIA y el Departamento de Defensa de Estados Unidos. El discurso del que se harán cargo es el de la seguridad de los ciudadanos pero que, como las caras de Jano, tiene un reverso que es el control y obtención de información. También veremos, como actor que no pertenece al mundo de internet pero que, además de ser institucionalmente importante a la hora de construir cierta realidad social, también posee un rol cultural clave: son (3) los medios de comunicación. Por otro lado, (4) hay otro grupo de guardianes de internet, que no son actores del ciberespacio pero aún así tuvieron un rol crucial a la hora de diagramar la arquitectura. Actores como la IETF o IANA, podrían considerarse «padres» de la arquitectura de internet actual, arquitectura contra la que, en muchos niveles, los actores como el Departamento de Defensa presionan para modificar su regulación. Su participación en el discurso está anclada en la política que encarnaron esas primeras fundaciones de la arquitectura de internet, sobre las que la Deep Web tuvo lugar.
Hasta aquí llevamos contabilizados cuatro actores institucionalmente grandes, con redes de influencia y trabajo que cuentan, en la mayoría de los casos, con una pata local o regional, y que son los que guiarán el enfoque hacia el rol de los Estados nacionales. A nivel de la sociedad civil, encontramos que la Deep Web segmenta verticalmente a la sociedad de acuerdo a sus intereses y los convierte en actores conscientes o no de la lucha por la libre circulación de información online y la privacidad. Por un lado encontramos a (5) aquellas personas que utilizan efectivamente las herramientas que ofrece la Deep Web creando dominios, portales o foros de chat o comercialización por fuera del circuito de información visible. Complementario a este actor son (6) los individuos que exploran la Deep Web en búsqueda de contenido que les interesa, sea delictivo o no. Estos dos últimos actores son los principales disparadores de conflictos en el escenario. Aparejado a esta relación entre unos actores que ofrecen productos, servicios o información y utilizan la Deep Web como medio, y otros actores que irían en búsqueda de lo ofrecido, está siempre latente el ataque de (7) crackers. Por crackers se entiende a los individuos que pululan en la Deep Web y cuya actividad consiste en robos de identidad, de datos bancarios, de IP, entre otros. Su único fin es cometer actos que, desde el punto de vista de los gobiernos y la sociedad civil que pulula por la superficie de internet, son llanamente delictivos1. Importante diferenciar los crackers de los (8) hackers, que son individuos con altos conocimientos de programación y que responden al «valor supremo de la innovación tecnológica informática y, por tanto, necesitan también libertad. Libertad de acceso a los códigos fuente, libertad de acceso a la red, libertad de comunicación con otros hackers, espíritu de colaboración y de generosidad.» (Castells, s.f.) Detrás de todo esto, quizás expectante, se encuentra (9) el resto de la sociedad civil que no circula por la Deep Web sino por la internet superficial, utilizándola para su vida cotidiana, trabajo, comunicación y divertimento. Este actor es importante por las banderas que levanta a favor de la privacidad de sus datos, pero sin reconocer el partido que se juega, siendo que cualquier lado de la balanza que se incline le traerá tantos favores como derrotas. Por último, tenemos a (10) los proveedores de servicios de internet o ISP. Estos proveedores son los encargados de la última milla, punto de conexión entre los usuarios finales de internet y los contenidos webs a los que acceden. Estos actores son importantes por las interpelaciones en materia de control y seguridad que reciben por parte de los gobiernos. La posibilidad técnica del anonimato Lo esencial que hay que tener en cuenta para entender las problemáticas que desata la Deep Web es la posibilidad técnica de anonimato, ofrecida por los softwares que permiten acceder a ella2. Pero vayamos al principio. Kurbalija explica claramente la arquitectura técnica básica:
1
Esta posición de la sociedad civil está justificada en el Anexo, donde se agregan casos en los cuales la participación de organizaciones de la sociedad civil fue clave para la promulgación o revocamiento de leyes referentes a la pornografía online, la privacidad y los delitos informáticos. 2 A los fines de este trabajo, remarcar la diferencia entre el hecho de que el anonimato sea una posibilidad técnica de un software específico que además permite acceder a la Deep Web no hace a la cuestión, siempre y cuando las dos características sean ofrecidas por un mismo actor. En este caso, con el navegador Tor. En un navegante que solamente curiosea por la Deep Web, es claro que el anonimato le es irrelevante.
El principal estándar de internet que especifica la manera en que se trasladan datos es el protocolo para el control de transporte/protocolo de internet (TCP/IP), el cual se basa en tres principios: conmutación de paquetes, redes punto a punto y robustez. La red entre uno y otro punto terminal es neutral y no evita el desarrollo y la creatividad en los mismos. Esto significa que las aplicaciones que corren en internet pueden ser diseñadas en los bordes de la red sin requerir permisos por parte de los operadores y otras partes. (2005:42) Estos números IP son como documentos de identidad únicos que posee cada dispositivo que se conecta a internet. El desarrollador de este protocolo fue la IETF (Fuerza de Tareas de Ingeniería para Internet), siendo fundamental en los orígenes de internet -y hoy- para garantizar la conmutación de paquetes entre dispositivos, para lo cual previamente debió imponerse su uso. Es claro entonces que esta arquitectura pilar de internet no fue diseñada pensando en la seguridad, sino en la libre circulación de información y todo el potencial que este conllevaba. En este contexto es que tiene su origen la ética hacker. «La misma arquitectura se convirtió más adelante en el cimiento para el desarrollo de la creatividad y la libertad de expresión en internet». (Kurbalija, 2005:16). Sin embargo, cuando internet tuvo la explosión que tuvo, con crecimientos exponenciales, la seguridad apareció como tema de agenda. Kurbalija sostiene que por este crecimiento de la población de internautas fue que se crearon soluciones ad hoc como los cortafuegos, el antivirus y el software de codificación, pero que un tratamiento de raíz del problema de la seguridad implicaría hacer cambios sustanciales en el estándar TCP/IP. Al entrar a la Deep Web se aprovechan las posibilidades técnicas que ofrecen algunos navegadores de ocultar esa dirección IP propia. El ejemplo clásico, siendo el software más usado para acceder al mundo subterráneo de internet, es el navegador Tor. Con este navegador se es técnicamente un anónimo capaz de producir mensajes. Esto revela que, si con este navegador es posible acceder a contenido con diferentes codificaciones y enrutamientos que se encuentran en la Deep Web, es, y esta es una de las tesis que sostendrán en este trabajo, porque del lado de los navegadores y buscadores tradicionales hay una decisión voluntaria de no ofrecer esos contenidos como parte de la realidad virtual que construyen, y esta decisión, como tal, es política. Los motores de búsqueda vs la Deep Web: probabilidades y posibilidades límites Hay actores de la sociedad civil, capilarmente distribuidos en la red social, que tienen intenciones delictivas y otros con una ética basada en la cultura del compartir; hay empresas proveedoras de internet; hay gigantescas multinacionales cuyo negocio atraviesa la circulación de información online y fuertes presencias gubernamentales que, en muchos casos aliadas a las gigantes multinacionales, persiguen el fin de hacer de internet una comunión de intereses corporativos. Ahora bien, ¿cuáles son los conflictos que reúnen a estos actores? ¿Por qué una persona que tipea en su buscador favorito la información que solicita está relacionada con un cracker y con la designación de IPs hecha por la IETF? Las preguntas que guiarán la argumentación de este trabajo giran en torno al binomio complejo antes dicho: por un lado los guardianes de la internet, detentores de la seguridad y poderosas empresas que ofrecen un servicio de búsqueda de contenido online, y por otro lado la protección de la privacidad con la que se embandera la sociedad civil y la lucha por la libre circulación y recepción de información online de
los difusores y portadores de la información reñida con los intereses globales. El principal hincapié será hecho sobre el papel de la sociedad civil que circula por la superficie de internet, y cómo el discurso que sostienen (según expertos, El algoritmo que utilice su motor de búsqueda inconsciente), hace crujir los fundamentos Google se llama PageRank, y consiste en de uno y otro lado, siendo entonces un actor reorganizar las conexiones online y el vital por su pendulación. contenido no mediante métodos de catálogos – Se ha dicho que la Deep Web son como puede ser un listado alfabético-, sino aquellas páginas web o contenidos online asignándole a cada página un lugar en el que no serían accesibles a través de los “ranking de popularidad” basado en el volumen buscadores y/o navegadores más utilizados de las conexiones que tengan con otras páginas por los internautas. Es decir, esos de alto nivel en el ranking. Es decir, «la relevancia engendra relevancia.» (Castells, contenidos no estarían indexados gracias a 2009:142) diferentes técnicas: porque precisarían pasos intermedios; porque precisan cifrados específicos que tienen una circulación restringida; porque son páginas web que nacen y cuya actividad cesa muy pronto; o porque se precisa hacer una interrogación previa a la base de datos para acceder a esa información. Casos de esto puede ser el acceso a una cuenta bancaria online, donde se precisa usuario y contraseña para que la página web ofrezca la información solicitada, o los captcha, cifrados alfanuméricos que piden ser justamente descifrados para permitir el acceso a un sitio. Sin embargo, hay portales y sitios web que llevan esta posición –y tienen motivos para ello- a un extremo. No serían sólo ese guardián frente al castillo que cuando se le solicita el ingreso se limita a decir que no. Directamente esconden su castillo. No sólo hay un cifrado. También utilizan diferentes estrategias para eludir el alcance de indexación y enrutamiento de los motores de búsqueda tradicionales (Google, Yahoo, Bing): diseñan sus URLs con formatos que son incompatibles con el diseño de los navegadores más usados; se multiplican con sitios espejos; o directamente sus documentos están redactados en formatos no indexables.3 En estos sitios, a esta posibilidad de no ser indexado que dio imaginación a la metáfora de superficieprofundidad de internet, se los conoce como Deep Web. En tanto tal, podemos ver que la Deep Web, como afirma Christian Borghello (Piccini, 2015a), constituye «una herramienta como cualquier otra que puede ser utilizada para el bien, para el mal o para todos los grises que hay en el medio». Es una herramienta de la arquitectura de internet. «¿Pero no me perjudica que los buscadores no indexen contenidos que podrían serme útiles?», podría preguntarse la sociedad civil que vive su vida cotidiana en la superficie de internet. Sin embargo, a pesar de la ingenuidad, esta pregunta pone sobre la mesa dos cuestiones cruciales. Una es la cuestión del ¿por qué? de la Deep Web, y la otra referente al ¿qué? En primer lugar, la Deep Web es una zona muy conflictiva de internet, y desde el punto de vista de los organismos de gobierno, ilegal. En ella se pueden encontrar servicios financieros (cuentas de PayPal robadas, tarjetas de crédito clonadas, falsificación de billetes), servicios comerciales (explotación sexual, mercado negro, armas y munición, asesinos a sueldo, documentación falsa y drogas), archivos clasificados de gobiernos y diplomáticos (caso Wikileaks), una inmensa biblioteca gratuita de archivos digitales, servicios de hosting y almacenamiento irrestricto, entre otros. Como se puede observar, las actividades nombradas pueden fácilmente ser tratadas desde la ilegalidad si uno lo mira desde la perspectiva de un gobierno X y desde 3
Se refiere a eludir los estándares de contenidos y aplicaciones de los que da cuenta Kurbalija (2005).
la moral pública de la sociedad civil. Son claros los intereses de «no salir a la superficie» de muchas de estas actividades. Pero si se mira con atención se verá que en el conjunto de esas actividades, hay algunos conceptos que crujen. No se discutirá los intereses de los guardianes de internet en acabar con el robo de cuentas bancarias, tarjetas, la lucha contra la pedofilia, la explotación sexual o el mercado negro, porque la solución de estas problemáticas son apoyadas también por la sociedad civil4, y por lo tanto tampoco se discutirá el interés en no ser ubicados que tienen los actores que cometen esta especie de delitos informáticos. Pero cuando se habla de circulación de información la balanza de la seguridad encuentra una contraparte de peso, y se producen divisiones verticales en los actores de la sociedad civil con repercusiones de grados diversos. Se nombró Wikileaks por ser un caso famoso y de alcances mundiales, y que ejemplifica claramente qué sería una información «confidencial» de repercusiones mundiales y locales, pero dentro de este contrapeso también se incluye a diversos medios de comunicación, a los gobiernos que utilizan el espionaje como defensa/ataque frente a otros espionajes y a actores de la sociedad civil que apoyan la cultura del compartir. Cuando se piensa en estos actores, la posibilidad técnica del anonimato que ofrece la Deep Web toma toda su fuerza. Esta posibilidad técnica del anonimato en la Deep Web les proporciona a los actores antes nombrados las posibilidades de hacerlo sin consecuencias dolorosas. Como bien dice Castells, lo único que podrían hacer los gobiernos frente a esto es perseguir: Es cierto que se puede bloquear el acceso a algunos sitios, pero no a los billones de mensajes de correo electrónico ni a los millones de sitios web que se renuevan continuamente. Es verdad que se puede supervisar Internet y que, de hecho, todos los gobiernos del mundo lo hacen. Pero lo máximo que pueden hacer los gobiernos para implantar sus leyes es perseguir a unos cuantos desgraciados a los que sorprenden in fraganti mientras otros millones siguen navegando alegremente por la web. Con todo, aunque algunos de los mensajeros son castigados, los mensajes continúan surcando el océano de la comunicación global. (2009:161). Perseguir continuamente un espacio tan dinámico y huidizo como la Deep Web es tarea engorrosa y parcial, aunque se hace. Pero entre las personas que reciben la información en internet, y aquellas que la trabajan y difunden, hay actores que son los encargados de mover la información desde los difusores hasta los ciudadanos a pie. En la vida cotidiana de internet, salvo cuando un asunto haya tomado público conocimiento con anticipación, los intermediarios son los navegadores y los buscadores. Según StatCounter (2015), uno de los dos productores de estadísticas actualizadas sobre usos y costumbres de internet a nivel mundial, y citado por medios tan diversos como Clarín, Infobae, Business Wire o Bloomberg, en la actualidad Google Chrome sería el navegador más usado a nivel mundial (49,24% a mayo del 2015), seguido muy atrás por Internet Explorer y Mozilla Firefox. En cuanto a motores de búsqueda, las Sillicon Valley siguen siendo las más utilizadas por los usuarios de internet, aunque la presencia del gigante chino Baidu también influye. El motor de búsqueda de Google procesa más de mil millones de búsquedas cada día e indexa más de 25 petabytes por día de contenido. (Keane, 2015) 4
En el anexo se encuentran notas periodísticas que dan cuenta de debates sobre leyes en los que la participación de la sociedad civil fue relevante, sea para su promulgación o para su revocamiento.
Como dice Castells (2009) cuando habla de la googlearquía, los motores de búsqueda en línea se configuran de tal forma que necesitan la participación tácita, aunque no necesariamente consciente, del usuario final. Es decir, la capacidad de indexar o no indexar que tiene Google con sus web crawlers5 y la probabilidad de que los ciudadanos puedan acceder a información valiosa que circula por fuera de la internet superficial es un ciclo que se realimenta a sí mismo. Esto puede –y funciona- como un cuello de botella que favorece a los gobiernos que intenten tanto ofrecer seguridad como controlar la construcción social de la realidad. Christian Borghello lo plantea en estos términos: Está la política que ellos [Google] están obligados a cumplir, que si esa información que ellos indexaron no cumple con todos los requisitos legales y de «limpieza» que deberían tener, la sacan del índice, o no te la muestran en realidad: está pero no te la van a mostrar. No va a estar indexada, pero ellos la van a tener. (Piccini, 2015a) Sin embargo, como dice Lessig (1998), las comprensiones o expectativas acerca de cómo uno debe comportarse, expectativas impuestas mediante las comprensiones o expectativas de casi los miembros de una comunidad» –en este caso, la digital-, construye la cultura digital a la que respondemos, y tiene especial importancia a la hora de hablar de seguridad, privacidad y libre acceso a la información. ¿Cómo se llegó a la situación donde casi la mitad de los internautas usa un único navegador, el Google Chrome? ¿Qué sostiene a www.google.com como el principal motor de búsqueda hoy 2015? ¿Estamos hablando sólo de una situación monopólica agresiva de Google que coorta a usar su buscador? Los internautas y la culturalización de lo digital Cierto que el éxito de Google, como todas las gigantes multimediáticas internacionales, fue construido por la divergencia y convergencia de sus actividades (Becerra, 2000): buscadores, servicios de e-mail, redes de trabajo, entre otros. Pero también hay una educación cultural que pesa sobre los internautas, y que es acompañada y apoyada por políticas gubernamentales. Se verá qué sucede cuando los que abogan por la libre circulación de información online coinciden con los discursos que sostienen el derecho a la privacidad cuando son los gobiernos y las grandes empresas las que actúan en conjunto. Se podría nombrar muchísimos servicios que permitirían abrir nuevos y más amplios canales para la circulación de información, y que tienen una política menos cerrada que los softwares tradicionales, sea por el anonimato o por la construcción de la realidad que hacen: DuckDuckGo, Tor u Orbot son algunos casos. Pero es importante entender que, en este punto, anonimato y privacidad viajan juntos. Quién no puede saber la identidad de un internauta, o no puede crear algoritmos en base a su comportamiento en internet, no puede plegarse sobre el usuario para construir determinada realidad social virtual, determinado circuito de información que se cierra sobre sí mismo, se retroalimenta y es, en definitiva, endogámico. Cada navegador tiene decisiones políticas en sus diseños, pero también los motores de búsqueda tradicionales, cuanto más continuamente son usados, más cerrados sobre sí mismos se vuelven, y por
5
Para ver más sobre los web crawlers, visítese http://www.robotstxt.org/.
contrapartida, menos abierto a información que esté en relación con el contenido anteriormente buscado. De lo que se intenta dar cuenta, es lo que Maldonado sostiene cuando debate los límites de la libertad negativa en internet: La pérdida de nuestra libertad no se verifica únicamente cuando somos sometidos a una limitación coercitiva de nuestra voluntad. Esto ocurre asimismo, y no en menor medida, cuando la limitación no es coercitiva, cuando se ejerce mediante los medios ‘dulces’ de la socialización y la culturización. (1998:45-46) Google es cultural, al punto de que en muchos diccionarios se ha asumido como sinónimo de «buscar en la web». Pero antes que cultural, fue una sistematización de un uso y una costumbre que finalmente derivó en una norma cultural. (Hayek, 1980, citado en Maldonado, 1998:45) Ahora bien, cierto es que la sociedad civil, la «opinión pública», nunca se ha expresado a favor o en contra del uso de estas herramientas de búsqueda, ni de ningún navegador, ni parecidos. Para sostener esto me baso en que no hay legislaciones, proyectos de ley, presiones de representantes políticos o movimientos de organizaciones no gubernamentales que exijan una puesta sobre la mesa de lo que conlleva usar un determinado motor de búsqueda u otro. En 2015 la Unión Europea ha intimado a Google por favorecer a través de su buscador productos propios de la misma empresa, acusándosela de «posición dominante». Google, a través de su vicepresidente Amit Singhal, se defendió con una obviedad: «Aunque Google quizás sea la herramienta de búsqueda más usada, la gente ahora puede encontrar y acceder a la información de numerosas formas, y las alegaciones de daño a los consumidores y competidores están muy lejos de la realidad» (2015). ¿Pero está dispuesta la sociedad civil a abandonar usos y costumbres que riñen con su libre acceso a la información, en pos de defender su derecho a la privacidad y a no ser observado y controlado mediante la información? ¿Esto sería reivindicar los valores con los que surgió internet, apoyándose en su arquitectura originaria? ¿O al menos se podría tratar a la Deep Web y a la posibilidad técnica del anonimato como una visión de la neutralidad informacional de la red? ¿La Deep Web como neutralidad de la red? Según Castells (2009), la preocupación fundamental de la mayoría de los gobiernos es establecer normas para controlar internet y encontrar mecanismos para ejercer este control según la ley y el orden. Pero sostiene que hay motivos serios para dudar de la eficacia de los controles cuando van dirigidos a la comunidad de usuarios en general. Si nos guiáramos por esta idea, podríamos efectivamente pensar a la Deep Web como encarnando la neutralidad informacional de la red, donde ningún contenido sería discriminado, incluso aquellos patentemente conflictivos, como el contenido pedófilo. Christian Borghello refuta este planteo: Creo que la Deep Web es una forma de publicar o de exponer cosas que normalmente la gente no expondría en un medio público, por pudor, por miedo o por equis motivo. No lo vería como neutralidad en la red. Yo creo que ser neutral en la red significa que todos tenemos acceso a lo mismo, al
mismo ancho de banda, al mismo tipo de información, y eso en la Deep Web no pasa. Supuestamente, si vos estás en la Deep Web y entraste por Tor, sos anónimo. No es tan así. Estás un poco más oculto, pero no estás anónimo. Todo depende de qué tan objetivo te transformás. ¿Qué significa esto? Si vos sos un high profile¸ que está siendo investigado por narcotráfico, por pedofilia, por una causa importante, y te transformaste en un blanco, tarde o temprano te van a encontrar. (Piccini, 2015a) Entonces la larga cita de Borghello, apoyada en su experiencia con el trato diario de clientes, refuta la posibilidad del anonimato. En términos de Maldonado (1998), podríamos decir que existe la probabilidad de pasar anónimamente por la Deep Web y tener una actividad más o menos dinámica. Pero la posibilidad efectiva de que esto se sostenga es baja cuando la información que se dinamiza te convierte en un «high profile». La Deep Web, más que mostrarnos las posibilidades y ventajas de las nuevas tecnologías de la información en asegurarnos los ideales de libre circulación y privacidad, nos revela sus limitaciones. En este límite al que hemos hecho llegar la Deep Web, el discurso de la sociedad civil asume dos caras contradictorias. Cuando defiende su derecho a la privacidad, y como caso reciente tenemos a las discusiones en torno a Pyraweb, Marcelo Temperini sostiene que la sociedad civil actúa como si sus derechos no entraran en colisión con otros. Creo que la información la tenemos que tener para combatir cualquier tipo de delito. Para mí es necesario para intentar avanzar en agarrar a los delincuentes. En Pyraweb se argumentó que los criminales más peligrosos utilizan herramientas de anonimización o cifrado, imposibilitando que sean fácilmente encontrados. La realidad es que la mayoría de los delincuentes no saben tanto. Y es gente que se la puede encontrar. Lo que hay de fondo en esa ley es defender las libertades de internet asociando que tener determinados datos significa vigilancia masiva. (Piccini, 2015b) Al mismo tiempo que se entiende que intensificar la búsqueda y recopilación de información tiene como contrapartida el resquebrajamiento de la esfera privada, también se observa que este accionar se apoya en el argumento de que esta búsqueda proporcionará mayor seguridad a los ciudadanos. Las banderas de la sociedad civil están en todos lados, y por lo tanto en ninguno. ¿Con qué posibilidades y probabilidades cuenta la sociedad civil, y con qué herramientas, para asumir su contradicción y superarla? La sociedad civil y su pendulación Marcelo Temperini: En la Sociedad de la Información, cuanto más seguridad tenés, cuanto más seguro es un sistema, más le vas quitando del otro lado: menos acceso, menos transparencia. Es un tema que yo creo que no tiene una solución. Tiene momentos. El tema es entonces ¿qué privilegiamos? (Piccini, 2015b) No estaría lejos de la verdad decir que defender a los ciudadanos implica, en algún punto, atacar a otros actores, es decir, tener una seguridad ofensiva. Marcelo
Temperini cree que en Argentina esa idea aún no está clara para los gobiernos de turno, lo cual posicionaría al país en la balanza de la protección de datos privados, a contracorriente de lo que sucede a nivel mundial con las potencias. (Piccini, 2015a y 2015b) Es claro también que si se alentara a un cambio de hábitos y apropiación en el uso de determinados softwares, éste debería ser un cambio total. Lo difícil no es investigar sobre posibilidades a nivel software para apoyar ese cambio de hábitos, sino si realmente va a ser usado ese software. Si se empieza a usar Tor para conservar el anonimato, es un despropósito usar www.google.com o el mismo Facebook. No sólo porque hay que cambiarse de sistema y acostumbrarse a un nuevo rendimiento del sistema operativo debido a lo que cuesta el cifrado, y en el transcurso abandonar protocolos, e incluso averiguar si nuestro proveedor de internet usa nuestros datos o no. Hay que preguntar antes ¿cuántas personas están dispuestas a dar este paso? ¿Cuántas personas dan el paso de verdaderamente averiguar que sucede con sus datos online? Argentina tiene una ley de protección de datos personales hace 15 años, ¿y cuánta gente conoce esa ley? ¿Cuántas empresas cumplen con las 25.326? ¿Cuánta gente hace un habeas data para darse de baja en alguna base de datos en la que figura sin su consentimiento? Esa es la hipocresía. Es una ley cuyo objetivo es proteger la privacidad, y hay un montón de disposiciones y hay un montón de herramientas para defenderse si realmente interesa la privacidad. Si yo explicara todo eso, ¿la gente se defendería? A la gente no le importa. (Piccini, 2015b) Se podría agregar, a partir de la lectura de los argumentos que utiliza la sociedad civil para defender su postura, que la noción de privacidad que ellos comparten es muy similar a las condiciones de privacidad que ofrecen los buscadores, navegadores y redes sociales mayormente usadas, y este nuevo paradigma versa sobre la idea de que la información personal es, en principio, pública. (Piccini, 2015b) Conclusiones La importancia de los punteos realizados en este trabajo radica en aportar al debate en torno a posibles líneas de políticas de planificación integrales del mundo de internet, dentro de un un panorama donde más de 1/3 del mundo tiene conexión a la red, y Argentina estando entre los tres primeros con mayor penetración a nivel regional. (Pew Research Center, 2015) Estas conclusiones no tendrán el sentido de clausurar una discusión, sino de abrir relaciones con otros posibles ejes de investigación que vinculen al binomio seguridad vs. privacidad en un contexto por la lucha de libre circulación de información. Como dijo Castells (2009), Internet sufre la presión implacable de dos fuentes fundamentales de dominación: el capital y el Estado, ambos como actores globales, pensando en que las grandes potencias no limitan sus redes de influencias a sus límites geográficos. Por lo tanto, es importante remarcar el rol de la sociedad civil como actor de peso, que cuenta con características específicas que le otorgan una importancia crucial en la inclinación de la balanza control vs. privacidad y libertad de expresión, principalmente por su carácter pendular en este binomio complejo. Si levantar la bandera por la defensa de los datos privados le trae tantos beneficios como problemas, significa que el trabajo a realizar, dentro del marco de posibilidades que dibujan las relaciones de poder e influencia a nivel mundial, es fundamentalmente educativo.
¿Pero quién puede educar a una sociedad civil en sus derechos y responsabilidades? Debe prestarse atención entonces a que el verdadero partido pasa a jugarse al nivel de los Estados nacionales, y en este sentido, Lessig (1998) da en el clavo: «El código compite, así, con el poder regulador de los poderes soberanos locales.» Pero el trabajo del Estado como defensor de una soberanía que comprende a sus ciudadanos, no puede limitar el trabajo de defensa a una situación externa. La defensa interna también debe ser comprendida en esa regulación, que sería una regulación con los recaudos que señala Temperini (Piccini, 2015b): si el Estado nacional decide observar, recopilar y almacenar los datos de sus ciudadanos para combatir delitos informáticos como la pedofilia, el tráfico ilegal, pasando por el phishing y el robo de identidades, ¿dónde quedarían esos datos? ¿En una dependencia del Estado o en un privado? ¿Qué situaciones ameritarían que esos datos sean revelados para una investigación? ¿Tienen todos los datos la misma relevancia? Y una más crucial: si el Estado se embarca en esta empresa, ¿no estaría tomando el problema por su final, cuando debería comenzar por verificar cuál es el Estado actual de los datos de sus ciudadanos en el mundo de internet, algo así como relevar el estado del arte de la información personal pública? También hay un gran trabajo por hacer en términos de desmitifación. Asumir una tarea educativa por parte de los Estados nacionales para conducir a sus ciudadanos hacia una concientización de la política de los espacios de internet, y dar cuenta que existen herramientas con un potencial legítimo para defenderse, como puede ser la ley 26.032 sobre la libertad de expresión en internet o la 26.388 sobre tipificación de delitos informáticos. Los principios «deben ser claramente establecidos a nivel políticas y no tácitamente asumidos a nivel técnico». (Kurbalija, 2005)
BIBLIOGRAFÍA
SINGHAL, A. [2015, 15 de abril], The Search for Harm [Documento en línea], Blog Oficial de Google. Disponible en: http://bit.ly/1FtVg6M. [Recuperado 2015, 17 de junio]. ASSANGE, J. (2014), When Google Met Wikileaks, London: OR Books. BECERRA, M. (2000), De la divergencia a la convergencia en la sociedad informacional: fortalezas y debilidades de un proceso social inconcluso”, en Zer n° 8, Facultad de Ciencias Sociales y de Comunicación, Universidad del País Vasco, Bilbao. BERGER, P. y LUCKMANN T. (1978), La construcción social de la realidad, Buenos Aires: Amorrortu. CASTELLS, M. (2009), Regular la libertad: cuando la caperucita Internet encuentra a los lobos feroces corporativos (pp. 161-176), en Comunicación y Poder, Madrid: Alianza Editorial. CASTELLS, M. (s.f.), Hackers, crackers, seguridad y libertad, Lección inaugural del curso académico 2001-2002 [En línea], Universidad Oberta de Catalunya. Disponible en: http://bit.ly/1RcvyKI [Recuperado 2015, junio 15] CENTRO DE NOTICIAS ONU (2013, 13 de junio), La población mundial crecerá en mil millones en la próxima década [En línea], español. Disponible en: http://bit.ly/1H66ZzH. [2015, 16 de junio]. INTERNET SOCIETY (2014, junio), Global Internet Report 2014. Disponible en: http://bit.ly/VI8BKg [Recuperado 2015, 14 de junio]. KATZ, C. (1998), El enredo de las redes [Documento en línea]. Disponible en: http://bit.ly/1GrxdGv [Recuperado 2015, 20 de junio]. KEANE, J. (2015) Why Google is a political matter? A conversation with Julian Assange [Entrevista en línea], publicado en The Monthly. Disponible en: http://bit.ly/1Rcvc71 [Recuperado 2015, 16 de junio]. KURBALIJA, J. y GELBSTEIN E. (2005) La canasta de infraestructura y organización, en Gobernanza de Internet. Asuntos, actores y brechas, DiploFoundation y la Sociedad para el Conocimiento Mundial, Malta. AGENCIA FRANCE-PRESS (2015, 4 de abril), La acusación de Europa contra Google, en 5 puntos. [En línea], La Nación. Disponible en: http://bit.ly/1IR4i2v [Recuperado 2015, 12 de junio]. LESSIG, L. (1998), “Las leyes del ciberespacio”, conferencia Taiwan Net ’98. Disponible en: http://bit.ly/1dMhMBO MALDONADO, T. (1998), Crítica de la Razón Informática, Barcelona: Paidós. PEW RESEARCH CENTER (2015, marzo), Internet Seen as Positive Influence on Education but Negative on Morality in Emerging and Developing Nations [Documento en línea]. Disponible en: http://pewrsr.ch/1C0TsVU. [Recuperado en 2015, 20 de junio] PICCINI, F. (2015a, mayo), [Entrevista a Christian Borghello, director de SeguInfo y co-fundador de ODILA]. Anexo. PICCINI, F. (2015b, junio), [Entrevista a Marcelo Temperini, director del sitio El Derecho Informático, fundador de Asegurarte y co-fundador del Observatorio de Delitos Informáticos de Latinoamerica]. Anexo. STATSCOUNTER [En línea]. Consultado en: http://gs.statcounter.com/ [Recuperado 2015, 14 de junio]
ANEXO NOTAS DE INTERÉS
Sobre la ley Pyraweb y los actores involucrados: http://bit.ly/1Txo6hi. Nota en diario Perfil (16/11/2013) sobre la sanción de ley de Grooming en Argentina y los debates que alentó: http://bit.ly/1JWTMKf. Ley 26.388 sobre tipificación de delitos informáticos en Argentina. Se trata, según los expertos, de una reforma al Código Penal: http://bit.ly/U6ZyAE. Nota en Medium, portal de la ONG Tedic, sobre Pyraweb: http://bit.ly/1IR4Khc. La llamada ley Cheheade, en Perú. Para ver el proyecto de ley: http://bit.ly/1QForPX. Para leer sobre el debate en la ONG Derechos Digitales: http://bit.ly/1J5TqRd. Proyecto de ley sobre cibercafés en Chile: http://bit.ly/1MOtKq6 Ley impulsada en Argentina por la senadora Sandra Giménez: http://bit.ly/1kWiWrx
ENTREVISTAS Entrevista a Marcelo Temperini, director del sitio El Derecho Informático, fundador de Asegurarte y co-fundador del Observatorio de Delitos Informáticos de Latinoamerica. [10-06-2015] ¿Creés que en internet, hay un balance posible en la tensión seguridad-vigilancia vs. privacidad del usuario-libre acceso a la información? Justo la semana pasada se estuvo dando un debate en Paraguay que intentaba regular el tema de la protección de datos de tráfico, y salieron muchísimas organizaciones internacionales, defensoras de derechos humanos, de internet y demás, a oponerse, y finalmente ganaron. Cuando uno lee los argumentos la discusión que hay de fondo es esa: gente que dice que esa cantidad de información en manos equivocadas puede dar lugar a vigilancia masiva, que se pierde en privacidad en pos de la seguridad. El tema es entonces ¿qué privilegiamos? En la Sociedad de la Información, cuanto más seguridad tenés, cuanto más seguro es un sistema, más le vas quitando del otro lado: menos acceso, menos transparencia. Es un tema que yo creo que no una solución. Tiene momentos. En un punto es un tanto hipócrita. Este tipo de cruzadas exacerbando la libertad de expresión me parece que no están teniendo el otro lado de la balanza. En un caso de pornografía infantil obviamente, es el caso más duro. Pero yo creo que la información la tenemos que tener para combatir cualquier tipo de delito. Para mí es necesario para intentar avanzar en agarrar a los delincuentes. En Pyraweb se argumentó que los criminales más peligrosos utilizan herramientas de anonimización o cifrado, imposibilitando que sean fácilmente encontrados. La realidad es que la mayoría de los delincuentes no saben tanto. Y es gente que se la puede encontrar. Lo que hay de fondo en esa ley es defender las libertades de internet asociando que tener determinados datos significa vigilancia masiva. El miedo de esta gente es que esa base de datos se pierda y que alguien haga ese proceso y que dé lugar a una especie de vigilancia masiva. Cierto es que hay que tratar esos datos con determinados recaudos. ¿Dónde van a estar guardados? ¿Los va
a tener un privado? Aparte a veces se confunde esto con datos de tráfico con datos de contenido. ¿Entonces creés que esa tensión va a seguir existiendo? Creo que la tensión que citás va a seguir existiendo, y que con el paso del tiempo se van a hacer cada vez más fuerte. La gente que tanto se preocupa por sus derechos y movilizaciones contra las legislaciones, ¿navegan por Tor? Estoy seguro que la mayoría no lo hace. Por eso se da esta situación de hipocresía. Para mí Tor hoy representa este lugar neutral, insisto, pero no debe ser tomado como un actor, sino como un lugar en donde, por las condiciones técnicas, es prácticamente imposible ser rastreado. En esa balanza de la que hablábamos entre privacidad y seguridad, Estados Unidos claramente la tiene inclinada hacia la privacidad. Pero repito, la tensión va a seguir existiendo porque todas las empresas hoy recopilan información, y ese es el negocio de internet. A esas empresas se les da la información, y ellos pueden compartir la información con sus socios. Los dos ejemplos son Google y Facebook. Si la sociedad no entiende que están pagando con sus datos el negocio de la publicidad, porque el negocio es que sus datos se vendan, no se está entendiendo cómo funciona internet. No hay que ser ingenuos. La gente que levanta la bandera de la privacidad no tiene ni la más remota idea de lo que hace Facebook ni Hotmail, y levantan la bandera igual. Argentina tiene una ley de protección de datos personales hace 15 años, ¿y cuánta gente conoce esa ley? ¿Cuántas empresas cumplen con las 25326? ¿Cuánta gente hace un habeas data para darse de baja en alguna base de datos en la que figura sin su consentimiento? Esa es la hipocresía. Es una ley cuyo objetivo es proteger la privacidad, y hay un montón de disposiciones y hay un montón de herramientas para defenderse si realmente interesa la privacidad. Si yo explicara todo eso, ¿la gente se defendería? A la gente no le importa. ¿Se ha modificado el concepto de “privacidad”? Hay algo que no comparto sobre “un nuevo concepto de privacidad” que tendrían las nuevas generaciones. ¿Por qué tienen más de 10.000 amigos de Facebook? ¿Cuántos conocen? ¿Por qué dan todos sus datos personales por nada? En realidad no tienen ni idea lo que es la privacidad. Esta nueva generación está moldeada en base al negocio que hablamos recién. El nuevo paradigma de la privacidad es que en principio la información es pública. Hoy la privacidad es la excepción, porque eso es lo que conviene al negocio. Cuando uno ve esos artículos que hablan de vigilancia masiva, piensa que no se sabe bien de qué están hablando. O sino que me vengan a hablar pero que no tengan ningún tipo de red, que sean asociales tecnológicamente hablando. Son posturas respetables que van a ser más respetables cuando estén preparadas para el debate. La información es poder en ese sentido. Cuanto uno más sepa, mejor preparado va a estar para tomar una decisión. La Deep Web creo que condensa eso, porque es un lugar donde hay un potencial a explotar pero que también hay que hacer cierta preparación y construcción cultural para usar esas herramientas. Hay que educar, hay que capacitar. Yo apunte siempre mucho al tema de la educación, las consecuencias de esa arquitectura, porque regular la arquitectura misma es algo complicado, un lugar donde no te van a dejar entrar fácilmente. Lo que es importante es el que se meta gente que tenga conocimiento desde lo técnico porque se necesita un trabajo interdisciplinario entre lo técnico y lo legal. Entrevista a Cristian Borghello, Director de Segu-Info y co-fundador del Observatorio de Delitos Informáticos de Latinoamerica [06-05-2015]
F.P.: Parto de la idea de que la Deep Web es más una herramienta de la misma estructura de internet que puede tener diferentes usos, alejándome de la mitología que tiene alrededor. C.B.: De hecho, si se busca un poco, se encuentra que el protocolo fue creado por la U.S. Navy. Originalmente ellos lo que querían era tener una forma alternativa de comunicarse con sus agentes en el exterior sin que ese medio pudiera ser interceptado. Finalmente el tiro les salió por la culata porque obviamente hoy en día, en la gran mayoría, lo usan delincuentes de la más baja calaña, y al margen de que ellos también lo pueden seguir utilizando, pero se llegó al punto de que nadie puede decir con certeza qué hay ahí adentro. F.P.: Viendo que es una herramienta que es parte de la misma estructura de internet, ¿cuáles son los intermediarios que podés identificás? Tanto para acceder como para impedir. C.B.: Hay que entender entonces que es un medio de comunicación como cualquier otro, que es utilizado tanto por: gobiernos, uno de los actores principales que debemos explicar; todo lo que esté relacionado con agentes del gobierno, obviamente espionaje; y también se puede utilizar para montar campañas falsas de desinformación, armando perfiles falsos de personas. Y del otro lado tenemos todo lo que son los actores delictivos propiamente dicho, que lo utilizan como un medio de anonimato -una de las principales cosas que en teoría brinda la Deep Web- para cometer todo tipo de actos delictivos. Otro de los actores muy importante es el tema los medios de comunicación, que están en lugares que pueden llegar a ser comprometedores para informar algo o para sacar una noticia de un país. F.P.: Entonces, en una balanza imaginaria entre una probabilidad de acceso y una posibilidad efectiva de acceder a la información que hay en la Deep Web, ¿cuál dirías que es la que más pesa en la balanza? C.B.: Y… es muy difícil saberlo porque no hay un medio efectivo con el cual se pueda medir. Una de las cosas con la que vos tenés que contar siempre es decir ¿cómo hago efectivamente para medir cuánta gente entra? O ¿cuánta gente corresponde a un porcentaje de un gobierno o cualquier otra persona? Hoy eso en la Deep Web no existe justamente porque el medio está pensado para eso, para que esa información no exista. Un dato estadístico respecto a la Deep Web es extremadamente complicado. Sí se sabe que es muchísimo más grande que la “web normal”. Ahora, ¿qué gente la usa? ¿Qué tipo de gente la utilizada? y ¿en qué porcentaje? Hoy, y con las herramientas actuales, es imposible de contestar. F.P.: Me puse a pensar en el papel que tenían tanto los navegadores como los buscadores a la hora de circunscribirle un espacio a la Deep Web. De hecho hay navegadores que no te permiten acceder o hay buscadores que indexando diferentes contenidos arman cierta realidad virtual, construyen cierta realidad. ¿Cuál es el papel que vos le otorgarías? C.B.: Creo que hay que partir de la definición misma de la Deep Web y su mitología. La definición de Deep Web es: cualquier página, sitio o dirección IP que fue pensada para estar ocultA a los ojos normales de cualquier visitante o navegante. Entonces generalmente son páginas que primero no van a estar indexadas. Yo te quiero pasar información a vos a través de un medio determinado, y que esa información sea “secreta”, voy a querer que no esté indexada y que un tercero no acceda. Eso automáticamente ya le podemos llamar Deep Web, porque después hay distintos niveles: va a haber niveles que son más accesibles o menos accesibles. F.P.: Por los buscadores comunes…
C.B.: Por los buscadores comunes. Podés llegar a encontrar contenido que no es indexable o que cuando llegás a la página te pide un usuario y contraseña, porque el que lo hizo así quiso que fuera. De hecho hay millones de sitios, nosotros lo vemos en nuestro laburo común todos los días [se refiere a su trabajo en ODILA]. Después ya tenés otras redes como Tor, en donde se monta todo el contenido dentro de un servicio totalmente distinto a lo que es un sitio web tradicional. En base a eso, ¿qué información va a ser localizable? Dependiendo qué tan oculto lo haya puesto la persona y cuáles hayan sido los elementos de seguridad y protección que haya puesto la persona que la haya publicado. F.P.: Entonces, ¿vos ves una actitud o voluntad de los buscadores o navegadores de no indexar? C.B.: Por ejemplo, el caso de Google, de Bing o de Yahoo, ellos tienen muchísimas técnicas de indexación. En algunos casos pueden llegar a información que no necesariamente el que la publicó quiere que esté pública. Ahora, por otro lado, está la política que ellos están obligados a cumplir, que si esa información que indexaron no cumple con todos los requisitos legales y de “limpieza” que deberían tener, la sacan del índice, o no te la muestran en realidad: está pero no te la van a mostrar. No va a estar indexada, pero ellos la van a tener. F.P.: En ese caso vos ves, yo por mi parte no pero te pregunto, ¿no ves una relación entre lo que los buscadores permiten acceder y algún interés de las cúpulas gubernamentales y económicas? C.B.: China es el caso más común. Directamente dicta a los buscadores qué pueden buscar y qué no pueden buscar. Uno de los objetivos de muchas de las cosas que hoy existen en la Deep Web es justamente evitar los países que censuran. Ahora, ¿los gobiernos pueden llegar a tener acceso a eso o no a lo que publico en la Deep Web? Sí, tranquilamente. Otro tema particular respecto a eso es el FBI. El FBI hoy tiene controladas muchas de las cosas que están en la Deep Web, se sabe y se tiene acceso a eso cuando estás en investigaciones criminales, si no no vas a tener acceso. ¿Por qué sé eso? Porque he estado investigando, y ellos te dicen “mirá, tengo tal o cual información que salió de este lugar”, y cuando vos te ponés a buscar de dónde salió esa información es la Deep Web. Ellos tienen acceso porque las redes están infiltradas. Supuestamente, si vos estás en la Deep Web sos anónimo y entraste por Tor sos anónimo: no es tan así. Estás un poco más oculto, pero no estás anónimo. Todo depende de qué tan objetivo te transformás. ¿Qué significa esto? Si vos sos un high profile¸ que está siendo investigado por narcotráfico, por pedofilia, por una causa importante, y te transformaste en un blanco, tarde o temprano te van a encontrar. F.P.: ¿Creés que la Deep Web puede llegar a encarnar la idea de la neutralidad de la red, visto media a rajatabla? C.B.: Creo que la Deep Web es una forma de publicar o de exponer cosas que normalmente la gente no expondría en un medio público, por pudor, por miedo o por equis motivo. No lo vería como neutralidad en la red. Yo creo que ser neutral en la red significa que todos tenemos acceso a lo mismo, al mismo ancho de banda, al mismo tipo de información, y eso en la Deep Web no pasa. Hoy se utiliza cuando una persona quiere publicar algo que, en condiciones normales, no publicaría. Esto es todo lo contrario a neutralidad en la red, que es que cuando, yo quiera acceder o publicar alguna información, debería poder hacerlo sin reparos. En más, yo creo que si existiría neutralidad en la red no debería existir la Deep Web. La neutralidad de la red es una mentira más grande que una casa, no va a existir neutralidad mientras haya gobiernos que puedan controlar el ancho de banda o el acceso a la información. O igual, el tema de que, muchos años, los 60 y los 70 y hasta el día de hoy se sigue hablando, el tema de
que en internet la información debería circular en forma libre y demás. Eso es una mentira. Hoy está todo interceptado, es así de sencillo. F.P.: Creés entonces que la seguridad ha primado por sobre el acceso a la información. C.B.: No creo que les importe el tema de la seguridad. Yo creo que es mucho más el tema de poder controlar a los ciudadanos. Por ejemplo, la Ley Antiterrorismo en Estados Unidos fue una excusa creíble por los ciudadanos cuando en realidad lo que quieren hacer es espiar perfiles particulares. Y hoy por hoy China y Estados Unidos son el ejemplo de eso, se están tanteando mutuamente quién puede controlar y conocer más comunicaciones del país contrario, porque cualquier comunicación que puedan llegar a controlar es un punto de ventaja. En realidad si le empezás a darle vuelta a la Deep Web es esto, una herramienta medianamente poderosa como para comunicarse con gente que en principio no quiere aparecer como que se está comunicando con otra persona o para publicar cosas que no quieren que aparezcan publicadas. F.P.: Decís que no es tan fuerte o no es una herramienta tan poderosa por lo que decíamos antes: el poder que tienen los gobiernos para espiar. C.B.: Sí, exactamente. Yo creo que es una herramienta interesante para comunicar. De hecho nosotros la usamos en nuestro trabajo tradicional. Ahora, ¿vas a confiar el 100% en las herramientas? Obviamente que no. Hay un montón de otros recursos que sirven para garantizarte seguridad y si querés pasar totalmente desapercibido podés llegar a lograrlo. 100% seguro no hay nada. Tenés herramientas de criptografía, como PGP, GPG es otra. Cuando yo voy a mandarle un informe a un cliente, por ejemplo, no puedo hacerlo informe a través de la Deep Web porque primero, dentro de la Deep Web no sé quién está, capaz que hay un montón de otros delincuentes que van a aprovechar mejor ese informe incluso que vos que sos mi cliente. Ahí la Deep Web no es una alternativa de uso, F.P.: ¿Cómo te sienta a vos una visión tan apocalíptica o foucaultiana de la realidad de la internet? Nosotros cuando hablábamos de seguridad desde un punto de vista paranoico diciendo “todo es controlado y si alguien te quiere seguir o quiere saber dónde estás o quiere saber de qué estás hablando o cuáles son tus intereses es tan fácil como ver Facebook, ver Google o vigilarte durante una semana para saber lo que estás haciendo”. Eso antes sonaba paranoico. Después de que lo confirmo una persona que estaba adentro y que colaboró para hacer ese tipo de herramientas, caso Snowden, no hace más que confirmar esa visión, motivo por el cual hoy también la NSA o varios gobiernos están empezando a moverse en otros aspectos.