Introducción Tecnologías de la información ... - Fundación General CSIC

7 dic. 2011 - de terceros de las obras contenidas en esta revista, sin el consentimiento ...... inventos y programas con el fin de ganar en el juego del ajedrez.
5MB Größe 38 Downloads 13 vistas
||||||||||||||||||||

Cuadernos de la Fundación General CSIC / Diciembre 2011

Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre 2011 / Publicación trimestral / Precio: 9 euros

07

4

12

40

Introducción

Tecnologías de la información

Nuevos espacios de la información

62 Efectos sociales

LYCHNOS Cuadernos de la Fundación General CSIC

Nº 7 DICIEMBRE 2011

Dirección Reyes Sequera Edición Sira Laguna Maquetación DiScript Preimpresión, S. L. Ilustración Lola Gómez Redondo

Edita

Presidente Rafael Rodrigo Montero Director General Javier Rey Campos Dirección postal c/ Príncipe de Vergara, nº 9 - 2ª derecha; Madrid 28001 www.fgcsic.es

© Fundación General CSIC, 2011 Todos los derechos reservados. La utilización por parte de terceros de las obras contenidas en esta revista, sin el consentimiento previo y por escrito de su titular, podrá constituir una infracción civil o la comisión de un delito contra la propiedad intelectual. Imprime: Cyan S.A. Dep.Legal S.527-2010 ISSN: 2171-6463

En esta edición se utiliza papel sometido a un proceso blanqueado ECF, cuya fibra procede de bosques gestionados de forma sostenible certificada.

ÍNDICE LYCHNOS Nº 7 DICIEMBRE 2011

01 Introducción  . .................................................................................................... 4 Tecnologías de la información. Jesús Marco de Lucas  ............................................

6

02 Tecnologías de la información  . ................................................................. 12 02.1 La inteligencia artificial. Vicenç Torra  ................................................................ 02.2 Infraestructuras de computación científica. Isabel Campos  ............................. 02.3 Diez años construyendo una web semántica. Marco Shorlemmer  ................... 02.4 Criptografía: si no existiera, habría que inventarla. Gonzalo Álvarez  . ................

14 20 26 33

03 Nuevos espacios de la información  ........................................................ 40 03.1 Tiempo para nuevos modelos de comunicación y difusión de la ciencia. 03.4 Agnès Ponsati e Isabel Bernal  ......................................................................... 42 03.2 La aportación digital al universo de las enciclopedias. 03.4 José Antonio Millán  ......................................................................................... 50 03.3 La Internet del futuro y la I+D. Tomás de Miguel  .............................................. 55

04 Efectos sociales de las tecnologías de la información  . .................. 62 04.1 Los cambios culturales provocados por el software social. 03.4 José Luis Molina  ............................................................................................. 64 04.2 La recuperación de prácticas sociales en la Red. 03.4 Antonio Rodríguez de las Heras  . ..................................................................... 70 04.3 Móviles, mapas, satélites y redes sociales: gestión de crisis 2.0. 03.4 Marta Poblet  . .................................................................................................. 75

05 Tribuna  ................................................................................................................ 80 06 Noticias  . ............................................................................................................. 84 Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 3

01 Introducción

01 INTRODUCCIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Tecnologías de la información «Las tecnologías de la información se ocupan de la adquisición, procesado, almacenamiento y difusión de información en forma de voz, imágenes, texto o numérica, combinando técnicas de computación y telecomunicación basadas en la microelectrónica». Esta definición, original de 1958, y recogida por Wikipedia en su artículo «Information technology» puede ser un buen punto de partida para analizar la evolución de esta área del conocimiento.

Jesús Marco de Lucas Instituto de Física de Cantabria (CSIC y Universidad de Cantabria)

E  

n primer lugar hay que decir que esta es la historia de una revolución tecnológica, con un increíble impacto económico y social, y que ha requerido muchas aportaciones científicas. Pero no es la historia de una revolución científica. De hecho, la mayor parte de los conceptos clave en tecnologías de la información fueron concebidos en un periodo especialmente fructífero de colaboración directa entre matemáticos, físi-

6

cos e ingenieros, entre 1940 y 1960, por genios como John von Neumann, Alan Turing o Claude Shannon, que sentaron las bases de la Teoría de la Información y de la Ciencia de la Computación. Pero fue otro gran avance tecnológico y científico, el desarrollo del transistor y del circuito integrado, y el consiguiente nacimiento de la microelectrónica, como bien recuerda la definición citada por Wikipedia, lo que ha hecho posible la revo-

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

lución de la tecnología de la información (Information ����� Tech� nology, IT). Y otros muchos avances en paralelo, como la tecnología láser, el desarrollo de nuevos materiales, la fotolitografía o la microscopia electrónica han permitido su increíble expansión. La expansión IT: una expansión exponencial La potencia de un ordenador, que es el bloque básico en un sistema de informa-

ción, depende críticamente de la capacidad de su (micro) procesador para ejecutar las operaciones internas definidas por el código de un programa que se ejecuta sobre los datos que residen en su memoria. Esta capacidad depende tanto de la velocidad del reloj interno del procesador que marca su «ciclo», como de la complejidad y número de operaciones internas que es capaz de efectuar en ese ciclo, así como del tamaño de los da-

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| INTRODUCCIÓN 01

Jesús Marco de Lucas Profesor de investigación en el Instituto de Física de Cantabria, centro mixto CSIC-Universidad de Cantabria. Doctor por la Universidad de Cantabria, desarrolló su tesis en el campo de la Física Experimental de Altas Energías, dentro del experimento DELPHI en el acelerador LEP (Large Electron Positron Collider) del Laboratorio Europeo de Física de Partículas (CERN) en Ginebra, Suiza. Fue coordinador del grupo de búsqueda del bosón de Higgs en dicho experimento, participando en la combinación de los resultados de LEP que fijó el límite inferior actual de su masa, que es de aproximadamente 120 veces la masa del protón. Con el objetivo inicial de abordar las necesidades de computación de los experimentos del siguiente acelerador del CERN, LHC (Large Hadron Collider), participó en la creación de una red internacional de computadores para uso científico, utilizando la tecnología «grid»: LHC Grid Computing. Igualmente participó en la puesta en marcha de la red de e-Ciencia en España, abierta a todas las áreas de investigación, y en la creación de la infraestructura europea Grid, EGI.eu, que procesa actualmente más de un millón de trabajos diarios en 50 paises utilizando de modo coordinado más de 300.000 procesadores y con una capacidad de 100 millones de Gigabytes (100 Petabytes). Ha sido coordinador del proyecto europeo Interactive European Grid, que desarrolló herramientas que permiten usar esta infraestructura de modo interactivo y ejecutar aplicaciones paralelas de supercomputación.

Jesús Marco de Lucas.

tos que es capaz de procesar a la vez; está muy relacionada, por tanto, con el número total de transistores integrados en el chip. Desde 1970, la potencia de los procesadores ha crecido siguiendo la predicción de lo que se conoce como ley de Moore, directivo de Intel que sugirió que la potencia de cálculo se duplicaría aproximadamente cada dos años, gracias a la reducción de tamaño de los transistores y al aumento de la velocidad del reloj. El primer microprocesador, Intel 4004 de 1971, funcionaba a una frecuencia de 740 KHz y contaba con unos 2.300 transistores. Un procesador actual integra, en un chip de unos 2 cm2, más de 1.000 millones de transistores y puede operar a una frecuencia de hasta 5 GHz (millones

Ha ocupado distintos cargos de responsabilidad en el CSIC, siendo director del Instituto de Física de Cantabria entre 2004 y 2007 y coordinador del Área de Ciencia y Tecnologías Físicas entre 2008 y 2010.

de KHz). Una evolución exponencial: la potencia se duplica cada dos años o lo que es lo mismo se multiplica por un millón en 40 años (220 = 1.048.576). Este incremento de la potencia de computación se complementa con la creación de los supercomputadores, que acoplan la potencia de hasta cientos de miles de procesadores en un mismo sistema, permitiendo alcanzar una potencia del orden de petaFLOPS (billones de operaciones por segundo) a partir de procesadores capaces de realizar cientos de gigaFLOPS (cientos de millones de operaciones por segundo). Del mismo modo, la capacidad de transmisión de datos entre sistemas, o de comunicación, también ha mejorado

exponencialmente. De transferir cientos de bits (unidades básicas de información) por segundo a través de cables paralelos en 1970, se ha pasado a transferir 100 millones de bits por segundo, empleando fibra óptica. De nuevo un salto de un factor cercano a un millón en un periodo de 40 años. La capacidad de almacenamiento de información también ha crecido exponencialmente: los discos magnéticos han pasado de una capacidad de 2-3 Megabytes o millones de caracteres en 1971 a unos 3 Terabytes (3 millones de Megabytes) en 2011. Por último, la capacidad para captar información externa a través de instrumentación

conectada directa o indirectamente a los ordenadores también ha aumentado exponencialmente. Prácticamente cualquier adquisición de datos del tipo que sea se realiza hoy en día de forma electrónica y la información se procesa y almacena en sistemas de información. Por ejemplo, una cámara puede proporcionar imágenes de 20 millones de puntos 50 veces por segundo. Esta expansión «cualitativa», en cuanto a potencia individual, ha venido además acompañada de una expansión « cuantitativa » , referida al número de sistemas instalados. Se estima que actualmente hay más de mil millones de computadores instalados en todo el mundo, aunque ob-

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 7

01 INTRODUCCIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

viamente la inmensa mayoría son ordenadores personales. Cabe resaltar que los 500 supercomputadores más potentes del mundo suman algo más de diez millones de núcleos de procesador.

La simulación es una de las primeras y más importantes aplicaciones de los ordenadores

El impacto de las tecnologías de la información en la ciencia La investigación en prácticamente todas las áreas de la ciencia y la tecnología no sólo se ha beneficiado enormemente de las posibilidades de la IT, sino que en muchos casos ha pasado a ser una herramienta imprescindible. La simulación es una de las primeras y más importantes aplicaciones de los ordenadores. El método denominado de « Monte Carlo» fue desarrollado en 1946 por Stanislav Ulam en el Laboratorio Nacional de Los Álamos, junto con Von Neumann, para analizar la difusión de neutrones. Este método «simula» experimentos independientes empleando números aleatorios, como los que se obtendrían de una ruleta de casino, y permite aproximar de este modo la solución de integrales muy complejas. La simulación se emplea hoy en día para analizar toda la escala de procesos de la naturaleza: desde conocer los resultados esperados cuando dos protones colisionan en un acelerador, el

8

ten analizar grandes volúmenes de datos aplicando técnicas muy avanzadas, como, por ejemplo, el método de redes neuronales, para obtener modelos con mucha mejor capacidad predictiva. La combinación de las dos herramientas anteriores, simulación y análisis de datos, permite abordar de forma integral muchos problemas básicos pero complejos de la ciencia que de otro modo hoy en día no se podrían analizar.

comportamiento del plasma en un reactor de fusión, diseñar nuevos materiales a escala atómica, entender el plegamiento de proteínas, probar nuevos fármacos, comprender la evolución de un ecosistema o predecir el impacto de un tsunami hasta analizar la expansión del universo. Los investigadores utilizan los computadores como laboratorios «in-silico», donde probar «virtualmente» sus hipótesis. El análisis de datos es la segunda herramienta clave. Los ordenadores actuales permi-

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

¿Un techo de cristal en los sistemas IT? Este techo no hace referencia al grave problema de la baja proporción de mujeres que trabajan en el área IT sino al contraste entre la increíble expansión de la potencia de los sistemas informáticos, de su hardware, y la relativamente lenta evolución de las aplicaciones para los mismos, de su software. La base de cualquier aplicación informática es el lenguaje de programación, la forma de proporcionar al procesador las instrucciones que queremos que realice. En primer lugar, los tipos de instrucciones que pueden realizar los procesadores no han variado tan sustancialmente en estos últimos 40 años. Es cierto que se han extendido y optimizado muchas de las instrucciones

básicas, y la forma/orden de ejecutarlas para lograr mayor rendimiento. También se han introducido nuevas instrucciones específicas que permiten realizar, por ejemplo, gráficos de forma muy eficaz. Pero en principio podríamos ejecutar muchas de las aplicaciones actuales en ordenadores de hace 20 años, aunque solo en versiones básicas que requieran recursos mínimos. No se ha producido un cambio de paradigma de la programación. La evolución de los lenguajes iniciales de alto nivel, como Fortran, Cobol o C, hacia lenguajes orientados a objeto como C++ o Java, ha sido en cierto modo natural. No ha aparecido hasta el momento ningún lenguaje de alto nivel popular que permita establecer una comunicación más directa y eficaz con los sistemas informáticos, como en cierto momento parecían prometer algunas ideas del área de la inteligencia artificial. Las aplicaciones más populares, como procesado de datos (incluyendo el uso de bases de datos o de hojas de cálculo), simulación, visualización, procesado de texto, sonido o imágenes/video, simplemente han aumentado enormemente en potencia y en funcionalidad pero no han cambiado radicalmente su filosofía. La mayor evolución se ha dado

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| INTRODUCCIÓN 01

en la forma de interaccionar con el usuario, que ha pasado de la consola de caracteres a la pantalla táctil de alta resolución y basada en menús. Así, podríamos decir que los sistemas informáticos de hoy no son intrínsecamente más «inteligentes» que los de hace 40 años, pero sin embargo sí son capaces, debido a su gran capacidad, de proporcionar mejores respuestas. ¿O residirá la inteligencia justamente en elevar aún más esa capacidad de integrar adecuadamente las respuestas? El ordenador Deep Blue derrotó al campeón mundial de ajedrez Kasparov, en 1997, empleando principalmente su potencia de cálculo. Recientemente, otro ordenador de IBM, denominado Watson, fue capaz de vencer a los finalistas del juego jeopardy, empleando esta vez no solo su capacidad de cálculo sino una aplicación de procesado de lenguaje natural y de representación del conocimiento que incluye el análisis de hipótesis a contrastar, utilizando una relevante cantidad de información almacenada en su memoria (equivalente a unos 400 millones de páginas). Revolución en la Red Se podría decir que la expansión de Internet en los últimos

20 años sí que ha supuesto una verdadera revolución en el mundo IT. Las posibilidades, desafíos y riesgos de Internet solo empiezan a comprenderse ahora. La evolución de la Red, tanto en sistemas conectados como en la capacidad de esa conexión, aún está despegando. Así, la tecnología basada en comunicaciones ópticas o inalámbricas de muy alta velocidad está todavía en pleno desarrollo y limita, aunque cada vez menos, algunas de las aplicaciones posibles. Pero no es solo la capacidad de estas conexiones sino también la forma de establecerlas la que va a incidir en aspectos clave, como la seguridad y privacidad. La mayoría de los usuarios perciben Internet a través de su experiencia con el navegador web, en muchos casos accediendo a información de forma pasiva. El World Wide Web, basado en el protocolo HTTP, en el lenguaje HTML y en los identificadores URL que permiten compartir la información en la Red, nació en un entorno científico, en el CERN, en 1984, y se popularizó gracias al navegador gráfico Mosaic de la NCSA, precursor de los navegadores actuales, que permitía acceder a páginas de información

Los sistemas informáticos de hoy no son intrínsecamente más «inteligentes» que los de hace 40 años, pero sin embargo sí son capaces de proporcionar mejores respuestas

incluyendo tanto texto cómo imágenes. El desarrollo del Web sobre Internet ha permitido que los computadores puedan acceder, recopilar y procesar de forma cuasi automática información, tanto pública como privada, disponible en otros muchos computadores de cualquier parte del mundo. Los computadores, evidentemente configurados por sus administradores, pasan por tanto a ser «actores sociales» en esta red. La aparición de Google marca, en este sentido, un antes y un después. Google se posiciona en la Red como un sistema capaz de captar prácticamente toda la información disponible en las páginas web abiertas, pero además con potencia suficiente para procesarla y ofrecerla de forma que sea útil. De esta forma, Google pasa a establecer casi de facto un orden de « importancia» en la información, con toda la repercusión asociada. Para ello, Google opera con gigantescas «granjas» de ordenadores distribuidas por buena parte del mundo que se ocupan de copiar la información, procesarla y ofrecerla luego a los usuarios. Google, como buscador, es solo un primer ejemplo, aunque muy relevante, de las nueCuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 9

01 INTRODUCCIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Google, como buscador, es solo un primer ejemplo de las nuevas aplicaciones globales que permite Internet

El computador Watson de IBM. / Foto: Jesús Marco de Lucas.

vas aplicaciones globales que permite Internet y además es ofrecido al usuario con un interfaz (el navegador) de posibilidades limitadas. Las redes sociales que acumulan gigantescas bases de datos analizables en función de las acciones de sus usuarios o los ciber-ataques coordinados desde cientos de ordenadores en la Red son dos ejemplos, no tan distintos, de lo que se puede realizar hoy en día desde Internet.

10

e-Ciencia «La e-Ciencia se entiende co� mo el conjunto de actividades científicas desarrolladas me� diante el uso de recursos dis� tribuidos accesibles a través de Internet». Esta definición, que aparece en un libro blanco editado en 2004, no hacía más que reflejar una evolución que hoy en día parece consolidada. Desde un punto de vista tecnológico, además de la mejo-

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

ra de la conectividad en red, en los últimos años se han desarrollado nuevas tecnologías que apoyan esta evolución. Las tecnologías de «computación en la nube» (Cloud com� puting) abren el acceso de los usuarios bajo demanda a recursos remotos de todo tipo, desde almacenamiento masivo a supercomputación. La tecnología Cloud puede permitir además reducir gastos al consolidar recursos en grandes centros muy eficientes.

Las compañias más importantes en el mundo IT y en Internet (Amazon, Apple, Google e IBM) ofrecen este tipo de soluciones a diverso nivel. Una iniciativa anterior pero más ambiciosa tecnológicamente, la computación Grid, permite en cambio compartir de forma dinámica recursos de diferentes centros de computación, asignando recursos a nivel mundial a organizaciones «virtuales». Esta filosofía permite abordar grandes problemas de

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| INTRODUCCIÓN 01

computación de forma coordinada e intensa: durante la crisis de la gripe aviar en 2006 los computadores de la iniciativa Grid europea fueron capaces de analizar más de 300.000 compuestos químicos en busca de un inhibidor de la encima N1 que forma parte del virus, completando en menos de un mes una tarea que hubiera requerido más de 100 años en el ordenador de trabajo de un investigador. En la infraestructura Grid actual, un análisis similar se puede completar en menos de un día. Además, los centros Grid son capaces de transferir de modo automatizado grandes volúmenes de información (miles de Gigabytes de datos diarios) sobre las redes de alta velocidad que los unen, y ejecutar cientos de miles de programas de análisis de estos datos de forma automática. La potencia del Grid para resolver problemas que requieren grandes volúmenes de datos supera actualmente la de cualquier supercomputador. El último componente de la ­e-Ciencia que empieza a despegar en estos momentos es la instrumentación remota, incluyendo los sensores ubicuos que se pueden enmarcar en lo que se conoce como Internet of Things. La extensión del alcance de Internet a prácticamente cualquier región, a través de diferentes formas de conexión

y especialmente de bajo coste, como wifi/wimax y 3G, está permitiendo una explosión en la instalación de sensores de todo tipo que facilitan conocer con mucho mayor detalle tanto el medio natural (sensores atmosféricos, de calidad del medio, cámaras) como social (cámaras, posición GPS). La integración de esta información requiere nuevas herramientas y bases de datos masivas, así como una gran capacidad de almacenamiento y procesado. Además debe integrarse con la información proporcionada por múltiple instrumentación remota, cada vez más potente, como, por ejemplo, las imágenes proporcionadas por satélites. Por una IT al servicio de la ciencia y de los ciudadanos Si miramos atrás, la evolución de la IT en los últimos 40 años impresiona. La ciencia y la tecnología han impulsado una gran parte de esta evolución y también se han beneficiado de ella. En paralelo, las tecnologías IT han ido convirtiéndose en un elemento casi imprescindible en la educación, la industria, la Administración y la vida personal. Después de este «vértigo exponencial» quizás sea el momento de una reflexión. Una reflexión que debería partir de preguntas muy básicas pe-

ro importantes, como las siguientes: ¿Controlamos el impacto de las tecnologías IT en nuestra actividad diaria? ¿Es sostenible la evolución actual, especialmente en uso de energía en los cada vez más grandes centros de procesado de datos, pero también en el reciclado y en el uso de materiales agotables? ¿Somos conscientes de la dependencia que supone esta tecnología actualmente, a todos los niveles, y de su implicación económica, social y política? Algunas de estas preguntas pueden tener respuestas muy positivas, en los próximos años, de la mano de nuevos avances científicos y tecnológicos. Por ejemplo, el impacto de la nanotecnología con nuevos materiales, como el grafeno, puede propiciar el paso de la industria del silicio a la del carbono, reduciendo el consumo y aumentando las prestaciones de los sistemas actuales, aunque es difícil que varíe el contexto económico/industrial. Entender mejor cómo funciona nuestro cerebro podría acercarnos a nuevas formas de inteligencia artificial y propiciar un cambio de paradigma de programación, incluso de arquitectura de nuevos

computadores. La computación cuántica podría permitir resolver cálculos específicos en un tiempo mucho menor y con mucho menor consumo energético. Donde sí estamos a tiempo de lograr un cambio es en el uso de Internet, y especialmente de la información que circula y la forma en que se controla. Probablemente el «negocio» más importante y a la vez más delicado de los próximos años es el asociado a la gestión de nuestros datos, a nivel social e individual, datos profesionales y también personales, de consumo, relaciones, opiniones, etc. Nuestro propio trabajo queda reflejado en muchos casos en documentos que residen en la Red. El conocimiento y la gestión de estos datos escapan paulatinamente de nuestro control. Con aquel se va también la visión que podemos y debemos tener, como ciudadanos, de la evolución de nuestra sociedad, tanto económica como políticamente. Si no somos capaces de limitar adecuadamente el uso de estos datos por parte de los «proveedores de servicios» ni de saber «explotar» los mismos en beneficio global de la sociedad, habremos perdido una de las mejores oportunidades que nos brindan actualmente las tecnologías de la información.

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 11

02 Tecnologías de la información

02.1 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

La inteligencia artificial La inteligencia artificial (IA) es una de las ramas de la Informática, con fuertes raíces en otras áreas como la lógica y las ciencias cognitivas. Vicenç Torra nos conduce por sus definiciones y aplicaciones.

Vicenç Torra Instituto de Investigación en Inteligencia Artificial (CSIC)

L 

a inteligencia artificial (IA) es una de las ramas de la Informática, con fuertes raíces en otras áreas como la lógica y las ciencias cognitivas. Como veremos a continuación, existen muchas definiciones de lo que es la inteligencia artificial. Sin embargo, todas ellas coinciden en la necesidad de validar el trabajo mediante programas. H. A. Simon, uno de los padres de la IA, nos sirve de ejemplo, pues afirmó, en un artículo en 1995, que «el momento de la verdad es un programa en ejecución». Las definiciones difieren en las características o propiedades que estos programas deben satisfacer.

14

La inteligencia artificial nace en una reunión celebrada en el verano de 1956 en Dartmouth (Estados Unidos) en la que participaron los que más tarde han sido los investigadores principales del área. Para la preparación de la reunión, J. McCarthy, M. Minsky, N. Rochester y C. E. Shannon redactaron una propuesta en la que aparece por primera vez el término «inteligencia artificial». Parece ser que este nombre se dio a instancias de J. McCarthy. ¿Qué es la inteligencia artificial? La propuesta citada más arriba de la reunión organizada

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

por J. McCarthy y sus colegas incluye la que puede considerarse como la primera definición de inteligencia artificial. El documento define el problema de la inteligencia artificial como aquel de construir una máquina que se comporte de manera que si el mismo comportamiento lo realizara un ser humano, este sería llamado inteligente. Existen, sin embargo, otras definiciones que no se basan en el comportamiento humano. Son las cuatro siguientes. 1.  Actuar como las perso� nas. Esta es la definición de

McCarthy, donde el modelo a seguir para la evaluación de los programas corresponde al comportamiento humano. El llamado Test de Turing (1950) también utiliza este punto de vista. El sistema Eliza, un bot (programa software) conversacional es un ejemplo de ello. 2.  Razonar como las per� sonas. Lo importante es cómo se realiza el razonamiento y no el resultado de este razonamiento. La propuesta aquí es desarrollar sistemas que razonen del mismo modo que las personas. La ciencia cognitiva utiliza este punto de vista.

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.1

Vicenç Torra Doctor en Informática por la Universitat Politècnica de Catalunya (UPC) e investigador científico del Instituto de Investigación en Inteligencia Artificial (CSIC). Fue profesor titular de la Universitat Rovira i Virgili. Preside la Asociación Catalana de Inteligencia Artificial. Inició, en 2004, la organización del congreso Modeling Decisiones for Artificial Intelligence, que se celebra anualmente y tiene una evaluación de CORE B (el ranking de conferencias australiano). Fundador y editor de la revista Transactions on Data Privacy. Asimismo, es miembro del consejo editorial de las siguientes publicaciones: Fuzzy Sets and Systems, Information Sciences, Progress in Artificial Intelligence, Journal of Advanced Computational Intelligence and Informatics e International Journal of Computational Intelligence System.

Vicenç Torra.

3.  Razonar racionalmen� te. En este caso, la definición también se focaliza en el razonamiento, pero aquí se parte de la premisa de que existe una forma racional de razonar. La lógica permite la formalización del razonamiento y se utiliza para este objetivo. 4.  Actuar racionalmente. De nuevo el objetivo son los resultados, pero ahora evaluados de forma objetiva. Por ejemplo, el objetivo de un programa en un juego como el ajedrez será ganar. Para cumplir este objetivo es indiferente la forma de calcular el resultado. Además de las definiciones mencionadas más arriba, hay aún otra clasificación de la inteligencia artificial según cuáles son los objetivos finales de

Es autor, entre otros libros, de Fundamentos de Inteligencia Artificial y Del ába� co a la revolución digital.

la investigación en este campo. Son la inteligencia artificial fuerte y la débil. Inteligencia artificial débil Se considera que los ordenadores únicamente pueden simular que razonan, y únicamente pueden actuar de forma inteligente. Las partidarios de la inteligencia artificial débil consideran que no será nunca posible construir ordenadores conscientes, y que un programa es una simulación de un proceso cognitivo pero no un proceso cognitivo en sí mismo. Inteligencia artificial fuerte En este caso se considera que un ordenador puede tener una mente y unos estados mentales, y que, por tanto, un día será posible construir uno con todas las capacidades de la mente humana. Este orde-

nador será capaz de razonar, imaginar, etc. Temas en la inteligencia artificial Aunque existen puntos de vista diferentes sobre qué es la inteligencia artificial, hay un acuerdo importante sobre cuales son los resultados atribuibles a esta rama de la Informática, así como a la clasificación de los métodos y técnicas desarrollados. Repasamos a continuación los cuatro grandes temas de la inteligencia artificial. 1.  Resolución de problemas y búsqueda. La inteligencia artificial tiene como objetivo resolver problemas de índole muy diferente. Para poder cumplir este objetivo, dado un problema es necesario formalizarlo para poderlo resolver. Este tema se cen-

tra en cómo formalizarlo y las formas de resolución. 2.  Representación del co� nocimiento y sistemas ba� sados en el conocimiento. Es frecuente que los programas en inteligencia artificial necesiten incorporar conocimiento del dominio de aplicación (por ejemplo, en medicina) para poder resolver los problemas. Este tema se centra en estos aspectos. 3.  Aprendizaje automático. El rendimiento de un programa puede incrementarse si el programa aprende de la actividad realizada y de sus propios errores. Se han desarrollado métodos con este objetivo. Existen también herramientas que permiten extraer conocimiento a partir de bases de datos. 4.  Inteligencia artificial dis� tribuida. Durante sus primeros años la inteligencia artificial era monolítica. Ahora, con los ordenadores multiprocesador e Internet, hay interés en soluciones distribuidas. Estas van desde versiones paralelas de métodos ya existentes a nuevos problemas relacionados con los agentes autónomos (programas software con autonomía para tomar decisiones e interaccionar con otros).

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 15

02.1 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Además de los cuatro temas mencionados más arriba, existen otros que están fuertemente relacionados con la inteligencia artificial. Son los enumerados a continuación: a) El lenguaje natural. b) La visión artificial. c) La robótica. d) El reconocimiento del ­habla.

Como se verá a continuación, muchas de las aplicaciones más llamativas utilizan algunas de las técnicas relacionadas con estos temas. Algunas aplicaciones Hasta la fecha se han desarrollado muchas aplicaciones que utilizan algunos de los métodos o algoritmos diseñados en el área de la inteligencia ar-

tificial. En esta sección repasamos algunas de las aplicaciones existentes más vistosas o que han tenido relevancia histórica. Sin embargo, estas no son las únicas aplicaciones existentes, pues hay métodos desarrollados en esta rama de la Informática que se utilizan en aparatos de uso cotidiano o en el software empleado por empresas y corporaciones. Por ejemplo, por una parte, encontramos los algoritmos de búsqueda citados más arriba en los sistemas que construyen horarios teniendo en cuenta las restricciones de las entidades e individuos que participan en ellos. Por otra parte, los métodos de aprendizaje se usan para recomendar productos en las tiendas virtuales y para seleccionar los anuncios que se nos proporcionan al visitar ciertas páginas web. Otro ejemplo es el de los sistemas difusos, uno de los métodos de representación del conocimiento que han sido aplicados con éxito en problemas de control de muy diversa índole. Existen tanto cámaras digitales como lavadoras que incorporan en su interior un sistema difuso. Pasamos a ver a continuación algunas de las aplicaciones más relevantes.

ASIMO (Advanced Step in Innovative Mobility –paso avanzado en movilidad innovadora–) es un robot humanoide creado en el año 2000 por la empresa Honda. / Foto: Honda.

16

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

Aplicaciones en los juegos Durante décadas, la inteligencia artificial se ha dedicado a

los juegos con el fin de derrotar a los mejores jugadores humanos. Se ha considerado siempre que la habilidad de jugar era propia de la inteligencia. Las damas y el othello fueron derrotados primero. En el año 1997 fue el turno del ajedrez. Ahora prácticamente queda únicamente el go por batir. •  Las damas. Chinnok, un programa desarrollado desde el año 1989 por el equipo de Jonathan Schaeffer, de la Universidad de Alberta, se convirtió en el año 1994 en el campeón mundial de damas. El programa incluye una base de datos con aperturas de los mejores jugadores y otra de situaciones finales cuando quedan 8 o menos fichas en el tablero. El mismo equipo investigador demostró años más tarde, en el año 2007, que cuando se juega a las damas de forma perfecta ningún jugador puede ganar. Esto significa que una estrategia óptima por parte de los dos jugadores únicamente puede llevar a tablas. La dificultad de esta demostración estriba en que puede haber aproximadamente 500 3 1020 tableros posibles, o, en palabras, cincuenta mil trillones de tableros. El problema es un millón de veces más difícil que el de las 4 en raya. La información sobre este programa se puede en-

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.1

contrar en: http://webdocs. cs.ualberta.ca/~chinook/. •  El ajedrez. Durante muchos años se desarrollaron inventos y programas con el fin de ganar en el juego del ajedrez. Sin embargo, no fue hasta mayo del año 1997 cuando Deep Blue venció al campeón humano G. Kasparov en Nueva York. El programa desarrollado por IBM utilizaba hardware específico, bases de datos que permitían al programa jugar de forma perfecta en las situaciones finales con 7 o menos fichas en el tablero, y algoritmos de búsqueda del tipo minimax para encontrar la mejor solución en todos los otros casos. Se puede encontrar información sobre Deep Blue en la página web http://www.research.ibm. com/deepblue. •  El go. Mientras los otros juegos ya han sido derrotados, no existe en la actualidad ningún programa informático que tenga un nivel suficiente en go como para ganar a los buenos jugadores humanos. Hace años que se considera el go un juego mucho más difícil que el ajedrez. La dificultad estriba en las dimensiones del tablero (19 3 19, con 361 intersecciones), el número de movimientos posibles en cada tablero y la dificultad de definir

funciones que evalúen correctamente un tablero dado. Actualmente se han conseguido algunos programas que tienen un buen nivel en un tablero reducido de 9 x 9. Los programas que tienen un buen rendimiento no utilizan el mismo algoritmo de búsqueda que el ajedrez (el mínimax) sino el UCT. Aplicaciones en robótica Las aplicaciones en robótica se han desarrollado desde el principio de la informática con diversidad de objetivos: la automatización de procesos industriales, las aplicaciones militares y la exploración espacial. Mientras los primeros robots estaban orientados a realizar actividades repetitivas, actualmente se busca una mayor autonomía en relación a su capacidad de tomar decisiones. La evolución de la robótica también ha pasado por su intento de construir robots con forma humana y con capacidad de andar. A continuación se enumeran algunos de los logros más importantes en esta área. •  Los robots mascotas. Existen en la actualidad muchos robots para diversión o juegos. Podemos subrayar dos de ellos: los japoneses Paro y Aibo. El primero es un robot terapéutico para reducir el estrés de los pacientes y que permite incrementar su

socialización. Aibo, presentado en el año 1999 e implementado y comercializado por SONY, es un robot en forma de perro con un sistema de visión y programable. •  Los robots de exploración y reconocimiento. Se enviaron a la superficie de Marte dos robots, el 3 y el 24 de enero de 2004 respectivamente. Son los robots Spirit y Opportunity. Spirit estuvo activo hasta el año 2010 y Opportunity aún está en funcionamiento. El 26 de noviembre de 2011 se mandó un tercer robot, el Curiosity, que debe llegar a Marte en agosto de 2012. Este robot tiene una navegación automática media de 30 m/hora (y máxima de 90 m/hora). Se espera que su misión dure dos años. •  Los robots bípedos. P3 fue el primer robot bípedo capaz de caminar. Su construcción, realizada por la compañía Honda, acabó en el año 1997. En octubre del año 2000, la misma compañía presentó el robot ASIMO (de Advanced Step in Innovative Mobility). Este robot es la culminación de la serie de robots P, todos desarrollados con el objetivo de disponer de robots con forma y capacidades motrices humanas. ASIMO es un robot bípedo que puede an-

dar y correr. Además puede reconocer objetos móviles, posturas y gestos a partir de la información subministrada por sus cámaras. Aplicaciones en vehículos inteligentes Se han construido muchos tipos de vehículos con diferentes grados de autonomía. En el apartado anterior ya se mencionaron algunos robots. Aquí se señalan vehículos que pueden llevar pasajeros. •  El metro de la ciudad japo� nesa de Sendai (仙台地下鉄). Este metro, desarrollado en el año 1987, fue el primero en el mundo con una conducción totalmente automatizada. Actualmente, son muchas las líneas de metro sin conductor en el mundo. El sistema fue realizado bajo la dirección de Seiji Yasunobu, miembro del laboratorio de Desarrollo de Sistemas de Hitachi. Está basado en técnicas de lógica difusa. •  Coches autónomos. Stanley fue el coche ganador de la carrera «2005 DARPA Grand Challenge». El coche, autónomo y sin conductor, completó el recorrido de 212,4 km en el desierto de Mojave, en los Estados Unidos, en 6 horas y 54 minutos. En el 2007 se realizó la «2007 DARPA Grand Challenge» que consistía en recorrer 96 km en área urbana (en

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 17

02.1 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

la base de las Fuerzas Aéreas George en California). Los coches circulaban procesando en tiempo real las reglas de circulación del estado de California. El 20 de septiembre de 2011, el coche Made in Germany de la Universidad Libre de Berlín se desplazó por las calles de esta ciudad en un viaje de 80 km. El recorrido fue entre el Centro de Congresos Internacional y la Puerta de Brandenburgo, en el centro de Berlín. El automóvil es completamente autónomo, aunque algunas informaciones, como la velocidad del recorrido, le vienen dadas y no son recogidas por sus cámaras. El coche reconoce la presencia de peatones y de semáforos. Para información del coche alemán puede consultarse la siguiente página web: http://autonomos.inf.­ fu-berlin.de.

Durante décadas, la inteligencia artificial se ha dedicado a los juegos con el fin de derrotar a los mejores jugadores humanos

•  Los vehículos aéreos no tripulados (UAV, Unmanned Aerial Vehicle). El vehículo aéreo no tripulado Global Hwak fue el primero en cruzar el Océano Pacífico sin paradas. Realizó el trayecto de Estados Unidos (California) a Australia en abril del año 2001. Sin embargo, aún necesita un piloto en una estación terrestre y otros operadores para analizar los datos. De acuerdo con Weiss (2011), el principal problema de estos sistemas autónomos es que,

18

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

Paro, comercializado en España con el nombre Nuka, es una foca robot de origen japonés, que lleva desarrollándose desde 1993. / Foto: página web de parorobot.

aunque pueden recoger muchos datos, les falta todavía capacidad de proceso para tratar los datos en tiempo real y actuar de forma inteligente conforme a estos datos. Conclusiones La informática ha avanzado enormemente desde sus inicios hace 70 años. La potencia de cálculo se ha estado multiplicando por dos cada 18 meses, siguiendo la ley de Moore. Se cree que, si la ley de Moore se sigue cumpliendo, para el año 2030 la capacidad de cálculo de un procesador corresponderá a la de una persona. A su vez, la cantidad de información almacenada digitalmente en la actualidad es enorme. Los buscadores co-

mo Google almacenan millones de copias de las páginas web existentes, y los servicios de correo de las compañías acumulan por millones nuestros mensajes. Las redes sociales registran cuáles son nuestros intereses y nuestras amistades. Las compañías guardan cualquier información, por insignificante que pueda ser, por si en el futuro les puede ser de alguna utilidad. Naturalmente, un aumento de la velocidad de computación y una mayor capacidad de almacenaje implicará que los sistemas dispongan de más recursos para tomar decisiones y que estas decisiones se realicen de manera más informada y, a su vez, de manera más personalizada.

La planificación estratégica es un ejercicio sistemático de análisis y reflexión que nos permite aclarar dónde estamos, lo que pretendemos conseguir y cómo nos proponemos realizarlo. La FGCSIC ofrece su experiencia a todas aquellas organizaciones que deseen aplicar una lógica estratégica de planificación con una filosofía propia y adaptarlo al mundo académico, científico y tecnológico.

Contáctanos en www.fgcsic.es

02.2 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Infraestructuras de computación científica En este artículo, la autora nos muestra como la historia de las infraestructuras de computación científica está ligada a una simbiosis entre ciencia y tecnología. La simulación numérica en ordenadores nos ha permitido entender mecanismos fundamentales de la naturaleza, usando la simulación de modelos teóricos allá donde el experimento no es factible.

Isabel Campos Instituto de Física de Cantabria (CSIC y Universidad de Cantabria)

E  

n 1985 en el auditorio de los Laboratorios BELL, Richard Feynman, seguramente el físico más brillante de la segunda mitad del siglo XX, llamaba a la reflexión con su estilo provocador a una audiencia repleta de científicos e ingenieros declarando que él no creía en la computación como ciencia («I do not believe in Computing Science»). Argumentaba Feynman que la

20

ciencia es el estudio del comportamiento de la naturaleza, mientras que la ingeniería es el estudio de las cosas que fabrica el hombre, por eso la computación en sí misma, pertenece al ámbito de la ingeniería. Feynman se caracterizó por saber aplicar una enorme intuición física a muchas áreas de conocimiento, era un científico multidisciplinar. En una

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

de sus últimas tareas formó parte de la Comisión Rogers, encargada de analizar las causas del desastre del transbordador Challenger. Feynman demostró, en una famosa intervención televisiva, cómo las anillas de las juntas de los motores del transbordador perdían la flexibilidad a temperaturas bajo cero (como las que se registraron la noche anterior al lanzamien-

to) y se rompían como el cristal, provocando la explosión que acabó con el transbordador y la vida de sus tripulantes en 1986. En general es poco conocido que Feynman, premio Nobel en Física por una teoría que explicaba el comportamiento de los quantos de luz, algo que en principio parece tan lejos de la aplicabilidad cotidia-

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.2

na, fuese capaz de resolver el puzzle nada menos que de la tragedia del Challenger. En particular en el tema que nos ocupa, Feynman trabajó también en el diseño de los primeros superordenadores paralelos que existieron a finales de los años 70, y formó parte de manera fundamental del equipo que construyó un ordenador masivamente paralelo, la Connection Machine.

Isabel Campos Se doctoró en Física por la Universidad de Zaragoza en 1998 y es científico titular del CSIC desde el año 2008 en el Instituto de Física de Cantabria. Durante su carrera de profesional ha trabajado en el Deutsches Elektronen Synchrotron (Hamburgo) y en el Laboratorio Nacional de Brookhaven (Nueva York) en el desarrollo de aplicaciones científicas en entornos de computación de alto rendimiento. Antes de incorporarse al CSIC fue responsable de gestión de aplicaciones científicas y Grid computing del Centro de Computación Leibniz en Munich, el mayor de Alemania y uno de los más importantes de Europa. En su trayectoria profesional se encuentran contribuciones a las áreas de simulación de física de partículas, sistemas complejos y fusión nuclear. Cuenta en su haber con mas de 40 publicaciones en revistas de impacto elevado y alrededor de 100 presentaciones a congresos internacionales. Actualmente es la directora de la Infraestructura Española de Computación Grid (es-NGI) y forma parte del comité ejecutivo que dirije la Infraestructura Grid Europea (EGI).

Computadores en general Un ordenador es un dispositivo capaz de recibir información, procesarla y devolver esa información procesada. Un ordenador moderno es capaz de hacer cosas tan dispares como ganar al ajedrez al campeón del mundo de turno y predecir el tiempo que hará mañana. Sin embargo, en esencia, todos los ordenadores son iguales. En todos ellos se reproduce una misma arquitectura; un diseño de máquina digital que data del año 1945 y que se debe al matemático húngaro John von Neumann (ver figura 1).

La implementación tecnológica se hace usando transistores digitales sobre silicio y los diseñadores de hardware se han esforzado por encontrar soluciones cada vez más compactas. Una mayor condensación de transistores nos permite hacer más operaciones por segundo, es decir, aumentar la frecuencia con que el procesador realiza una operación lógica a cada «tic» de su reloj.

En la llamada máquina de Von Neumann hay una memoria donde alojar información, una unidad de control para gestionar la entrada y salida de información y una unidad aritmética capaz de realizar operaciones lógicas sobre esa información.

Como fruto de este esfuerzo, durante los últimos 30 años, cada año y medio ha sido posible doblar el número de transistores en los chips de los componentes internos de los ordenadores. En esto consiste la llamada ley de Moore, que no es ninguna ley de la natura-

En esencia, todos los ordenadores son iguales. En todos ellos se reproduce una misma arquitectura; un diseño de máquina digital que data del año 1945 y que se debe al matemático húngaro John von Neumann

Isabel Campos.

leza sino una predicción, aunque ciertamente visionaria, que uno de los fundadores de Intel, Graham Moore, hizo en el año 1965 sobre la evolución de la tecnología de integración de transistores. La predicción de Moore se ha ido cumpliendo razonablemente. Sin embargo hace ya varios años que la realidad no es exactamente así. Se sabía desde el principio que hay límites prácticos a la hora de hacer que un ordenador aislado alcance la velocidad suficiente para resolver problemas arbitrariamente complejos. Estos límites tienen que ver con la velocidad máxima de transmisión de información:

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 21

02.2 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

/// Figura 1. Esquema de la arquitectura de Von Neumann junto a la placa base de una máquina moderna ////////////////////////////////////////////////////////////////////////////////////////

Los ordenadores paralelos Desde finales de los años 70 era ya claro para la comunidad científica que la resolución de problemas muy complejos iba a requerir la utilización de varios ordenadores trabajando conjuntamente para repartirse la carga de la simulación.

MEMORIA DE DATOS Y PROGRAMAS

Unidad aritmética y lógica

Unidad de control

acumulador

Entrada

la velocidad de la luz (30 cm/ nanosegundo) o el límite de transmisión en el cobre (9 cm/ nanosegundo). Además, a escalas muy pequeñas las reglas de la física clásica ya no se cumplen y los electrones, portadores de la información en los transistores, dejan de comportarse como partículas y comienzan a comportarse como ondas. Entraríamos en el terreno de investigación de la llamada computación cuántica, todavía en un estado muy prematuro de desarrollo. La miniaturización de los transistores impone, además de los límites físicos, los económicos puesto que su coste se incrementa. Es por ello por lo que las arquitecturas más modernas han preferido por replicar estructuras internas de la CPU (central processing unit) antes que llevar la miniaturización al extremo. Esta es la filo-

22

sobre los desarrolladores de sistemas operativos y códigos.

Salida

sofía de las arquitecturas tipo multinúcleo, en inglés multico� re, que ahora poseen la practica totalidad de las CPU. Las mejoras en el rendimiento de la CPU ya no vienen, por tanto, de hacer cada vez más pequeña la superficie del chip sino de introducir más de una unidad de cálculo, o core, en cada CPU con lo que se consigue que la frecuencia total se multiplique por agregación. De hecho la frecuencia por co� re lleva prácticamente paralizada en torno a los 3,4GHz en los últimos años. Es necesario puntualizar que el ahorro económico que supone la arquitectura multico� re se hace a expensas de una mayor complejidad en la programación: la carga de trabajo se tiene que distribuir entre los cores. Es decir, hay un trabajo significativo que ahora recae

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

Las máquinas basadas en hardware muy especializado son máquinas en la frontera del conocimiento tecnológico

A mediados de los años 80, la empresa Thinking Machines Corporation, una de las pioneras en el diseño de ordenadores paralelos, comenzó a producir máquinas basadas en la agregación de miles de procesadores conectados entre sí literalmente mediante cables. Eran las llamadas Connection Machine (CM), de las que hubo cinco generaciones, la última de ellas en 1993. A través de los cables, los procesadores se transmitían la información necesaria para cooperar en los cálculos. En la CM la unión hacía la fuerza: la frecuencia de cada procesador individual no era alta (entre 10 y 30 Hz) pero su ventaja residía en una poderosa red de comunicaciones interna, uniendo 64.000 procesadores que podían así cooperar para resolver un problema. El router, que es la parte del hardware que permite a los procesadores comunicarse,

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.2

fue analizado por Feynman, quien se encargó de calcular mediante métodos algebraicos (redes de Hopkins) la topología óptima para que una red de 64.000 procesadores estuviese interconectada de manera que se evitase el colapso por sobrecarga de información en los cables.

mediante la simulación por ordenador. Por ejemplo, la masa del protón. En la práctica, el cálculo de la masa del protón mantendría ocupado durante muchos años a cualquier superordenador de la época de Feynman, y varios años a cualquier super­ordenador de nuestra época.

¿Por qué se preocupaba Richard Feynman de algo tan alejado de la física teórica? La respuesta es que quería estudiar cromo dinámica cuántica (QCD) y aplicó sus conocimientos para avanzar en la construcción de la máquina necesaria para ello.

Feynman escribió un código para simular QCD en la CM. Puesto que solo conocía el lenguaje BASIC, desarrolló una versión paralela de BASIC y, primero, hizo la simulación «a mano» para estimar cómo de rápido iría en la máquina.

La QCD es la teoría que describe cómo se comporta el mundo subatómico de partículas, como los protones. Usando QCD es posible calcular los valores de cantidades medibles físicamente

Como anécdota, cabe decir que las CM fueron máquinas visualmente muy atractivas. Podemos verlas en la película Parque Jurásico, en la que una CM-5 (foto 1) aparece como el «ordenador responsable de la isla».

La historia de la Connection Machine es un ejemplo de una simbiosis frecuente en la historia de la computación científica: colaboración entre ingenieros y físicos para diseñar hardware optimizado para uso científico. El caso extremo de esta colaboración se plasma en los llamados ordenadores dedicados, máquinas en las que la electrónica está volcada en resolver un problema científico particular, aun a expensas de resultar menos eficientes para cálculos generalistas. Especial mención merecen las colaboraciones dedicadas a diseñar máquinas para resolver QCD: el grupo APE con base en la Universidad de Roma, con ramificaciones en España en la Universidad de Zaragoza, o el grupo QCDOC, de la Universidad de Columbia, en los EEUU. Estos grupos están desarrollando ordena-

dores dedicados a QCD desde mediados de los años 80. En los años 80 y 90, la empresa CRAY producía también superordenadores con éxito pero con una visión distinta: muy pocos procesadores pero muy potentes. Por ejemplo, la serie de CRAY-XMP (1982-1985) consistía en máquinas de entre uno y cuatro procesadores máximo, con una frecuencia de alrededor de 120MHz. En 1988, la empresa estatal Construcciones Aeronáuticas S.A. (actual EADS España) compró el primer superordenador que se instaló en España, un CRAY 1-S/2000. La comunidad científica española tenía acceso 975 horas al año. El resto del tiempo estaba dedicado a estudiar aerodinámica en aviones, sustituyendo a la muy costosa experimentación en túneles de viento. Un CRAY-XMP costaba en el año 1985 unos 15 millones de dólares, y tenía un potencial de cálculo de 420 millones de operaciones de decimales por segundo (420 MegaFlop/s). Claramente, una compra de este tipo era una inversión posible solo a nivel nacional.

Foto 1. A la Izquierda, Connection Machine-5. Las luces rojas representan conexiones activas entre procesadores. A la derecha, la imagen de su contemporáneo, el CRAY-XMP.

La era de los grandes clústers Las máquinas basadas en hardware muy especializado son máquinas en la fronte-

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 23

02.2 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

/// Figura 2. Esquema del K-Computer, el mayor superordenador del mundo en 2011 //////////////////////////////////////////////////////

ra del conocimiento tecnológico, costosas de producir y, sobre todo, muy específicas desde el punto de vista de su explotación. El fabricante, junto con el hardware, tenía que desarrollar un lenguaje de programación ad hoc para la máquina que tuviera en cuenta el hardware, compiladores o incluso el sistema operativo. Para utilizarlas era necesario aprender su lenguaje de programación y con ello reescribir los códigos de simulación. No es de extrañar, por tanto, que el hardware/software de estos sistemas haya evolucionado hacia máquinas menos especializadas en general, con sistemas operativos compatibles basados en UNIX y capaces de usar len-

24

guajes de programación estándar como el C, aun a expensas de sacrificar entre un 10-20% de rendimiento con respecto a lenguajes adaptados al hardware.

Actualmente la computación científica se realiza mayoritariamente en Clusters Beowulf, unión de varios ordenadores construidos con componentes comerciales conectados mediante un switch que posibilita el intercambio de datos entre ellos

ratamiento del hardware muy importante en los costes de producción debido a la competencia entre fabricantes para ofrecer productos con más rendimiento, sobre todo orientados al mercado de juegos por ordenador. Actualmente la computación científica se realiza mayoritariamente en Clusters Beowulf. Este es el nombre genérico que reciben las máquinas formadas por la unión de varios ordenadores construidos con componentes comerciales conectados mediante un switch que posibilita el intercambio de datos entre ellos. El primero de ellos fue ensamblado en 1994 en los Estados Unidos.

En paralelo el software ha evolucionado en el mismo sentido. Dos hechos fundamentales fueron el desarrollo del software de código abierto con el proyecto GNU y la introducción de Linux como sistema operativo, convertido ahora en un estándar de facto en el mundo científico.

Los fabricantes siguen incluyendo en sus productos opciones dirigidas a los clientes del sector científico, sobre todo enfocadas a una mejor eficiencia a la hora de hacer cálculos con decimales. Pero en esencia todos los superordenadores que se presentan en el mundo como tales son Clusters Beowulf, cada vez con más procesadores y con un switch más rápido.

Este proceso de simplificación fue en gran parte consecuencia del auge de la informática comercial a partir de mediados de los años noventa, lo que indujo un aba-

En el momento de escribir este artículo, el mayor Cluster Beowulf del mundo es el KComputer, del centro de investigación RIKEN (Japón). El K-Computer consiste en

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.2

El avance de la ciencia básica suele ir en paralelo con el desarrollo de soluciones innovadoras que permitan a los científicos abordar problemas complejos

550.000 cores, capaces de alcanzar una potencia combinada de ocho Petaflops, es decir ocho millones de millones de multiplicaciones de números decimales cada segundo. En España, MareNostrum, la máquina emblema del Centro Nacional de Supercomputación, cuenta con 10.000 cores, y es el sistema más grande instalado en nuestro país. Los centros de investigación con una componente computacional importante albergan también Clusters Beowulf tipicamente de entre 1.000 y 4.000 cores. Infraestructuras de computación distribuída El avance de la ciencia básica suele ir en paralelo con el desarrollo de soluciones innovadoras que permitan a los científicos abordar problemas complejos. Si la realización de un proyecto científico necesita de una infraestructura que no existe en ese momento, los científicos desarrollarán una solución ad hoc para resolverlo. Un ejemplo paradigmático fue la invención de la Web. En el año 1990, en el CERN (el Laboratorio Europeo de Física de Partículas), un grupo liderado por Tim Berners-Lee diseñó un sistema de intercambio de ficheros para los científicos del

CERN, que hoy conocemos como la World Wide Web. A finales de los 90 surgió otra idea visionaria en el sentido que nos ocupa: igual que compartimos información en la Web, usando la conexión a Internet para transmitirla, ¿por qué no compartir por Internet la propia infraestructura de computación? Así se concibió la creación de una infraestructura global de computación distribuida, un Grid, que daría servicio para empezar a todos los investigadores de física de partículas del mundo que necesitasen analizar datos del nuevo acelerador del CERN, el Large Ha� dron Collider (LHC). La infraestructura Grid ha evolucionado en sus modos de organización: sería simplista pensar que es equivalente compartir información (la Web) y compartir recursos de computación (el Grid), cuando los modelos de coste son tan distintos. Lo importante es que es la tecnología Grid posibilita compartir, si se desea, la infraestructura. En Europa tenemos una infraestructura única que da soporte a los científicos europeos: la European Grid In� frastructure (EGI), formada por la unión de las infraestructuras Grid nacionales de 38 países europeos.

La infraestructura de EGI consiste en más de 250.000 co� res y más de 150 millones de GigaBytes. La Península Ibérica representa aproximadamente el 10% de esta infraestructura. Durante el año 2011 la infraestructura de EGI ha proporcionado más de 1.500 millones de horas de CPU, entre otras cosas para analizar los datos del LHC: la mayor máquina jamás construida por el hombre necesita también la mayor infraestructura de computación nunca diseñada para asistir a los científicos en la búsqueda de la estructura fundamental de la materia. La tecnología computacional se ha desarrollado en los últimos 30 años de manera asombrosa. Un hecho que avala esta afirmación es que nuestros teléfonos móviles tienen una capacidad de cálculo equivalente a la del primer superordenador que se instaló en España en 1988. Mirando al futuro, vamos a terminar como empezamos, citando a Feynman cuando introdujo conceptualmente lo que conocemos como computación cuántica: « ... hay mucho margen para hacer los computadores más pequeños, no hay nada que yo haya visto en las leyes de la física que nos impida hacer un computador a nivel atómico».

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 25

02.3 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Diez años construyendo una web semántica Por web semántica se entiende una forma de organizar el contenido en la Web que mejore la cooperación entre computadoras y humanos. Esto pasa por avanzar de una web de documentos a una web de datos enlazados en la que se puedan ofrecer novedosos servicios que hagan uso del potencial de combinar e interrelacionar datos de diversa índole y procedencia.

Marco Shorlemmer Instituto de Investigación en Inteligencia Artificial (CSIC)

E  

n mayo de 2001 la revista Scientific American publicaba un artículo en el que se proponía una nueva forma de organizar el contenido en la Red que desencadenaría una avalancha de posibilidades y, en consecuencia, revolucionaría Internet. El primer autor del artículo era Tim Berners-Lee, el físico del CERN que en 1980 desarrolló un sistema de vinculación y transferencia de documentos en red que acabó convirtién-

26

dose en la World Wide Web que todos conocemos hoy. A la nueva forma de organización de la Web que los autores de dicho artículo pregonaban la llamaron web semántica. Han pasado más de diez años y es bien seguro que la Web ha revolucionado muchos aspectos de nuestras vidas cotidianas, pero la revolución que se preveía en el artículo del Scien� tific American todavía no se ha producido, por lo menos no en

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

su totalidad. Sin embargo, la visión de una web semántica que describieron Berners-Lee y sus colaboradores desencadenó toda un línea de proyectos de investigación, y, precisamente, en octubre pasado se celebró en Bonn, Alemania, la 10ª edición del Congreso Internacional sobre la Web Semántica. Pero, ¿qué significa que la Web sea semántica? Y ¿en qué medida la semántica en la Web ya ha revolucionado o acabará por revolucionar Internet?

Todos estamos bastante familiarizados con la Web y sobre cómo operar con ella. Abrimos un navegador (por ejemplo, Explorer, Firefox o Safari) e introducimos la dirección de la página que deseamos consultar o bien pedimos a un buscador (por ejemplo Google o Yahoo!) que nos determine las ubicaciones de documentos en la Web que contengan una combinación de palabras deseada y que nos las ordene por importancia.­

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.3

Marco Schorlemmer Doctor en Informática por la Universidad Politécnica de Cataluña, actualmente es científico titular en el Instituto de Investigación en Inteligencia Artificial del CSIC y profesor asociado de la Universidad Autónoma de Barcelona. Ha sido investigador en el SRI International y en la Universidad de Indiana, en EEUU, y también en la Universidad de Edimburgo, en el Reino Unido. Es autor de numerosas publicaciones en revistas especializadas y congresos internacionales sobre especificación formal y demostración automática de teoremas, representación y razonamiento diagramáticos, coordinación distribuida del conocimiento, interoperabilidad semántica de ontologías y sistemas multiagente. Ha dirigido varios proyectos nacionales y europeos y ha sido miembro de numerosos comités científicos de conferencias internacionales, entre ellas las conferencias sobre sistemas multiagente (AAMAS), la web semántica (ISWC) y la World Wide Web (WWW).

Marco Schorlemmer.

A partir de ahí podemos ir saltando de una página web a otra a través de hipervínculos –estas palabras, frases, imágenes o iconos que generan la descarga automática de otra página web cuando pinchamos sobre ellos–. Esto es lo que se conoce como la web de primera generación o Web 1.0: personas con conocimiento especializado de diseño y composición de páginas web crean los documentos con su contenido y definen los hipervínculos que los entrelazan; los usuarios no expertos son fundamentalmente consumidores de información. Leen noticias, consultan diccionarios, visualizan imágenes o vídeos o compran productos. En la web de segunda generación, la Web 2.0, los usuarios no expertos, además de

consumidores, pueden ser también generadores de contenidos y proveedores de servicios. Mediante blogs, por ejemplo, se pueden escribir y compartir reflexiones periódicas, y los lectores pueden añadir comentarios o nuevos enlaces relevantes; con Wikipedia, millones de personas construyen una gran enciclopedia multilingüe que constantemente es actualizada y ampliada por los propios usuarios; a través de redes entre pares, como originalmente Napster, BitTorrent o eMule, se comparten películas y ficheros de música; y últimamente, con la irrupción de las redes sociales —Facebook, Tuenti o Twitter—, la Web se ha convertido en un espacio global de participación e interacción entre usuarios. La web semántica viene a ser la tercera generación de la

Web, la Web 3.0, una extensión de la Web actual en la que los contenidos están organizados de forma que no solo los humanos sino también las computadoras sean capaces de procesar su significado —por eso lo de semántica— posibilitando así una mejor cooperación entre computadoras y humanos. La nomenclatura Web 1.0, 2.0 y 3.0 es seguramente artificiosa, ya que de hecho no se trata de nuevas versiones de la Web, sino de la misma web de siempre pero con niveles añadidos de funcionalidad. De una web de documentos a una web de datos Para alcanzar esta visión de una web semántica de entrada no se deberían enlazar únicamente documentos de texto, imágenes u otro contenido multimedia sino directamente

los datos sin procesar. En el sitio web del World Factbook de la CIA, por ejemplo, podemos visualizar páginas web con información sobre los diferentes países del mundo. Encontraremos datos sobre la geografía, la población, la estructura política y la economía de un determinado país procesados para ser visualizados como páginas web que serán leídas por seres humanos. En cambio, si se publicasen los datos no únicamente para el consumo humano sino directamente en un formato para ser procesados por computadoras podríamos combinar y comparar datos de forma automatizada. Pero este potencial no reside únicamente en la publicación de los datos sino en enlazar datos de un repositorio con los de otro a través de enlaces como los hipervínculos que conocemos de las

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 27

02.3 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

páginas web. El conjunto de buenas prácticas para la publicación y el enlace de datos estructurados en la Web se conoce como Linked Data, datos enlazados. He aquí sus puntos principales: 1.  Cada dato –o cada recurso, como suele llamarse a la información en la Web– debe tener un identificador único que lo distingue de cualquier otro dato publicable en la Web. Es lo que se conoce como Universal Resource Identifier, o URI. De hecho muchos usuarios de la Web ya estamos familiarizados con lo que es un URI. Por ejemplo, la dirección https://www.cia. gov/library/publications/ the-world-factbook/geos/ sp.html es el URI que identifica la página web con la información sobre España en el World Factbook. Pero, para enlazar datos, los URI deben identificar no solo a páginas sino a los elementos concretos que componen los datos. Así, pues, para publicar el hecho de que España y Francia compartan frontera debemos tener unos URI que identifiquen «España», «comparte frontera con» y «Francia», respectivamente. 2.  Al mismo tiempo, estos identificadores deben ser desreferenciables, lo que

28

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

significa que el identificador del recurso apunta a su vez al lugar en la Web donde podemos acceder al mismo. La desreferencia de un URI (literalmente « deshacer la referencia») se realiza mediante el protocolo HTTP (Hypertext Transfer Proto� col) que posibilita los hipervínculos en la Web: cuando pinchamos sobre uno de estos vínculos, el protocolo HTTP toma el URI y a través de él es capaz de acceder al contenido al cual está apuntando. Lo mismo debe ocurrir ahora con los recursos que componen un dato. El URI de «comparte frontera con» deberá poder ser desreferenciado para acceder a la definición de lo que significa esta relación. Ahí entra la semántica: disponer de estas definiciones y poder acceder a ellas. 3.  Los datos propiamente dichos se deben expresar usando el Resource Des� cription Framework o RDF, un lenguaje para estructurar los datos en enunciados con el simple formato sujeto-predicado-objeto, y que se conoce como tri� plete. El sujeto y el objeto son recursos identificados mediante un URI, y el predicado es la relación entre estos recursos. Así pues el hecho de que España comparte frontera con

Web 1.0 Productor

Consumidor

C/P

C/P

Web 2.0

C/P

La web semántica

C/P = Consumidor/Productor

C/P

C/P

C/P

Evolución de una web cuyo contenido es producido por unos y consumidos por otros a una web semántica que mejora la cooperación entre computadoras y humanos. / Fuente: Frederic Martin.

Francia se expresaría en forma de triplete RDF de la siguiente manera: sujeto: http://www4.wiwiss. fu-berlin.de/factbook/resource/Spain predicado: http://www4.wi­ wiss.fu-berlin.de/factbook/ ns#landboundary objeto: http://www4.wiwiss. fu-berlin.de/factbook/resource/France

Hemos usado las URI de la publicación del World Factbook como Linked Da� ta realizada por la Universidad Libre de Berlín. Como se puede observar, en RDF la relación entre sujeto y objeto –el predicado– es a su vez también un recurso con su URI que debe ser desreferenciable. Como hemos dicho anteriormente, es así como accederemos a sus

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.3

LA WEB SEMÁNTICA EN LA PRÁCTICA Actualmente ya son numerosas las aplicaciones que de una forma u otra se basan en tecnologías semánticas para la Web. A continuación ilustraremos tres casos de naturaleza diversa para mostrar el potencial que todavía alberga la Web. Producción científica. Uno de los pilares para el avance de la ciencia es la publicación de los resultados de la experimentación científica para que puedan ser contrastados y corroborados por la comunidad científica y para que a su vez puedan ayudar a avanzar en otras líneas de investigación. El portal GoPubMed , por ejemplo, ofrece un buscador semántico de publicaciones científicas en el área de la biomedicina. Está conectado con la Gene Ontology, una ontología que unifica y estructura la terminología sobre genes y productos génicos de un amplio número de organismos. Con GoPubMed se pueden localizar los textos

definiciones, especificando por ejemplo que Spain y France son países y que landboundary es la relación de dos países que comparten una frontera. Estas de-

relevantes para una búsqueda no únicamente por la ocurrencia de determinadas palabras clave sino por la relación semántica existente entre conceptos biomédicos. La publicación no solo de los resultados de una investigación sino también de los datos experimentales sobre los que se ha basado permitirá una mayor colaboración y transparencia en el ámbito de la investigación científica. Proyectos financiados por la Unión Europea, como OpenKnowledge o LiquidPub, han investigado formas novedosas de colaboración y publicación distribuida en la Web que apuntan a que vamos a ser testigos de un cambio importante en cómo se publican, se comparten y se diseminan los resultados científicos. Gobiernos abiertos. Numerosos gobiernos nacionales están impulsando iniciativas de «gobierno abierto», haciendo públicos los conjuntos de datos

finiciones que aquí hemos expresado en lenguaje natural deberían ser especificadas a su vez como datos publicados en forma de tripletes RDF.

en su posesión para promover la transparencia, aumentar la eficiencia administrativa y estimular el crecimiento económico. La combinación de estos datos mediante mashups –aplicaciones web que combinan datos y funcionalidades de diferentes fuentes– permite realizar consultas y presentar sus resultados de forma novedosa y creativa. En 2009, en una localidad del estado de Ohio, en Estados Unidos, un abogado creó un mashup que combinaba los datos públicos sobre la ubicación de las tuberías de agua corriente con los datos obtenidos del censo municipal sobre qué viviendas estaban habitadas por familias afroamericanas. El mapa resultante reveló que, en determinados barrios limítrofes, el ayuntamiento claramente discriminaba a los hogares afroamericanos. En consecuencia, un juez decretó una indemnización por daños y perjuicios. Colaboración popular masiva. LinkedGeoData es una inicia-

4.  Finalmente, para poder utilizar todo el potencial que nos ofrece la infraestructura de la Web, los datos de un repositorio o base de datos deberían estar enlazados

tiva para añadir una dimensión espacial a los datos publicados en la web semántica y se basa en la información recogida por el proyecto OpenStreetMap, un mapa mundial abierto al que cualquiera puede añadir datos, al estilo de Wikipedia. A finales del 2009 muy pocas áreas de la ciudad de Port-au-Prince en Haití estaban etiquetadas. Pero justo después del gran terrem o t o d e e n e ro d e 2 0 1 0 , cuando se hicieron públicas imágenes de satélite del país, miles de personas estudiaron estas imágenes y comenzaron a anotar en el OpenStreetMap información detallada sobre las zonas devastadas: carreteras bloqueadas, edificios dañados, ubicación de campos de refugiados y hospitales de campaña, muelles en los que atracaban los barcos con ayuda humanitaria, etc. Todos estos datos fueron de gran utilidad para los equipos de rescate que sobre el terreno consultaban esta información con sus dispositivos móviles.

con datos externos, definidos en otro repositorio o base de datos. Es decir, el sujeto, predicado y objeto de un mismo triplete RDF no tienen por qué estar ubicados, de-

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 29

02.3 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

finidos y gestionados en el mismo repositorio de datos, sino que pueden estar distribuidos por la Web. Publicando los datos directamente en formato RDF, con unos URI desreferenciables que apuntan a definiciones de entidades y sus relaciones, que a su vez se expresan como datos en RDF enlazando así unos datos con otros, es como se añade a la infraestructura tecnológica existente de la Web este nivel, que puede aumentar significativamente su funcionalidad pues permite procesar estos datos y sus relaciones de forma automatizada. Al igual que en la web de documentos, en la web de datos cualquier persona u organización puede publicar datos, del tipo que sea, y definir los vocabularios asociados a recursos y relaciones. Una buena práctica es usar los URI y los vocabularios ya existentes y ampliamente utilizados. A diferencia de la web de documentos, la estructuración de los datos es independiente de su visualización en pantalla para un usuario humano.

La visión de una web semántica, tal y como la plantearon Berners-Lee y sus colaboradores hace diez años, incluye también la posibilidad de razonar y sacar conclusiones lógicas de forma automatizada a partir de los datos publicados en la Web

Datos enlazados abiertos El potencial de la web de datos, al igual que pasó con la web de documentos, reside en la participación a gran es-

30

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

cala de numerosas personas y organizaciones en la publicación sistemática de datos en la Web, siguiendo las buenas prácticas de Linked Data. Es esta participación masiva, con un esfuerzo relativamente bajo, la que está detrás del éxito de la Web actual. Es por eso por lo que hace unos años se puso en marcha una iniciativa llamada Linked Open Data (datos enlazados abiertos) con el objetivo de traducir a RDF y publicar en forma de datos enlazados una serie de repositorios abiertos ya existentes, como los que se obtienen de Wikipedia, por ejemplo. A día de hoy importantes organizaciones se han sumado al proyecto, como por ejemplo la BBC, Thomson Reuters y la Library of Congress, volcando sus datos en la Web. De esta manera, poco a poco se está definiendo un espacio global de datos sobre personas, compañías, libros, publicaciones científicas, películas, música, programas de radio y de televisión, genes, proteínas, fármacos y ensayos clínicos, comunidades en línea, datos estadísticos y científicos, etc., que a día de hoy se estima en 32.000 millones de tripletes RDF con 500 millones de enlaces entre ellos. La publicación de datos es solo una parte de lo que consti-

tuye la web de datos. La otra parte la forman las aplicaciones informáticas que nos proveen de los servicios para acceder, consultar, buscar y combinar los datos. Al igual que la web de documentos no nos sería de gran utilidad sin navegadores, buscadores o servicios de interacción social, las funcionalidades de la web de datos nos las dan las aplicaciones determinadas sobre los datos enlazados que utilizan leguajes específicos de consulta en repositorios RDF, tales como SPARQL, que se inspira en el leguaje SQL (Structured Query Language) de consulta de bases de datos tradicionales, pero ahora especialmente diseñado para ser ejecutado sobre la tecnología web. Ontologías y razonamiento automatizado En último término, la visión de una web semántica, tal y como la plantearon BernersLee y sus colaboradores hace diez años, incluye también la posibilidad de razonar y sacar conclusiones lógicas de forma automatizada a partir de los datos publicados en la Web. Así pues, del hecho de que España comparta frontera con Francia y de que compartir frontera signifique que las regiones geográficas que constituyen estos países son contiguas, se debería poder deducir au-

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.3

Fragmento de la ontología de relaciones espaciales (en el lenguaje OWL y en sintaxis XML/RDF) creada por Ordenance Survey, la agencia gubernamental británica que elabora los mapas del Reino Unido. Se muestra la definición de la relación espacial ‘touches’ como relación simétrica, entre otras propiedades.

tomáticamente que uno puede desplazarse de España a Francia por tierra sin tener que cruzar un tercer país. Esto, requiere que dispongamos de definiciones formales —es decir procesables por una computadora— de lo que significa la relación de contigüidad entre regiones espaciales y su relación con el desplazamiento continuo en regiones del espacio. Esta información adicional que complementa los datos y con la cual se pueden deducir relaciones semánticas sin que estén explícitamente representadas en el conjunto de datos es lo que se llama una ontología. Habitualmente se trata de un conjunto de expresiones en un lengua-

je formal basado en la lógica que describe con mayor o menor detalle los conceptos y sus interrelaciones de un área de conocimiento en particular (por ejemplo de la geografía en general o de la de España en particular). Para poder publicar y razonar con ontologías en la Web se recomienda utilizar el Web Ontology Lan� guage (OWL). Retos de futuro La web de datos, con sus vocabularios y ontologías, es un ente abierto y dinámico. Continuamente aparecen nuevos datos y nuevos enlaces entre ellos, mientras otros quedan obsoletos y se eliminan. Además, los servidores que hospedan estos datos a veces no están activos, bien porque han

La nomenclatura Web 1.0, 2.0 y 3.0 es seguramente artificiosa, ya que no se trata de nuevas versiones de la Web, sino de la misma de siempre, con niveles añadidos de funcionalidad

caído o bien porque están bajo mantenimiento. Eso implica una gran variabilidad semántica en los datos, por lo que hay que abordar los problemas que surgen cuando cambia el significado de un término, aparece una nueva terminología o surgen definiciones contradictorias. La publicación masiva de datos implica tener que preservar la privacidad de las personas e instituciones, garantizando que no sea posible deducir indirectamente determinada información confidencial. Además, el hecho de que cualquiera pueda publicar y enlazar datos en la web de datos implica que hay que tener en cuenta también aspectos sobre la procedencia de los datos, su calidad y la fiabilidad de las fuentes. Todas estas son ricas áreas de investigación en las que aplicar técnicas de inteligencia artificial, como el razonamiento automático, el alineamiento semántico, los modelos computacionales de confiabilidad, la minería de datos para la preservación de la privacidad y el control de revelación de estadísticas. Pero, en última instancia, las posibilidades de esta web semántica están en las manos de los usuarios, que son los que generan los datos e idean los servicios que, como decía Tim Berners-Lee, harán realidad todo el potencial de la Web.

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 31

Te ayudamos a

investigar Destinatarios:

Personal investigador en formación y personal docente e investigador de universidades españolas, y funcionarios y personal al servicio de centros propios y mixtos del Consejo Superior de Investigaciones Cientícas.

Características de las becas:

Colaborar en actualizar su nivel de conocimientos, el aprendizaje de nuevas técnicas y métodos, establecer o consolidar vínculos académicos entre equipos de investigación e instituciones españolas e iberoamericanas. Asimismo, la beca tiene como n ayudar a completar la formación y especialización cientíca y técnica del personal investigador en formación.

Infórmate ya y solicítalas en:

http://www.becas-santander.com http://www.agora-santander.com

@Agora_Santander

Una estancia en algún otro centro de investigación o universidad iberoamericana, distinto al país de origen, nanciando gastos de alojamiento desplazamiento y manutención con el importe de la beca. La duración mínima de la estancia será de 2 meses.

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.4

Criptografía: si no existiera, habría que inventarla Desde que el hombre comenzó a comunicarse con sus semejantes ha experimentado la necesidad de proteger su información confidencial de oídos y ojos indiscretos. Gonzalo Álvarez Instituto de Física Aplicada (CSIC)

P  

uede afirmarse que la criptografía o arte de hacer secreta la escritura nació con la escritura misma. Desde las primeras tablillas babilónicas cifradas hace más de 4.500 años hasta nuestros días, la criptografía ha evolucionado considerablemente, especialmente a partir de la irrupción de los ordenadores. En el siglo XX, la criptografía pasó de ser patrimonio casi exclusivo de militares, diplomáticos y grandes corporaciones a un artículo de uso cotidiano por todos los ciudadanos. Aunque tal vez inconscientes de ello, consumimos criptografía diariamente: al hablar a través del móvil, al sacar dinero del cajero electrónico, al ver canales de televisión de pago o al hacer compras por Internet. El mundo no existiría

tal y como lo conocemos hoy día sin la criptografía. La primera criptografía usada por el hombre fue la simétrica o de clave secreta Para cifrar mensajes de correo, archivos del disco duro, registros de una base de da-

tos, y en general para cifrar grandes cantidades de datos, se utiliza un tipo de algoritmo de cifrado conocido como de clave secreta o simétrico, representado en la figura 1. La seguridad de un algoritmo de cifrado depende de dos

factores. El primero de ellos es la robustez de su diseño. Durante muchos siglos se vinieron usando dos tipos de operaciones de cifrado: sustitución y transposición. En la sustitución se sustituyen los caracteres del mensaje por otros caracteres, que pueden

/// Figura 1. Algoritmos simétricos ///////////////////////////////////////////////////////////////////////////////

Clave

Texto claro

Cifrar

Texto cifrado

Descifrar

EMISOR

Texto claro

RECEPTOR

En los algoritmos simétricos se usa la misma clave para cifrar y descifrar, solo conocida por emisor y receptor.

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 33

02.4 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Gonzalo Álvarez Su formación académica incluye los títulos de Ingeniero Superior de Telecomunicación por la ETSIIIT de Bilbao de la UPV/EHU en 1995 y Doctor en Informática por la Facultad de Informática de la UPM en 2000. Posee experiencia como criptólogo en proyectos de investigación en el Consejo Superior de Investigaciones Científicas, donde trabaja desde 1995 en el Departamento de Tratamiento de la Información y Codificación. En su faceta divulgativa, ha sido columnista de varios periódicos (El Mundo, El Correo) y colaborador en revistas especializadas (iWorld, PC World, Mundo Electrónico y SIC). Es autor de los libros Los mejores trucos para Internet (6ª edición), Seguridad informáti� ca para empresas y particulares y Cómo protegernos de los peligros de Internet.

Gonzalo Álvarez.

Fue pionero de la seguridad en Internet en España con su sitio web Criptonomi� cón, uno de los más antiguos de la comunidad latina, creado en 1997. Desde 2008 mantiene el blog El Arte de Presentar, sobre cómo planificar, estructurar, diseñar y exponer presentaciones.

ser del mismo alfabeto o de alfabetos diferentes. Uno de los primeros ejemplos históricos conocidos es el cifrado de César, cuyo funcionamiento se explica en la figura 2. Desde la Edad Media hasta principios del siglo XX, fueron de uso común los discos de cifrado ba-

sados en la operación de sustitución. El mayor inconveniente del cifrado por sustitución es que no oculta los patrones lingüísticos de frecuencia de aparición de letras de cada idioma, por lo que resulta vulnerable a un

criptoanálisis, el estudio de un texto cifrado con el fin de obtener el mensaje original o bien la clave con la que se cifró el mensaje. Por supuesto, la labor del criptoanalista se puede complicar utilizando una sustitución polialfabética, consistente en sustituir un carácter por

/// Figura 2. Cifrado César //////////////////////////////////////////////////////////////////////////////////////// Clave: 3 Mensaje: A  B  C  D  E  F  G  H  I  J  K  L  M  N  O  P  Q  R  S  T  U  V  W  X  Y  Z Cifrado: D  E  F  G  H  I  J  K  L  M  N  O  P  Q  R  S  T  U  V  W  X  Y  Z  A  B  C M:  ALEA  IACGA  EST C:  DOHD  NDFAD HXA

El cifrado César recibe su nombre en honor de Julio César, quien, según Suetonio, lo usó con un desplazamiento de tres espacios para proteger sus mensajes importantes de contenido militar. Para leer el mensaje original bastaba con desplazar las letras a la izquierda el mismo número de lugares. La clave consistía en el número de desplazamientos.

34

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

varios caracteres distintos, de manera que la frecuencia de las letras quede ofuscada. Sin embargo, con textos suficientemente largos, aún puede obtenerse el mensaje original. Otra operación de cifrado que se ha utilizado también desde antiguo consiste en la transposición, es decir, simplemente se cambian de sitio las letras del mensaje siguiendo una regla determinada, como en el ejemplo de la figura 3. Uno de los primeros ejemplos históricos de cifrado de transposición de los que tenemos conocimiento es la scitala espartana. A menudo esta regla recibe el nombre de mapa de transposición. En este caso, el criptoanalista debe ordenar las letras en la secuencia correcta para reconstruir el mensaje original. Para ello, puede buscar palabras comunes, como artículos y preposiciones, o palabras clave que tenga certeza de que aparecerán en el mensaje estudiado, lo que le ayudará a determinar cuál ha sido la regla utilizada. Para aumentar la dificultad del criptoanálisis se puede aplicar repetidamente la misma regla o mapa de transposición, algo muy fácil de hacer con un ordenador. Ahora bien, la transposición por sí sola tampoco sirve para cifrar textos de manera se-

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.4

/// Figura 3. Ejemplo de cifrado de transposición ///////////////////// INTRODUCCIÓN DEL TEXTO EN CLARO

EXTRACCIÓN DEL CIFRADO

E

S

T

E

E

S

U

N

E

J

E

M

P

L

O

D

E

T

R

A

N

S

P

O

S

I

C

I

O

N

C:  EUPRS SNLAI TEONC EJDSI EEEPO SMTON

El texto se escribe en una matriz rellenándola fila a fila y se envía leyéndola columna a columna. La clave de cifrado es la dimensión de la matriz.

gura. Sin embargo, la robustez del algoritmo de cifrado puede mejorarse considerablemente si se combinan ambas operaciones, usando sustitución y transposición repetidamente sobre el mismo mensaje. Los algoritmos modernos de cifrado, como DES y AES, utilizan múltiples vueltas de cifrado en las que se combinan las dos operaciones, tal y como se muestra en la figura 4. El objetivo es conseguir lo que se conoce como difusión y confusión. Idealmente, la apariencia de un texto cifrado debe ser totalmente aleatoria. Debe eliminarse cualquier relación estadística entre el mensaje original y su texto cifrado. La combinación de la sustitución y transposición difun-

de, es decir, distribuye o dispersa, la estructura estadística del mensaje sobre la totalidad del texto cifrado. En otras palabras, examinando el texto ci-

frado no se obtendrá más información sobre el mensaje original que examinando un texto aleatorio. Si se cambia un bit del texto en claro, debería cambiar en promedio la mitad de los bits del texto cifrado. Esta propiedad también se llama efecto de avalancha. Resumiendo, la difusión oculta la relación entre el texto en claro y el texto cifrado. La confusión busca ocultar la relación entre el texto cifrado y la clave secreta. Si se cambia un solo bit de la clave, también debería cambiar en promedio la mitad de los bits del texto cifrado. Los algoritmos de cifrado que se sirven de la confusión y de la difusión se suelen llamar cifradores de producto. Cada aplicación de la confusión y de la difusión se pro-

duce en una vuelta de cifrado. Los cifradores modernos, como los ya mencionados DES y AES, suelen utilizar muchas vueltas de cifrado o iteraciones. Por tanto, si un algoritmo de cifra está bien diseñado, un texto cifrado sólo se podrá descifrar si se conoce la clave secreta. En la buena criptografía se sigue siempre el principio de Kerckhoffs: la seguridad del sistema debe recaer en la seguridad de la clave, debiéndose suponer conocidos el resto de los parámetros del sistema criptográfico. Si no se te ocurre cómo atacarlo, recurre a la fuerza bruta El segundo factor para calibrar la seguridad de un algo-

/// Figura 4. Esquema de funcionamiento del cifrado en bloque /////////////////////////////////////////////// Transformación inicial

n vueltas

Operaciones criptográficas

Algoritmo de expansión de clave

Transformación final 1) Transformación inicial; 2) función criptográfica iterada varias veces (vueltas de cifrado); 3) transformación final; 4) algoritmo de expansión de clave, que a partir de la clave inicial introducida por el usuario permite generar material de clave para utilizar en todas las vueltas.

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 35

02.4 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

ritmo es la longitud de la clave utilizada. Cuando un criptoanalista no puede encontrar fallos en el algoritmo, siempre le queda recurrir a un ataque de fuerza bruta. Se trata de un método sin elegancia, que no ataca el algoritmo en sí, sino que busca exhaustivamente todos los posibles valores de la clave hasta dar con la correcta. Hoy en día se estima que claves de 128 bits de longitud o más garantizarán la seguridad por muchos años. De hecho, algunos algoritmos permiten seleccionar a voluntad la longitud de la clave, como el actual estándar de cifrado AES, basado en el algoritmo criptográfico Rijndael. Por consiguiente, si el diseño es robusto y la longitud de la clave es suficientemente larga, podemos considerar que el algoritmo es seguro. Números aleatorios para elegir buenas claves de cifrado Elegir la clave de cifrado es un asunto muy importante. La clave debe ser perfectamente aleatoria. Ahora bien, los ordenadores son máquinas deterministas incapaces de generar números al azar. Una de las soluciones consiste en utilizar fuentes de entropía físicas, como por ejemplo registrar los movimientos de ratón

36

del usuario, sus pulsaciones de teclas, y otras fuentes semejantes. Estas secuencias, además de ser muy difíciles de crear, no pueden reproducirse: nunca generará dos veces la misma secuencia aleatoria. Para aquellas situaciones en que hiciera falta repetirlas, se crean las secuencias pseudoaleatorias. En este caso, se generan usando algoritmos deterministas, los cuales a partir de una semilla inicial son capaces de generar secuencias de bits que se comportan estadísticamente como si hubieran sido generadas por generadores verdaderamente aleatorios. Cualquiera que co-

nozca la semilla podrá regenerar la secuencia.

diferente, representada en la figura 5.

Hay dos tipos de algoritmos de criptografía simétrica Existen dos grandes familias de algoritmos simétricos o de clave secreta. Los algoritmos de cifrado en bloque y los algoritmos de cifrado en flujo.

Como sería muy complicado hacer llegar al destinatario una clave tan larga como el mensaje, en la práctica lo que se hace es una pequeña trampa: en lugar de generar aleatoriamente toda la clave, se genera una pequeña semilla a partir de la cual, mediante alguno de los algoritmos deterministas de generación de números pseudoaleatorios ya mencionados, se genera la secuencia cifrante con la que se mezcla el texto en claro.

En el caso de los algoritmos de cifrado en bloque, primero se divide el mensaje original en bloques de un tamaño determinado. Cada bloque se cifra siempre de la misma manera e independientemente de todos los demás. Por su parte, los algoritmos de cifrado en flujo funcionan de forma muy

Los cifradores en bloque resultan inadecuados en aquellas aplicaciones en las que la

/// Figura 5. Esquema de funcionamiento del cifrado en flujo /////////////////////////////////////////////////

Clave

Algoritmo determinista

Clave

Secuencia cifrante

si

si ci

Texto cifrado

ci

Texto claro

Texto claro

mi EMISOR

Algoritmo determinista

mi RECEPTOR

1) Se genera una clave aleatoria tan larga como el mensaje que se desea cifrar; 2) se mezcla el mensaje con la clave, generándose así el texto cifrado, típicamente la suma módulo dos bit a bit (operación lógica XOR); 3) para recuperar el mensaje original, basta con volver a sumar la clave con el texto cifrado.

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.4

información a cifrar no esté disponible en su totalidad, sino a retazos, como, por ejemplo, en las conversaciones telefónicas, ya que un bloque no puede cifrarse hasta que están disponibles todos sus bits. Los cifradores en flujo no presentan este problema, puesto que cifran bit a bit la información a medida que les llega. De hecho, se suelen realizar por hardware, lo que hace que sean extremadamente rápidos y se los prefiera en aquellas aplicaciones en las que prima la velocidad. La criptografía de clave pública soluciona el problema de la distribución de claves Una vez cifrado un mensaje con la clave secreta, surge una nueva dificultad: ¿cómo enviarle al destinatario la clave secreta utilizada para cifrar el mensaje?

Se trata del mayor problema al que históricamente se ha enfrentado la criptografía, conocido como problema de distribución de la clave. ¿De qué sirve utilizar el mejor algoritmo de cifrado del mundo si no puede compartirse la clave con el destinatario del mensaje? Durante siglos la criptografía se ha enfrentado con poco éxito a este problema, hasta que en la década de 1970 los criptógrafos Diffie y Hellman inventaron la criptografía de clave pública. En esta forma de criptografía se dispone de dos claves: una es pública y por tanto conocida por todo el mundo y la otra es privada y conocida solamente por su poseedor. Aunque cualquiera puede cifrar usando la clave pública, sólo el que posee la correspondiente clave privada podrá descifrar.

Por eso a la criptografía de clave pública se le llama también asimétrica, cuyo funcionamiento se ha representado en la figura 6. Si cifras un mensaje con la clave pública no podrás descifrarlo usando esa misma clave pública. Necesitarás usar la correspondiente clave privada. Lo que cifras con una clave, debes descifrarlo con la otra. También puede cifrarse con la clave privada. Si cifras algo con tu clave privada, entonces cualquiera que conozca tu clave pública podrá descifrarlo. Cifrar un mensaje con tu clave privada equivale a firmarlo porque nadie más que el poseedor de la clave privada podría haber cifrado ese mensaje. Cuando cifras algo con tu clave privada estás demostrando tu autoría: sólo tú puedes cifrarlo, por lo tanto, has

/// Figura 6. Funcionamiento del cifrado asimétrico //////////////////////////////////////////////////////////// Clave pública

Texto claro

EMISOR

Cifrar

Clave privada

Texto cifrado

Descifrar

Texto claro

RECEPTOR

Funcionamiento del cifrado asimétrico: Se utilizan dos claves diferentes para cifrar y descifrar: una conocida por todo el mundo y otra, sólo por su propietario.

tenido que ser tú quien lo cifró. Eso es lo que se llama autenticación. Y cualquiera puede descifrarlo usando tu clave pública. Lo que equivale a verificar la firma. Por eso es tan importante que tu clave privada sea privada y nunca la conozca nadie más que tú. En la práctica, debido a que los algoritmos de cifrado asimétrico son muy lentos, no suelen usarse para cifrar todo el mensaje, sino un resumen muy corto del mismo calculado gracias a funciones hash (función unidireccional de resumen que reduce el mensaje de partida a un valor de menor longitud, de forma que éste sirve como representación compacta del mensaje original). La pareja de claves debería guardarse de forma segura, por ejemplo en una tarjeta inteligente, como el DNI electrónico. Las firmas electrónicas y los certificados digitales solucionan el problema de la confianza ¿Cómo saber si la clave pública de un usuario es en realidad la suya y no la de un atacante que la ha sustituido por la suya propia? Se trata de un problema de confianza. Igual que se vio lo difícil que resulta distribuir claves secretas de manera segura, es igualmente difícil distribuir claves públicas de

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 37

02.4 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

manera fiable. Hoy en día se ha resuelto al menos parcialmente usando las firmas electrónicas y los certificados digitales. En principio, bastaría con cifrar un documento con la clave privada para obtener una firma digital segura, puesto que nadie excepto el poseedor de la clave privada puede hacerlo. Posteriormente, cualquier persona podría descifrarlo con su clave pública, demostrándose así la identidad del firmante. En la práctica, debido a que los algoritmos de clave pública

requieren mucho tiempo para cifrar documentos largos, los protocolos de firma digital se implementan junto con funciones hash, de manera que en vez de firmar un documento, se firma un resumen del mismo. Este mecanismo implica el cifrado, mediante la clave privada del emisor, del resumen de los datos, los cuales serán transferidos junto con el mensaje. Los pasos del protocolo aparecen representados en la figura 7. De esta forma se ofrecen conjuntamente los servicios de:

1) no repudio, ya que nadie excepto tú podría haber firmado el documento; 2) autenticación, ya que si el documento viene firmado por ti, se puede estar seguro de tu identidad, dado que solo tú has podido firmarlo; y 3) integridad del documento, ya que en caso de ser modificado, resultaría imposible hacerlo de forma tal que se generase la misma función de resumen que había sido firmada. A la vista de este esquema de funcionamiento de las firmas digitales, se plantea un pro-

/// Figura 7. Proceso de firma electrónica /////////////////////////////////////////////////////////////////////// Mensaje

Mensaje

Firma

3

1

5

Hash

KPub

Cifrar

KPriv

4

Hash

Descifrar

H1

H2 6

2

Firma EMISOR

RECEPTOR

1) Generas un resumen del documento; 2) cifras el resumen con tu clave privada, firmando por tanto el documento, ya que nadie excepto tú conoce dicha clave privada y por lo tanto solamente tú podrías haber realizado la operación de cifrado; 3) envías el documento junto con el resumen firmado al destinatario; 4) este genera un resumen del documento recibido de ti, usando la misma función hash; 5) después descifra el resumen firmado con tu clave pública, que, como su nombre indica, es conocida por todos; y 6) si el resumen firmado coincide con el resumen que él ha generado, la firma es válida.

38

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

blema evidente de confianza: ¿cómo tener certeza de que la clave pública de un usuario corresponde realmente a ese individuo y no ha sido falsificada por otro?, ¿por qué fiarse de esa clave pública antes de confiarle algún secreto?, ¿quién verifica la identidad del poseedor de la clave pública? Todas estas preguntas encuentran su respuesta en la figura de los certificados digitales. Estos contienen tu clave pública y un conjunto de datos (nombre, DNI, dirección de correo electrónico, etc.), todo ello firmado por una autoridad de certificación, encargada de verificar la validez de la información. Es precisamente esta firma lo que proporciona confianza a quien recibe el certificado de que la clave pública que contiene este en realidad corresponde a la persona cuyos atributos aparecen también en el mismo. Gracias a los certificados digitales, las firmas electrónicas y el cifrado, podemos hoy en día realizar transacciones seguras a través de Internet y del móvil, sabemos si un sitio web es en realidad el auténtico y no una suplantación y podemos enviar y recibir correos electrónicos cifrados y firmados. Ninguna de estas maravillas sería posible sin la criptografía.

Hoy es un día que recordará siempre Todos recordamos cómo fue nuestro primer día de trabajo. Seguramente ese día nada pudo borrarnos la sonrisa del rostro. Igual que a Eugenia. Porque ella es una de los miles de personas con dificultades especiales que han conseguido una oportunidad laboral, gracias a las más de 17.000 empresas que colaboran con el programa Incorpora de la Obra Social ”la Caixa”. Gracias a miles de empresarios, un día normal puede ser un gran día.

Tú eres la Estrella

Obra Social ”la Caixa” • El alma de ”la Caixa”

www.laCaixa.es/ObraSocial

03 Nuevos espacios de la información

03.1 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Tiempo para nuevos modelos de comunicación y difusión de la ciencia Las autoras analizan la evolución y consecuencias que tiene el acceso abierto, gratuito y permanente a los resultados de la investigación científica. Así, el modelo de comunicación científica, basado en un sistema editorial, preocupado más por los beneficios económicos que por el valor social de la ciencia y su difusión, está en entredicho.

Agnès Ponsati (1) Isabel Bernal (2) (1)  Unidad de Recursos de Información Científica para la Investigación (CSIC) (2)  Oficina Técnica Digital (CSIC)

Acceso abierto: ¿qué es y por qué? Por acceso abierto se conoce la iniciativa que persigue poner la literatura científica y académica a libre disposición en la Red, asegurando el derecho de poder acceder sin restricciones al conocimiento científico. El acceso abierto, gratuito y permanente a los resultados de

42

la investigación, empezó siendo una iniciativa avant la lettre impulsada por los propios investigadores a favor de un intercambio más ágil, eficiente y democrático de información científica hace ya dos décadas, con la aparición de arXiv. En 2002, se reúnen en Budapest bajo los auspicios de la

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

Open Society Institute varias instituciones y elaboran la primera declaración formal a favor del Open Access. Le suceden las declaraciones de Bethesda (Junio 2003) y Berlín (Octubre 2003) en la misma línea y sobre el mismo sustrato. Declaraciones sucesivas de este tipo evidencian la fase de fuerte ex-

pansión del movimiento del acceso abierto. Se cuestiona el monopolio de las grandes editoriales sobre la distribución y explotación de la información científica, la división informacional generada entre instituciones y países (di� gital divide) y las barreras que supone para un modelo efi-

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.1

Agnès Ponsati Licenciada en Filología Hispánica por la Universidad de Barcelona (1986) y Diplomada en Biblioteconomía y Documentación por la misma Universidad (1987), es la directora de la Unidad de Recursos de Información Científica para la Investigación del Consejo Superior de Investigaciones Científicas (1994). Ha publicado varios artículos (http://digital.csic.es) sobre la gestión técnica de catálogos colectivos informatizados en entornos distribuidos y la coordinación y gestión de servicios bibliotecarios en el ámbito de las bibliotecas especializadas/ científicas. Asimismo, ha participado en proyectos de ámbito nacional y europeo (http://www.csic.es/cbic/cooper.htm) relacionados con la informatización de colecciones documentales, sistemas de conversión de catálogos, protocolos bibliográficos, metabuscadores y la puesta en valor de colecciones patrimoniales, mediante la aplicación de las nuevas tecnologías a los sistemas de información.

Agnès Ponsati.

Presidió la Comisión de Bibliotecas especializadas del Consejo de Cooperación Bibliotecaria del Ministerio de Cultura, durante el periodo 2008-2010. Isabel Bernal Licenciada en Historia por la Universidad de Sevilla, Master en Biblioteconomía y Documentación en la Escuela de la Biblioteca Vaticana (Roma) y Master en Economía y Relaciones Internacionales en la John Hopkins University (Washington, DC). Desde enero de 2010 es la responsable de Digital.CSIC, el repositorio institucional del CSIC. Con anterioridad, trabajó durante cinco años en EIFL, organización internacional que promueve el acceso a recursos electrónicos de investigación en países en desarrollo y en transición, y en la en Comisión Europea.

Isabel Bernal.

caz y transparente de comunicación científica. Los factores que propician la aparición del movimiento son variados: la denominada «crisis de las revistas», que se gesta como consecuencia de los incrementos exorbitantes de precios; la falta de competencia; la situación monopolística del mercado editorial y la crisis de permisos debida a las restricciones editoriales ( tecnológicas y legales).

Ha escrito diversos artículos sobre el acceso abierto a la investigación, acceso a la información y cooperación al desarrollo, consorcios de bibliotecas, e historia de los libros.

Bajo el modelo imperante, las instituciones no pueden garantizar el acceso a toda la información científica que se produce y que en gran parte financian y generan, o a la que generan sus homólogos. Paradójicamente, la tecnología permitiría un acceso mayor e inmediato si el escenario editorial fuera otro. Ello pone de manifiesto que el modelo de comunicación científica, basado en un sistema editorial

preocupado más por los beneficios económicos que por el valor social de la ciencia y su difusión, está, si no en crisis, sí en entredicho. El acceso abierto se ha consolidado como un canal de comunicación científica que pone en tela de juicio varios cimientos fundamentales del sistema editorial predominante y cataliza transformaciones revolucionarias.

Las estrategias Con todo, el movimiento no pretende socavar el mercado sino presentarle alternativa a través de dos vías: 1.  La publicación en abierto de revistas de calidad que cuenten con un comité de selección. 2.  Un sistema de «auto-archivo » de la producción científica de los investigadores en repositorios institucionales o temáticos. Son estrategias complementarias y no competitivas. Persiguen facilitar y mejorar el acceso a la información científica y su difusión. El movimiento no debe entenderse como un sistema de «autoedición» ni como uno que elimine o sustituya el modelo tradicional de la revisión entre pares. Tampoco como un sistema de comunicación científica de segunda fila ni un sistema que busque abaratar el coste de publicar. El acceso abierto es constructivo, no deconstructivo (no busca eliminar revistas comerciales, pero sí acrecentar el acceso a contenidos científicos); no es sinónimo de acceso universal (ya que sigue habiendo barreras institucionales, lingüísticas, para discapacitados, de conectividad, etc). En definitiva, el

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 43

03.1 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

10.  El ciclo de la comunicación científica se acelera y los resultados son difundidos y leídos mucho antes. 11.  El acceso abierto aboga por que los investigadores hagan un uso más consciente de sus derechos de autor.

Página de inicio del repositorio institucional del CSIC.

Open Access (OA) persigue un nuevo modelo de acceso pero no es un modelo de negocio. Ambas vías aportan beneficios importantes para las instituciones que las promueven: 1.  Contribuyen a devolver a la sociedad un bien común: la ciencia que financia. 2.  Consiguen una mayor difusión-más impacto de sus investigaciones.

44

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

3.  Aseguran la preservación a largo plazo de los contenidos generados.

resultados científicos, más citaciones facilitando así futuras financiaciones.

4.  Ayudan a los gestores a tener un mayor control de las publicaciones científicas producidas.

7.  Aumentan la percepción social del valor de la investigación.

5.  Los repositorios permiten disponer en línea la producción de sus investigadores y estandarizar los currícula. 6.  Más lectores conducen a una mayor explotación de los

8.  A mayor percepción social, mayor perfil político para la investigación científica. 9.  Los repositorios ayudan a las agencias de financiación y a los investigadores a localizar resultados en su área de interés.

Repositorios institucionales Muchas instituciones científicas y académicas han creado repositorios institucionales. También los fomentan las agencias de financiación para garantizar una amplia difusión de los resultados de los proyectos que subvencionan, siempre con la finalidad de crear sitios donde albergar, organizar, difundir y preservar la producción científica que generan o financian. Para ello utilizan la tecnología que permite una rápida propagación en la Red de sus contenidos mediante el harvesteo de grandes recolectores y motores de búsqueda de recursos científicos. Los beneficios derivados de los repositorios institucionales son muchos si reciben un apoyo explícito. Hoy existen 2.000 repositorios abiertos en el mundo. Proyectos pilotos hace una década, se han convertido en plataformas consolidadas por las que las instituciones de investigación difunden al exterior su producción.

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.1

Los repositorios ofrecen nuevas funciones, añadiendo al acceso abierto herramientas que custodian, gestionan y analizan la ciencia institucional. Recientemente, los organismos de investigación y universidades están creando plataformas propias que recogen, describen y evalúan su producción científica. Enlazar el repositorio con estos sistemas internos resulta fundamental para relacionar las actividades de gestión, evaluación, difusión y publicación de la producción institucional. Actividades que hasta hace poco se concebían independientes y no interconectadas. Publicar en abierto: la vía dorada La otra estrategia del acceso abierto se basa en el fomento por las instituciones de la edición de revistas científicas en abierto, o en la publicación por parte de sus autores en revistas abiertas. Modalidad de publicación que puede estar a su vez financiada por las institu-

ciones a las que pertenecen los autores. Ejemplo de ello lo encontramos en nuevas iniciativas editoriales como las revistas de PLoS o las del BioMed Central (acceso abierto dorado) o en revistas tradicionales de suscripción que ofrecen la publicación inmediata en abierto tras el pago de una cuota por parte del autor/institución (el acceso abierto híbrido). Va creciendo el número de instituciones y agencias de financiación con un fondo especial para pagar esas cuotas a nivel institucional, considerando el coste de publicación en abierto como parte integral de los presupuestos de investigación. Mandatos, políticas y directivas: el acceso abierto en las estrategias de investigación Se observa también mayor sensibilización hacia la importancia del acceso abierto a los

Símbolo internacional del movimiento del acceso abierto.

En definitiva, el Open Access (OA) persigue un nuevo modelo de acceso pero no es un modelo de negocio

resultados de la investigación financiada con fondos públicos. Bajo esta óptica, la divulgación científica adquiere un mayor relieve y unos objetivos más ambiciosos, ampliando los canales por los que las instituciones pueden realizar la transferencia del conocimiento que producen a la sociedad. Estudios de la Comisión Europea revelan el escaso acceso a las publicaciones de los resultados de investigación pública por parte de las pequeñas y medianas empresas y los efectos negativos en la innovación y el desarrollo tecnológico. Otros, como Implementation of Medical Research in Clinical Practice (2011) de la European Science Foundation, destacan la necesidad de traspasar más y mejor a hospitales los resultados de investigaciones biomédicas realizadas por instituciones científicas y universidades. La transferencia de conocimiento, según la Organización Mundial de la Propiedad Intelectual (OMPI), implica la captura, organización y el intercambio de conocimiento explícito y tácito e incluye actividades comerciales y no comerciales. El movimiento del acceso abierto demanda así una mayor transparencia en la transferencia de los resultados científicos, actividad que debe Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 45

03.1 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

entenderse más allá de la mera patentación de resultados. El acceso abierto a los resultados de la investigación también tiene implicaciones directas en el desarrollo económico y la innovación. La Agenda Digital Europea considera el acceso a la información, a la investigación y a los datos científicos puros esencial para garantizar la competitividad de la Unión Europea. Neelie Kroes, su vicepresidenta, pronunció un histórico discurso en esta línea (http://bibliotecas.csic.es/documents/ docnoticias/kroes_challenge_ open_access_spanish.pdf), en diciembre de 2010. Mandatos: acceso abierto y copyright El espaldarazo para la consolidación de los repositorios institucionales es el desarrollo de un mandato institucional que requiera el depósito en el repositorio de una copia de autor de los trabajos producidos. Diversos estudios confirman que el depósito voluntario no supera el 15% de lo producido de media al año, mientras que cuando se implantan mandatos la ratio sube al 63% de las publicaciones. Hay más de 130 mandatos institucionales de acceso abierto en el mundo. Destacan los de las universidades de Harvard y de Princeton por el apoyo unánime de su comu-

46

nidad científica y por su valentía al abordar el espinoso tema del copyright, abogando por la no transferencia exclusiva de derechos de explotación a los editores por los efectos negativos sobre las posibilidades futuras y diversas de explotación y reutilización del conocimiento. Este es un debate abierto con importantes implicaciones para las instituciones públicas creadoras de conocimiento y ciencia. En España, dos leyes recientes abordan la transferencia de resultados de la actividad investigadora y la titularidad de los derechos patrimoniales del conocimiento generado. El artículo 54 de la ley de Economía Sostenible, en vigor desde marzo de 2011, subraya que «los resultados de las activida� des de investigación, desarrollo e innovación a las que se refie� re el artículo anterior, así como el derecho a solicitar los títulos de propiedad industrial ade� cuados para su protección ju� rídica pertenecerán a las enti� dades cuyos investigadores los hayan obtenido en el ejerci� cio de las funciones que les son propias»; el artículo 37 de la ley de la Ciencia prevé que «el personal de investigación cu� ya actividad investigadora es� té financiada mayoritariamente con fondos de los Presupues� tos Generales del Estado hará pública una versión digital de la versión final de los contenidos

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

que le hayan sido aceptados para publicación». Tal depósito deberá realizarse en repositorios no más tarde de 12 meses de la publicación oficial. El papel de las agencias financiadoras El acceso abierto se ha convertido en elemento clave en el diseño de nuevas estrategias de muchas agencias financiadoras. Requiriendo este tipo de acceso a las publicaciones y datos que derivan de los proyectos que financian, apuestan por una mayor transparencia social de la ciencia que sostienen. Este discurso es especialmente relevante para las agencias públicas ya que añade un componente ético al garantizar el acceso gratuito a recursos que de otra manera quedarían alojados únicamente tras costosas plataformas de suscripción. Entre los pioneros, destacan las políticas de acceso abierto de los National Institutes of Health (NIH) de Estados Unidos (2007) y del Wellcome Trust del Reino Unido (2006). El acceso abierto en leyes y disposiciones legales Cada vez son más los gobiernos que promulgan leyes para la difusión en abierto de las investigaciones que financian. Así, en España, desde el 2008 han aparecido leyes y norma-

tivas, como la directiva de la Comunidad de Madrid (2008) y la nueva ley de la Ciencia, el logro más importante. Su artículo 37 Difusión en acceso abierto es un paso adelante muy importante al mencionar, además, la posibilidad de ligar la evaluación de la productividad científica de las administraciones públicas a la difusión en abierto del conocimiento que generan. Europa, coordinación en política de acceso abierto entre los Consejos de Investigación en Europa EUROHORCS, el European Research Council (ERC) y la Comisión Europea fomentan iniciativas para concienciar sobre el deber de hacer accesible al público los resultados de investigaciones financiadas por los contribuyentes, a diseñar políticas comunes que marquen procedimientos a cumplir por los consejos de investigación y a desarrollar infraestructuras para divulgar este conocimiento. El ERC publicó en 2007 una política de acceso abierto por la que se requiere el depósito en repositorios de las copias de autor de las publicaciones y de los datos puros resultantes de proyectos que financian. El VII Programa Marco de la Comisión Europea mantiene desde finales

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.1

de 2008 un proyecto piloto de acceso abierto que afecta a la difusión del 20% de sus proyectos y que extenderá probablemente al 100% de los proyectos bajo el VIII PM a partir de 2013. EUROHORCS y la European Science Foundation llevan años trabajando en la implementación de una hoja de ruta para el avance coordinado del acceso abierto en el Espacio Europeo de Investigación. Acceso abierto en España El acceso abierto se ha concretado en la adhesión de muchas universidades e instituciones científicas a la Declaración de Berlín, la creación de un número significativo de repositorios institucionales, entre los que destacan los de la Universidad Autónoma de Barcelona, el de la Universidad Politécnica de Cataluña y el del CSIC, según el Ranking We� bometrics de Repositorios, y la creación del recolector de la producción española disponible en los repositorios existentes (RECOLECTA). Algunas universidades tienen mandatos institucionales y otras han empezado a considerar la oportunidad de financiar, aunque aún de forma muy tibia, los costes de publicación en acceso abierto.

Portal de la Comisión Europea sobre todas sus iniciativas para implementar el acceso abierto a los resultados de los proyectos de investigación que financia.

Sin embargo, se observa, con respecto a otras instituciones científicas europeas (UK Research Councils, Netherlands

Organisation for Scientific Research, CNRS, Max Planck Society), una falta de compromiso a nivel de instituciones y

país más firme y decidida. Seguramente, la nueva ley de la Ciencia y las directivas europeas, y las que están por lle-

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 47

03.1 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

gar, contribuirán a reforzar la estrategia nacional. Un nuevo escenario, ¿nuevas reglas de juego? El acceso abierto está transformando la realidad cotidiana de las instituciones afectando a cuestiones tan relevantes, como los modelos de negociación de recursos de información, los sistemas de evaluación y la gestión de los derechos de explotación de resultados. Nuevos modelos de negociación de información científica Existe un buen número de revistas científicas de calidad en abierto o sujetas al acceso abierto híbrido. Pero la publicación gratuita de contenidos científicos en las mismas tiene siempre un coste, que recae sobre la institución de los autores que publican, y no sobre los lectores. Esto está suponiendo una alteración del modelo tradicional de contratación de recursos de información basado en el paradigma « la biblioteca-institución paga » para su consulta, al nuevo paradigma, «el autorinstitución paga» para su difusión en abierto. Por ello, la negociación de cuotas institucionales de acceso abierto ha pasado a formar parte de los contratos con editores, como una cláusula adicional, que fija cómo hacer frente al pago de las publicaciones que los

48

La otra estrategia del acceso abierto se basa en el fomento por las instituciones de la edición de revistas científicas en abierto

autores de una determinada institución publican bajo esta modalidad. Las instituciones más comprometidas con el acceso abierto ya están considerando que los presupuestos de investigación deben contemplar partidas para costear la publicación de la ciencia que producen en abierto.

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

Se están introduciendo también cambios en los modelos de licencia editorial: se trata de la llamada «cláusula verde» por la que se exige a los editores el depósito en el repositorio institucional de los borradores revisados de los artículos de los autores institucionales publicados en sus títulos.

mo el Journal Usage Factor, o criterios cualitativos, como el impacto socioeconómico de los resultados de la investigación y la verdadera transferencia de conocimiento, que permite acceder a tales resultados en su totalidad sin tener que pagar por ello una segunda vez.

Nuevos modelos de evaluación científica El acceso abierto ha entrado en el debate sobre la vigencia del modelo de evaluación científica sustentado casi en exclusiva en el Journal Impact Factor (JIF). Surgen voces críticas sobre la adecuación del JIF para evaluar la productividad y excelencia de los investigadores, a lo que se unen críticas a la profusión de publicaciones científicas, resultado del modelo de evaluación imperante y de la validez del peer review actual. El Comité de Ciencia y Tecnología en el Reino Unido ha abordado ambas cuestiones, abogando por sistemas de revisión por pares más acordes con la realidad, y cita como posible modelo alternativo el de PLOS One, subrayando además la conveniencia de que los datos puros de carácter científico, salvo excepciones, sean accesibles públicamente.

Más y más instituciones científicas y universidades, especialmente en el ámbito anglosajón, están diseñando nuevos modelos de evaluación y financiación de proyectos científicos, enriqueciendo los criterios y los niveles de impacto en consideración. Entre los nuevos criterios aparece la exigencia de que la producción en evaluación se haya difundido en abierto o que el repositorio institucional sea el canal de envío de los trabajos para ser evaluados. Un ejemplo exitoso del nuevo enfoque es la Universidad de Liège.

Otros criterios de evaluación han ido abriéndose paso, co-

Para terminar, destacamos nuevos planteamientos para estimar el rendimiento económico de la producción y comunicación científica; estudios como Economic im� plications of alternative scholarly publishing models (2009) calculan los costes, beneficios y oportunidades que ofrecería la transición hacia un modelo de acceso alternativo.

03.2 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

La aportación digital al universo de las enciclopedias El autor nos conduce por la historia de la enciclopedia moderna, que nace en el siglo XVII, hasta la revolución que supuso el lanzamiento de la Wikipedia, en el año 2001, una obra en la Web creada con la colaboración de voluntarios y cuyo contenido es libremente reutilizable.

José Antonio Millán Lingüista y editor, tradicional y digital

* Todos los epígrafes de este artículo provienen de «Al adquirir una enciclopedia», poema de J. L. Borges.

«Aquí el tigre y el tártaro»

La ilusión de disponer en una sola obra de todo el saber de una época (o de todo lo que se conoce sobre un determinado tema) es tentadora por dos aspectos. Por una parte, tranquiliza pensar que la totalidad del saber es abarcable... aunque sea en una obra de decenas de volúmenes. Y por otra, también es agradable pensar que es posible acceder inme-

50

diata y directamente a cualquiera de sus aspectos. La enciclopedia moderna nace en el siglo XVII, aunque hay obras precursoras, que no se llamaban todavía «enciclopedias». Las recopilaciones medievales, que se abren con obras como las Etimologías de Isidoro de Sevilla (siglo VI), no tenían, desde luego, la pretensión de hacer accesible el

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

saber a cualquier persona. Se trataba más bien, en una época de difícil acceso a las fuentes, de compendiar diversas materias para uso de los estudiosos. La organización interna era temática, porque la mentalidad medieval no admitía la arbitrariedad del orden alfabético. Pero era sencillamente inadmisible que Altis� simus, el Altísimo, uno de los atributos divinos, no figurara

antes de Abyssus, el Abismo, o infierno... El choque conceptual que supuso el descubrimiento del nuevo continente americano provocó la redacción de obras que por primera vez observaban el mundo, en vez de copiar las preexistentes. Fray Bernardino de Sahagún escribió en 1540 una obra enciclopédica organizada temá-

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.2

ticamente, la Historia general de las cosas de Nueva Espa� ña, para uso de sus colegas misioneros. Y describió la lengua, historia y costumbres de los aztecas, su territorio, fauna, botánica... Para encarecer la utilidad de la obra, explicó: «es para redimir mil canas, porque con harto menos trabajo de lo que aquí me cuesta, podrán los que quisieren saber nuevas de sus antiguallas, y todo el lenguaje de esta gente mexicana». Este ha sido siempre el objeto de las obras de consulta: que se pueda alcanzar el saber con menos esfuerzo del que costaría recopilarlo personalmente.

«Aquí la escrupulosa tipo-

grafía y el azul de los mares» Pero las obras enciclopédicas escritas por una sola persona tenían sus días contados, por la constante extensión de los conocimientos humanos. En 1680 murió el jesuita alemán y autor polígrafo Athanasius Kircher, que una reciente obra sobre su figura bautiza justamente como «el último hombre que lo supo todo». Las enciclopedias modernas son de elaboración colectiva, aunque las colaboraciones no siempre suelen firmarse. Además están divididas en entradas, que se clasifican no temática, sino alfabéticamente. Para la cohesión en-

José Antonio Millán Lingüista y editor, tradicional y digital. Como director editorial de Taurus Ediciones publicó la versión española de la Enciclopedia del lenguaje, de David Crystal. En 1995 creó, junto con Rafael Millán, la primera versión en CD-ROM del Diccio� nario de la lengua de la Real Academia. Durante muchos años ha ejercido la crítica de obras lexicográficas en El País: parte de su labor está recopilada en http://jamillan.com/dicciona.htm. En su tarea de analista y crítico de la emergente edición digital (que se compendia en su blog: http://librosybitios.com) ha tratado en numerosas ocasiones las posibilidades y realizaciones del soporte electrónico para la publicación de información y el acceso a ella.

José Antonio Millán.

tre los distintos artículos, y por la economía de contenidos, se hace uso de remisiones internas. La famosa Encyclopédie francesa (1751-1772) surgió del éxito de una enciclopedia inglesa aparecida pocos años antes, cuya licencia de traducción se compró. Pero cuando Diderot y D’Alembert fueron nombrados directores, el proyecto se amplió notablemente, hasta constituir una obra en 17 volúmenes. El lugar que la Encyclopédie ha logrado en la Historia proviene de su impacto ideológico, aunque al tiempo supuso un importante salto en la calidad y extensión de este tipo de obras. La Encyclopédie añadía un elemento tradicional de las obras de consulta (al menos desde Isidoro de Sevilla): las ilustraciones, pero en relación a obras anteriores aumentaron en cantidad y calidad. Después de los volúmenes de texto se publicaron 11 más

de láminas, elaboradas con una función didáctica que ya no se separaría nunca de estas obras. Baste el ejemplo de los distintos talleres donde se desempeñaban oficios, como el de impresor o el de luthier.

«Aquí la vasta enciclopedia de Brockhaus»

de tres volúmenes por año, pero en 1914 la salida de nuevos tomos se detuvo, por falta de suministro de la parte de ilustraciones, que se imprimía en Alemania, ... y para esperar el resultado de la Gran Guerra, que tendría indudables consecuencias en la cartografía y en los artículos de Historia.

Este gran proyecto enciclopédico fue apareciendo a razón

En esta época de informaciones instantáneas y actualización inmediata resulta difícil comprender qué podía significar poner al día una obra en papel. Cuando existían enciclopedias impresas (hasta hace pocos años), al hacer una nueva edición había que incorporar hechos de la actualidad, personas que habían destacado por algún motivo, y nuevos conceptos (muchos del campo de la ciencia y de la técnica). Pero una de las tareas clave era matar personas, como se decía en el argot editorial: añadir la fecha de la muerte en las entradas de quienes en la última edición aún figura-

La edad de oro de las enciclopedias en papel culmina con una obra española, la Enciclo� pedia Universal Ilustrada Euro� peo Americana (1908-1933), conocida como «la Espasa» por el apellido de su editor. También aquí se partió de una obra anterior: se compró la licencia en exclusiva de famosas obras alemanas, la Brockhaus y la Dreyer, incluyendo los derechos de un numeroso conjunto de fotografías, grabados y láminas en color, pero la acogida del público y la ambición del editor superaron los límites iniciales.

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 51

03.2 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

en el momento de su publicación quedaban cerradas. Para recoger lo que había ocurrido después se compilaban anexos, que reunían los cambios que se habían producido desde la anterior edición. Pero eso obligaba al consultante de un tema a mirar el artículo principal, ¡y luego todos y cada uno de los apéndices, a ver si había habido novedades! Una solución parcial era editar un tomo de Índices que indicara en qué distintos volúmenes estaba lo que se quería consultar...

Portada de la Encyclopédie, editada por Diderot y D’Alembert en el siglo XVIII. / Foto: Wikipedia.

ban como vivos y habían dejado de serlo.

«Aquí los muchos y cargados volúmenes»

La Enciclopedia Espasa creció hasta ser, según ciertos criterios, la mayor enciclopedia

52

en papel existente. Su núcleo fundamental eran 70 volúmenes, pero con los numerosos apéndices que fue necesario publicar llegaron hasta 117. Y es que uno de los mayores condicionantes de las enciclopedias en papel era que

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

Las enciclopedias en papel fueron elementos clave que no faltaron en las instituciones (bibliotecas, ateneos) y más tarde en los hogares de España y de otros muchos países. Pero en la década de 1990 comenzó la competencia digital, en forma de CD-ROM, que proporcionaban una obra de consulta básicamente muy similar a las prexistentes en papel, con la adición de animaciones y vídeos. Las remisiones internas adoptaron la forma de saltos hipertextuales, que permitían ir fácilmente a la entrada señalada. Pero estas capacidades no se utilizaron, por lo general, para crear una estructura más rica que la de las obras en papel. Además, seguían siendo obras autocontenidas: desde hacía siglos las entradas contenían bibliografía (la Espasa usó

cinco millones de referencias), pero tuvo que pasar tiempo, y desarrollarse la Internet, para que las enciclopedias digitales comenzaran a hacer uso de los enlaces a contenidos ajenos que estaban en la Web. Las obras digitales abrían dos posibilidades clave. Una era buscar en el interior de los textos, con lo que se podía localizar algo que no figuraba como entrada principal: por ejemplo, buscar Rigoletto y encontrar esta ópera en el artículo dedicado a Verdi. En muchas de estas obras electrónicas también se podía buscar con operadores lógicos: entradas que contuvieran la palabra Martín y Lutero, pero no King. Y la otra posibilidad fue copiar y reutilizar fragmentos del texto, o incluso imágenes. Podría pensarse que la redacción de una obra enciclopédica en CD-ROM, o luego en la Web, donde la extensión no conlleva gastos de papel, liberó a las entradas de la tiranía de una longitud limitada, pero esto no es exactamente así: las obras del pasado tenían a veces entradas absurdamente largas (así en la Espasa, donde los colaboradores cobraban por página), y para una obra de consulta con frecuencia lo mejor no es extenderse en detalles, sino precisar.

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.2

« Aquí

la dilatada miscelánea que sabe más que cualquier hombre» Pero la mayor revolución de las enciclopedias empezaría en enero del 2001, cuando se lanzó la Wikipedia, una obra en la Web creada con la colaboración de voluntarios, y cuyo contenido era libremente reutilizable. En el 2005, la versión en inglés ya tenía mayor extensión que la Espasa. En la actualidad contiene más de 20 millones de entradas, entre las 282 lenguas en que existe, creadas por más de 31 millones de usuarios registrados. La revolución que supuso la Wikipedia tiene varias facetas, pero entre ellas no figura su estructura: es básicamente como una enciclopedia del XVIII, todo lo más con las adiciones multimedia de las obras en CDROM de la década de 1990. Pero, como nadie ignora, sus entradas pueden ser redactadas y corregidas por cualquier usuario. Hay una comunidad de voluntarios (que responden al nombre, bastante inadecuado, de «bibliotecarios») que velan por que se cumplan las normas de redacción, que a su vez se han ido fijando en un largo proceso de discusión y búsqueda de consenso. A lo largo del tiempo ha habido cuestiones muy debatidas, como la posibilidad de edición por parte de usuarios

no registrados (que se permite, aunque el sistema guarda la dirección IP desde donde se colaboró), o el hecho de que se blinden a la edición determinados artículos que despiertan controversia. Una cuestión que creó un gran debate fue el propio ámbito de la Wikipedia: ¿deberían permitirse solo entradas del tipo de las que habría en una enciclopedia clásica?, ¿o –dado que no hay límites, como en el papel– cabría cualquier entrada sobre cualquier tema; por ejemplo: sobre todos y cada uno de los personajes de Pokemon? La opción que triunfó al final fue la más tradicional. Pero la auténtica clave de la Wikipedia es que tiene una licencia abierta de reutilización (que se inspira en un mecanismo análogo al que se usaba en la creación de software): cualquier parte de su contenido puede reutilizarse de cualquier manera, incluso comercialmente. Esto ha propiciado la labor de los voluntarios que colaboran en ella: su obra se va a difundir por todos los medios. Unos serán de pago, como el libro con parte de la versión alemana que comercializó la editorial Bertelsmann, pero otros ayudarán de forma gratuita a los más necesitados, como la edición en DVD que el Ministerio argentino de Educación ha difundido para acceso off line en escuelas de todo el país.

Pero la mayor revolución de las enciclopedias empezaría en enero del 2001, cuando se lanzó la Wikipedia

«Aquí el error y la verdad»

Contra lo que todos habrían pensado, una enciclopedia escrita y corregida por personas que no son necesariamente especialistas ha conseguido un nivel de calidad muy aceptable. Los expertos en obras en colaboración aluden a la «acción del enjambre», el hecho innegable de que muchos ojos ven más que unos pocos. De hecho un estudio ha demostrado una clara correlación entre calidad de una entrada y el número de intervenciones (correcciones o adiciones) que se le han practicado. La controversia sobre la fiabilidad de la Wikipedia ha sido una constante, pero ha habido hitos importantes, como cuando en el 2005 un artículo de la revista Nature comparó una serie de entradas científicas de la edición in-

glesa con las equivalentes de la Britannica (la enciclopedia de referencia en el ámbito anglosajón), y salía mejor parada la Wikipedia. Hay que advertir que, como es lógico, no siempre la labor de los redactores o editores de las enciclopedias en papel ha sido escrupulosa, y que por tanto no tiene mucho sentido a priori ni considerar perfectas a unas ni demonizar a otras. De todas formas, ha habido diversos intentos de crear enciclopedias colaborativas con control de expertos, como Citizendium. Con la difusión del acceso a la Web, y la disponibilidad inmediata de contenidos muy diversos (y especialmente la Wikipedia), enciclopedias que llevaban décadas funcionando se encontraron ante una competencia inesperada. Muchas respondieron pasándose también a la Web, bajo distintas modalidades de explotación, mientras mantenían su edición en papel o incluso en CD-ROM. Uno de los casos más famosos es la Bri� tannica, que da acceso a parte de sus entradas gratis y a otras por su sistema de suscripción. Pero la influencia de la Wiki� pedia también se ha hecho notar: hay enciclopedias clásicas que se han abierto a la participación de voluntarios;

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 53

03.2 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

eso sí, bajo el filtro de sus editores. Este es el caso de la Gran Enciclopèdia Catala� na y de la enciclopedia La� rousse en Francia. Pero hay que recordar que la colaboración de los lectores no es algo que se inventara la Wikipe� dia, sino que es una tradición del mundo del saber, y muy especialmente desde la Ilustración. En la introducción al tomo II de lo que fue la primera enciclopedia mexicana, el Diccionario universal de his� toria y de geografía (México, 1853), leemos: «Invitamos formalmente a todos los amantes de la ilustracion, para que nos ayuden con sus producciones. Con que una persona en cada Estado, en cada ciudad importante dedicara algunos ratos de ocio a estas tareas, a vuelta de corto tiempo tendríamos tal suma de datos, que bastarían para formar una interesante compilacion».

«Aquí la memoria del tiem-

po y los laberintos del tiempo» El procedimiento que se ha seguido para la redacción de muchas entradas de enciclopedia ha sido por un lado ver qué decían sobre el mismo tema las obras de consulta anteriores (lo que ha contribuido a perpetuar errores), y por otro acudir a artículos o libros. En el universo digital hay disponible una masa inconmensurable de materiales de todo ti-

54

prensa, más aportaciones de los usuarios (tipo la Wiki� pedia), más contenidos misceláneos. Ante una pregunta concreta, un agente inteligente, al que llamaremos En� ciclopedia, reúne y evalúa informaciones y por fin redacta un texto acompañado de elementos multimedia.

La Enciclopedia Espasa creció hasta convertirse en la mayor enciclopedia en papel existente. / Foto: Wikipedia.

po (textos, imágenes, audios, videos): ¿podría existir un sistema automático que los recopilara y los ordenara en un discurso coherente? Un proyecto así ampliaría realmente el radio de la enciclopedia clásica, porque daría acceso no solo a los temas que se ha previsto que existan, sino a cualquier otro. Implementarlo tendría mucho de sistema ex� perto conocedor de un tema, pero también dependería del avance que haya experimentado la llamada web semánti� ca (aquella que sabe qué es lo que contiene), para poder extraer mejor la información de diversas fuentes. Ya hay algunos prototipos de sistemas que, partiendo de datos más o menos estructurados, son capaces de crear algo parecido a entradas de una enciclopedia sobre perso-

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

nas, países, etc., incluyendo elementos gráficos. Mientras que una fotografía o un vídeo serán sencillamente localizados y reutilizados, un sistema experto podría generar gráficos ad hoc, por ejemplo: histogramas con la evolución de la población de un país comparado con otro, o mapas de una región que reflejen el índice de paro en cada zona. Ya hay aplicaciones que recopilan informaciones y que transforman datos crudos en gráficos, como WolframAlpha. ¿Qué panorama crea esto para las enciclopedias del futuro? Podríamos pensar en un continuum digital del que forman parte digitalizaciones de los libros existentes (a lo Google Books), más bases de datos con artículos científicos, más bibliotecas virtuales, más hemerotecas de

Un sistema así tendría información perennemente actualizada, podría indicar la procedencia de todos y cada una de los datos que aporta, y elaboraría entradas con la extensión y estructura que fijaran sus parámetros. Si consultantes de a pie y expertos en las distintas materias califican la adecuación y precisión de sus respuestas, el agente podría aprender con el uso. Así, de los portentosos sabios del pasado, cuya mente compendiaba todo el saber de la época, de los ejércitos de autores y correctores de las más grandes enciclopedias en papel y digitales, podríamos llegar a sutiles conjuntos de algoritmos, retroalimentados por humanos, que, como diría Bernardino de Sahagún, echan la «red corredera» en el océano del saber digital, para conseguir, por otros medios, lo que ofrecía un prospecto de la Espasa en los años 30: « Necesidad de los tiempos es el saber. Saber pronto y de todo».

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.3

La Internet del futuro y la I+D

La introducción en Internet de nuevas tecnologías, como dispositivos móviles de cuarta generación, sensores o redes de muy alta capacidad, abren un nuevo horizonte de posibilidades al desarrollo científico.

Tomás de Miguel RedIRIS

I 

nternet es un fiel reflejo de la sociedad actual. En la Red podemos encontrar ya de todo: comercio, ocio, cultura, política y, por supuesto, ciencia. Información que ofrece cualquiera, desde cualquier parte del mundo, y todo ello a una velocidad impensable hace solo unos años. Internet es un medio de comunicación y un soporte de información, construido físicamente como una red de redes. Una red que permite conectar recursos, tanto físicos

(instrumentos, repositorios o sistemas de procesamiento de información) como lógicos (programas, bases de datos o analizadores). La introducción de la Web (World Wide Web) en 1990 produjo un cambio fundamental. La Web nació como una aplicación más de los científicos y para los científicos. En concreto, para los investigadores del CERN (Organización Europea de Investigación Nuclear), que necesitaban com-

partir información científica textual de forma sencilla y flexible. Pero con la introducción de la información gráfica la idea creció muy rápidamente, sobrepasando todos los límites previstos y provocando la expansión de Internet a toda la sociedad. Después de 20 años, el modelo esta totalmente integrado en nuestro quehacer diario y ya hay una generación para la que juega un papel esencial en su vida cotidiana, de ahí

que se hable de «la sociedad de la información». En todas las áreas la creación, almacenamiento, control, transporte o difusión de la información tiene ahora una importancia estratégica enorme y es uno de los sectores económicos fundamentales en los países desarrollados porque contribuye decisivamente a mejorar la productividad y permite acceder a mercados más amplios. Al ser el instrumento fundamental de comunicación de ámbito mundial, se ha conver-

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 55

03.3 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Tomás de Miguel Doctor Ingeniero de Telecomunicación de la Universidad Politécnica de Madrid (1987) y director de la Red Académica y de investigación Española RedIRIS desde 2005. Anteriormente ha sido profesor en la E.T.S.I de Telecomunicación de la UPM, donde ha impartido cursos de Informática y Comunicaciones y ha desarrollado su actividad investigadora en el Departamento de Ingeniería de Sistemas Telemáticos (DIT). Hasta su incorporación a RedIRIS fue responsable de los servicios de Informática y Comunicaciones de la E.T.S.I. Telecomunicación UPM, contribuyendo al despliegue de la red local de alta velocidad y el desarrollo de servicios a través de Internet.

Tomás de Miguel.

tido en un recurso público del que dependen empresas, administraciones y personas en general. Desde su creación se ha convertido en el más poderoso instrumento de colaboración disponible para el científico, porque ofrece los cauces más ágiles y flexibles para compartir información. El factor clave para conseguirlo ha sido la aceptación de estándares abiertos como HTML, HTTP y sobre todo IP, que es el protocolo fundamental de Internet. Los estándares abiertos han permitido que fabricantes, proveedores y consumidores puedan utilizar las mismas tecnologías sin coste e, incluso, contribuir a mejorarlas proponiendo modificaciones a los estándares. Esto no es válido solamente para las tecnologías de comunicaciones, también se aplica a la información, co-

56

mo en el caso de Wikipedia o de YouTube, una compañía que existe desde hace pocos años y ahora reproduce tres mil millones de vídeos al día. Pero, con todo, el ejemplo más relevante es el de las redes sociales (Web 2.0), como Facebook, Tuenti, LinkedIn o SecondLife. Eso no quita para que puedan existir también servicios basados en esos mismos estándares con los que desarrollar aplicaciones por las que se pueda cobrar por su uso como, por ejemplo, Amazon o AppleStore. La clave está en que todas las opciones son posibles. Además, cada vez es mas frecuente transferir imágenes, vídeos e incluso comunicaciones telefónicas y de televisión, lo que hace crecer mucho el tráfico por la Red. A nivel profesional se ha incrementado espectacularmente la utilización de Internet en los negocios, desplegándose intranets

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

y extranets para sus operaciones del día a día. Esto ha permitido colaborar de forma mucho más flexible y al mismo tiempo reducir costes, generándose demanda de nuevos servicios que requieren más ancho de banda. La Internet móvil Aunque todavía la mayoría de los usuarios acceden a Internet en su oficina o en casa desde un PC fijo, esto está cambiando muy rápidamente. Uno de los factores que van a suponer un mayor impacto en Internet para los próximos años empieza a ser la forma en que los usuarios acceden a la Red. Cada vez se utiliza una mayor variedad de dispositivos, desde el PC portátil al netbook y, más recientemente, los smart������ phones������������������������� y los tablets, que interaccionan con otros usuarios de muy diversas formas, desde la tradicional conexión tele-

fónica o los SMS a los chats, las redes sociales o la videoconferencia. La posibilidad de disponer de conexión a Internet en el móvil permite al usuario estar conectado permanentemente esté donde esté. Es decir, estar siempre presente en Internet. En estos momentos el 57% de los usuarios que disponen de conexión se relacionan más a través de Internet que en la vida real y los jóvenes de entre 8 y 18 años invierten una media de siete horas y media al día entre ver la televisión, los videojuegos o accediendo a Internet a través del móvil. En España el número de teléfonos móviles (51 millones) ya supone más del doble del número de teléfonos fijos (unos 20 millones). Mientras aumenta su número, el coste de los dispositivos continúa bajando de precio y de peso, al tiempo que la potencia, la flexibilidad de uso y la autonomía aumentan. Se calcula que en menos de una década habrá 50.000 millones de dispositivos conectados a Internet, en lo que será una auténtica sociedad global presente en la Red. Este proceso de mejora no ha terminado en absoluto. Aunque el acceso a Internet es posible con las actuales redes 3G o WiFi, ya está en marcha

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.3

Asturias

Cantabria

P. Vasco

Galicia

La Rioja

Navarra Aragón

Cataluña

Castilla y León

Madrid

Portugal

Extremadura

Islas Baleares Valencia

Castilla-La Mancha

Andalucía

Murcia

Islas Canarias

Mapa de la RedIRIS.

la cuarta generación de redes móviles (basada en LTE o WiMax), con la que es posible disponer de velocidades de conexión similares a las de los terminales fijos actuales. Las posibilidades que ofrece la movilidad de los dispositivos a los investigadores son infinitas. Además de po-

der acceder a los datos de un experimento en tiempo real desde cualquier parte y compartir los resultados inmediatamente con otros colegas, también permite manipular instrumentos o controlar varios experimentos a la vez, sin necesidad que tener que estar delante de cada uno de ellos.

La Internet de las cosas Internet comenzó con la conexión de equipos informáticos especializados. Más adelante se pasó a conectar los ordenadores centrales con equipos de usuario y todos ellos entre si. Sin embargo para los próximos años el factor dominante de la rápida evolución tecnológica va a

ser la incorporación de ciertos dispositivos, como sensores y actuadores, con presencia en la Red, y que interactuarán unos con otros. Se trata de incluir pequeños ordenadores en los objetos cotidianos (casas, coches, electrodomésticos o incluso sobre el cuerpo humano).

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 57

03.3 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Pronto estos dispositivos se harán más pequeños, consumirán menos energía y serán mucho más baratos y entonces Internet crecerá rápidamente en cientos de miles de millones de nuevos agentes. Cada uno de esos pequeños agentes estará siempre conectado y recogiendo, transmitiéndo o gestionando la información de forma inmediata. Gracias a esa información mejorará la calidad de vida y se reducirán los costes en los negocios, el transporte, la salud o la energía, al poder proporcionar servicios a medida, muy ajustados a las necesidades de cada usuario.

El primer efecto de esta globalización es la posibilidad de disponer de plataformas integradas de servicios que, con pequeñas diferencias, serán útiles a cualquier usuario

Donde primero se empieza a manifestar este cambio es en el terreno de la experimentación. Los científicos disponen de dispositivos que, distribuidos por el laboratorio o por el entorno que se desea investigar, permiten obtener mucha más información que antes, mucho más completa y en mucho menos tiempo. Los primeros campos donde se va a desarrollar la Internet de las cosas son en la experimentación de fenómenos naturales en entornos peligrosos (como zonas volcánicas) o en los que el observador puede alterar la observación con su presencia. Un buen ejemplo de ello es el proyecto LifeWatch que con-

58

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

siste en una infraestructura tecnológica para obtener datos de biodiversidad conectando estaciones biológicas situadas en diferentes partes de Europa. Cada parque dispone de una red de sensores que envían su información a través de redes inalámbricas a una estación que recoge y procesa todos los datos de manera que el biólogo tiene a su alcance toda la información en tiempo real y puede analizarla y compartirla con sus colaboradores, estén donde estén. No todos estos dispositivos entregarán directamente la información para que pueda ser procesada por humanos. La verdadera revolución de la Internet de las cosas está en la comunicación máquina a máquina. La forma de incrementar sensiblemente la eficiencia y ofrecer mejores oportunidades es desarrollar la comunicación y el procesamiento de información entre máquinas, que gestionen información por sí solas sin intervención humana. De esa forma se podrá procesar mucha más información y presentar al usuario final una información mucho más elaborada. Un factor clave para conseguir que el nuevo enjambre de dispositivos pueda acceder a la Red es que cada uno pueda identificarse de un mo-

do único. El actual protocolo de Internet (IPv4) solo permite identificar 4.000 millones de elementos de red diferentes y todas esas identificaciones ya están asignadas o en proceso de asignación. Para hacer posible la Internet de la cosas es necesario disponer de muchos más identificadores (direcciones IP). Por eso se desarrolló hace unos años un nuevo protocolo (IPv6) con el que es posible asignar trillones de direcciones por persona. En total hasta 3,4 x 1038 direcciones para todo Internet. IPv6 está totalmente operativo y todos los PCs lo incorporan desde hace años, pero al ser incompatible con el tradicional IPv4 su despliegue efectivo es todavía reducido. Se espera que con el agotamiento, cada vez más próximo, de las direcciones IPv4, se acelere su uso efectivo en los próximos años. La Internet en la nube El aumento de las comunicaciones de máquina a máquina, la introducción de sofisticados dispositivos móviles capaces de procesar mucha información, pero con poca o nula capacidad de almacenamiento, y el aumento masivo del volumen de datos a manipular han llevado a desarrollar el concepto de virtualización de infraestructuras y servicios o computación en la nube (Cloud Computing). Consiste en desplegar una infraestructura que

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.3

permita almacenar, procesar y recuperar información desde cualquier parte de Internet y que pueda valer para cualquier comunidad de usuarios. El primer efecto de esta globalización es la posibilidad de disponer de plataformas integradas de servicios que, con pequeñas diferencias, serán útiles a cualquier usuario. Un buen ejemplo es la experiencia de Apple, que ha desplegado una plataforma (Apple­ Store) y un modelo de negocio para el que cualquier desarrollador puede crear nuevos servicios, creando un mercado único para todos los usuarios con independencia de su área de interés. Apple también ha dando lugar a una nube (iCloud) en la que los usuarios pueden tener sus aplicaciones y contenidos. La virtualización permite desplegar una plataforma (una nube) específica y diferente para cada comunidad de usuarios, pero utilizando las mismas tecnologías y compartiendo los mismos recursos básicos. Surge un nuevo sector económico para proporcionar plataformas de servicios comunes a numerosas comunidades de usuarios cuyo objetivo es optimizar globalmente el uso de recursos. Además, este modelo permite ajustar mucho más el consumo y la demanda. Solo es ne-

cesario pagar por los recursos consumidos, en vez de por los recursos adquiridos, sean usados o no. Por ejemplo, en una red de supercomputación grid cada usuario reserva los recursos que necesita para su cálculo durante un periodo de tiempo. Después esos mismos recursos estarán disponibles para usuarios de cualquier otra organización. La convergencia entre las tecnologías web y la virtualización va a ser la base para idear la nueva generación de servicios para Internet, lo que se conoce como la Internet del futuro (FI). Será el medio para poder superar muchas de las barreras actuales. Por ejemplo, en la investigación médica los datos sanitarios solo pueden ser manipulados por profesionales del centro al que pertenecen los enfermos. También los datos sobre energía solo pueden ser empleados por las compañías eléctricas. En la Internet del futuro todos esos datos podrán ser reutilizados, con las debidas autorizaciones, en muchos otros contextos, generando un ecosistema de servicios en el que se accederá a un volumen inmenso de datos de forma ágil y personalizada para cada usuario. Redes de alta capacidad El modelo de computación en la nube se basa en la existencia de redes de transporte

Gran parte de las comunicaciones entre clientes y servidor, que ahora se llevan a cabo localmente en un domicilio o una empresa, van a convertirse en comunicaciones globales con la nube

muy potentes con inteligencia de red avanzada y capacidad para compartir y extraer valores de los datos existentes. Gran parte de las comunicaciones entre clientes y servidor, que ahora se llevan a cabo localmente en un domicilio o una empresa, van a convertirse en comunicaciones globales con la nube. El desarrollo tecnológico y el aumento en el uso de la Red reduce los costes de las comunicaciones y, en consecuencia, favorece el desarrollo de nuevos servicios que utilizan cada vez más capacidad de la Red, lo que obliga de nuevo a los operadores de telecomunicaciones a aumentar la capacidad de sus redes troncales. En 2006 se estimó que se intercambiaron 161.000 millones de GigaBytes en Internet. En 2010 el tráfico se ha multiplicado por seis, hasta los 988.000 millones de GigaBytes. Este ciclo constante de más capacidad, que genera nuevos servicios, que consumen mas recursos, se ha venido sucediendo durante dos décadas y no parece que vaya a cambiar en los próximos años. En España, cuando se creo RedIRIS (Red Académica y de Investigación Española) en 1988, la velocidad en cada en-

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 59

03.3 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

lace que componía la Red era de 9,6Kbps. En 2011, con la nueva RedIRIS-NOVA cada enlace de la Red permite, con la tecnología que se está desplegando actualmente, decenas de canales a una velocidad de 10Gbps, lo que supone 80 millones de veces más rápida. Para poder seguir creciendo en esta proporción es necesario utilizar la tecnología de fibra óptica, que se refiere al medio, y la tecnología asociada a la transmisión de información, como pulsos de luz a lo largo de un filamento de vidrio o de plástico o fibra. La fibra óptica transporta mucha más información que un cable convencional de cobre, no está sujeta a interferencias electromagnéticas y permite cubrir distancias mucho mayores sin necesidad de regenerar la señal, de ahí que desde hace años se utilice masivamente para las comunicaciones transcontinentales y que ya se empiece a utilizar en la conexión a Internet de cada domicilio (FTTH – fiber to the home). La nueva generación de redes ópticas está empezando a explotar realmente las capacidades de comunicación de los cables ópticos. Cada hilo de fibra soporta hasta 128 canales ópticos con las tecnologías actuales, y cada ca-

60

nal óptico suele ser de hasta 10Gbps. Pero ya existen canales de 40Gbps, 100Gbps y hasta 1.000Gbps. Ello supone que las posibilidades de crecimiento para el futuro son todavía mucho mayores. Conclusión El entorno de las redes académicas para la investigación y el aprendizaje va a experimentar un cambio profundo en los próximos años. La introducción de las nuevas tecnologías de la Internet del futuro va a producir cambios en la naturaleza del proceso científico y en la forma de entender el aprendizaje. Aunque no es posible conocer en detalle como se van a concretar esos cambios y no es descartable que aparezcan otras tecnologías. Ciertas áreas, como las relacionadas con los dispositivos móviles, los sensores o las redes de alta capacidad, van a ser sin duda claves en la configuración del escenario que se perfila para la próxima década. Los primeros demandantes de esas nuevas tecnologías son las grandes instituciones y proyectos científicos, como CERN, EGI, PRACE o ITER, que despliegan poderosos instrumentos científicos sobre los que trabajan miles de investigadores distribuidos por todo el mundo. Esto ya exige

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

El entorno de las redes académicas para la investigación y el aprendizaje va a experimentar un cambio profundo en los próximos años

potentes redes de comunicaciones para mover, almacenar y procesar enormes volúmenes de datos. En algún caso la Red va incluso a formar parte del instrumento científico, como en el proyecto eVLBI para la observación de objetos celestes sincronizando gran número de radiotelescopios ubicados en distintas partes de la Tierra con un centro que se encuentra en Holanda (JIVE). En este proyecto, la red de datos es un elemento del instrumento virtual formado por la red de telescopios. La Internet en general y las redes académicas en particular han evolucionado desde un puro medio de transporte de datos a un entorno de comunidades globales que comparten recursos y objetivos. La Internet del futuro va a permitir introducir nuevas formas de colaboración, va a ofrecer muchas más posibilidades a los investigadores, que van a poder disponer de más medios y más datos para sus investigaciones y van a tener mucha más facilidad para compartirlos con sus colegas en cualquier parte del mundo. Las oportunidades que se ofrecen para el futuro son inmensas y en muchos aspectos difíciles de imaginar en estos momentos.

Ciencia y humanidades La Fundación BBVA tiene como objetivo central de su actividad el apoyo a la investigación científica de excelencia, la música, la creación artística y literaria y las humanidades. La ciencia, la tecnología, la música y el arte, así como su estudio académico en el marco de las disciplinas humanísticas, forman hoy un espacio continuo, convergiendo en el modelado de la cultura y la sensibilidad del presente. La Fundación BBVA impulsa el conocimiento a través de programas propios, abarcando proyectos de investigación, formación avanzada, y difusión a la sociedad de los resultados de la investigación y la creación. Entre las áreas de atención preferente destacan el medio ambiente (biodiversidad, cambio climático), la biomedicina, las ciencias básicas y la tecnología, economía y sociedad, música clásica y contemporánea, literatura, artes plásticas y humanidades. La Fundación BBVA reconoce también, a través de distintas familias de premios, las realizaciones de investigadores y artistas. Los Premios Fundación BBVA Fronteras del Conocimiento, desarrollados en colaboración con el CSIC y actualmente en su tercera edición, distinguen a escala internacional contribuciones particularmente sobresalientes, capaces de desplazar de manera significativa el ámbito de lo conocido en los ocho ámbitos siguientes: Ciencias Básicas (Física, Química, Matemáticas), Biomedicina, Ecología y Biología de la Conservación, Tecnologías de la Información y la Comunicación, Economía, Finanzas y Gestión de Empresas, Música Contemporánea, Cambio Climático, y Cooperación al Desarrollo. Con esas actuaciones, la Fundación BBVA desarrolla un principio central del Grupo BBVA: trabajar por un futuro mejor para las personas, mediante el impulso continuo del conocimiento y la innovación. www.fbbva.es

04 Efectos sociales de las tecnologías de la información

04.1 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Los cambios culturales provocados por el software social Las «redes sociales», entendidas aquí como social networking sites o aplicaciones sociales, han pasado a formar parte de la experiencia cotidiana de millones de personas en todo el mundo y están provocando profundos cambios culturales a escala global.

José Luis Molina EgoLab-Grafo y Universitat Autònoma de Barcelona

L 

as redes sociales se caracterizan por adaptar de forma no exclusiva la navegabilidad de la Red a los contenidos vinculados a la lista de contactos sociales declarados previamente. Su extensión a los dispositivos de comunicación móviles ha hecho del individuo conec� tado el centro de todo el sistema. Algunas de las consecuencias de este fenómeno son el consumo líquido o ins-

64

tantáneo de contenidos breves y desechables como forma habitual de aprendizaje y acción, la supersocialización o la atención a crecientes flujos de requerimientos sociales redundantes que requieren intervención del usuario y el aumento del potencial de movilización de comunidades instantáneas en tiempos de crisis. Por último, el concepto de privacidad necesita ser repensado.

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

La expresión « redes sociales» ha pasado en poco tiempo a formar parte del lenguaje cotidiano en todos los idiomas escritos del Planeta en su acepción de social networking sites, social software o social applications. Esto es así por la inmensa presión comercial ejercida por empresas y medios de comunicación en todo el mundo, una presión paralela al desarrollo de tecnologías de comunicación móviles cen-

tradas en el consumidor individual. La razón de esta monumental inversión es muy sencilla: mediante esta tecnología «social» es posible aumentar el consumo de productos, contenidos y servicios (incluidos los propios de la comunicación). Ni más ni menos. La retórica del «2.0», que ensalza la participación decisiva de los otrora pasivos receptores, la horizonta-

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.1

José Luis Molina Profesor titular de antropología social de la Universitat Autònoma de Barcelona y actualmente delegado del Vicerrector de Trasferencia Social y Cultural de esta universidad. Ha sido profesor invitado de la Universidad Nacional Autónoma de México (Laboratorio de Redes) y de la University of Florida (Departamento de Antropología). Experto en redes sociales, es el impulsor de la lista Redes (www. redes-sociales.net) y de la revista Hispana para el Análisis de Redes Sociales (http://revista-redes.rediris.es). Su campo de investigación es el estudio comparativo de las redes personales y de comunidades locales. Lidera el grupo de investigación EgoLab-Grafo (www.egolab.cat). Forma parte del comité de ética de investigación animal y humana de la UAB y de la comisión de ética de la International Network for Social Network Analysis.

José Luis Molina.

lidad de las comunicaciones y la emergencia de una llamada «inteligencia colectiva», contribuye a legitimar este nuevo avance del «capitalismo informacional» que diría Castells: la mercantilización de (al menos parte de) las relaciones sociales. Las consecuencias culturales son innegables. Veamos cómo hemos llegado hasta aquí y qué nos depara el futuro próximo.

delos analíticos para tratar de comprender y explicar mejor diversos problemas de investigación, como por ejemplo la difusión de ideas o conductas, la movilización colectiva o el apoyo social, entre otros muchos. De todas estas contribuciones cabe destacar una que ha sido clave para entender el desarrollo de estas plataformas y tecnologías: los estudios de Milgram y sus colaboradores sobre «Un Mundo Pequeño».

El estudio de las «redes sociales», esto es, de los patrones de interacción entre personas o entidades tiene más de medio siglo de existencia. Psicólogos, antropólogos, matemáticos, sociólogos, entre otros, recogieron sistemáticamente relaciones sociales e intentaron incorporarlas en sus mo-

En 1967, Stanley Milgram se preguntaba cómo era posible encontrar tan frecuentemente conocidos en común entre personas desconocidas. Para ello partió de los estudios realizados en el Massachusetts Institute of Technology (MIT) por Pool y Kochen, los cuales habían intentado estimar el ta-

maño medio de las redes personales, el cual evaluaron en unas 500 personas. Así y todo –se preguntaba Milgram– en un país de 200 millones de habitantes como Estados Unidos, ¿qué probabilidades reales había de que se produjese ese fenómeno? Con 680 dólares que le proporcionó la Universidad de Harvard inició un experimento que ha pasado a ser universalmente famoso: hacer llegar un mensaje a un destinatario del cual solamente se conocen algunos datos a través exclusivamente de co� nocidos. Para ello eligió dos localidades alejadas en un primer estudio exploratorio, Kansas y Cambridge (USA). En un segundo estudio más ambicioso repitió el experimento en Boston y Nebraska. En este reclutó voluntarios con anun-

cios en prensa y les pidió que hiciesen llegar una carta a un desconocido corredor de bolsa de Boston a través de sus cadenas de contactos. Es interesante señalar que 217 de las 296 personas de partida enviaron el documento y que 64 consiguieron su objetivo (un sorprendente 29%). Las cadenas de contactos que lograron llegar al destinatario tenían una longitud media de 5,2 pasos. Por tanto, entre dos personas tomadas al azar era posible encontrar una cadena de contactos que las uniese con esa longitud media. De ahí la famosa expresión «6 grados de separación» (bueno, 5,2 de hecho). Sucesivos estudios confirmaron este hallazgo. Así pues, quedaba empíricamente demostrado el aforismo de «el mundo es un pañuelo».

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 65

04.1 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Otra cuestión era qué estructuras sociales hacían posible este fenómeno. Duncan Watts retomó el problema en los años 90 y encontró una sencilla explicación: aunque las estructuras sociales son básicamente locales y redundantes, existen unas pocas personas, los hubs o brokers, que conectan esos subgrupos de forma que todo el sistema acaba teniendo un diámetro muy pequeño (esto es, el camino más largo

entre dos puntos cualesquiera es muy corto). Estas personas suelen ser de rango social elevado. De hecho, esta característica de un mundo pequeño no solamente es propia de los sistemas sociales sino de todos los sistemas complejos como las redes de ordenadores, los sistemas neuronales, las citas científicas, los sistemas de transporte, ecosistemas y un larguísimo etcétera. De ahí la expresión del físico

Barabasi y otros de la «Ciencia de las redes». Pues bien, las primeras plataformas de social networking se pusieron en marcha con el objetivo de hacer visible las cadenas de contactos que de otra forma quedaban ocultas y, de esta forma, aprovechar al máximo el potencial de la red social. Dicho y hecho. El primer So� cial Networking Site (SNS) fue lanzado en 1997 con el sinto-

mático nombre de sixdegrees. com. Aunque este sitio tuvo pocos años de vida, a partir de ese momento los SNS fueron ganando terreno y extendiéndose por todo el mundo, especialmente a partir del éxito inu­ sitado de Facebook. Y es que Facebook merece una atención especial. Lanzado en 2004 para estudiantes universitarios, en 2005 se abrió a un público más amplio

/// Figura 1. Mapa mundial de las redes sociales (junio de 2011) ///////////////////////////////////////////////////////////////////////////////////

Facebook

V Kontakte

Orkut

QZone

Odnoklassniki

Créditos: Vicenzo Cosenza – www.vincos.it http://www.vincos.it/wp-content/uploads/2011/06/WMSN0611-1024.png

66

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

Draugiem

Hyves

Licencia: CC-BY-NC Fuente: Google Trends for Websites/Alexa

Zing

Mixi

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.1

y desde entonces no ha parado de crecer, teniendo en la actualidad más de 800 millones de usuarios. Facebook se caracteriza por su carácter generalista mientras que otros SNS se especializan profesionalmente (Linkedin, Xing, Visible Path, Academia) o por intereses compartidos. En cualquier caso el elemento clave de esta revolución cultural es la declaración de con� tactos asociados a un perfil individual como base de la na� vegabilidad en Internet. Así, esta característica se ha exportado a los sitios centrados en fotografías (Flickr), videos (Youtube), Bookmarks (Delicious), música (Last.FM) o microblogs (Twitter). Los SNS se están implementando en universidades y corporaciones como parte de sus intranets y ya son parte del «nuevo sistema operativo social», siguiendo la expresión del próximo libro de Lee Rainie y Barry Well­man, que caracteriza y caracterizará nuestras vidas en un futuro próximo. Veamos algunas de sus consecuencias. Individualización de las tecnologías (y de la cultura) No hace mucho llamábamos por teléfono a un número o a un lugar. Recuerdo una conferencia de un representante de Telefónica hacia el año 1990 en una escuela de negocios, anunciando que en el futuro los números serían persona-

Los recursos cognitivos disponibles para la socialización son limitados y se reparten entre las interacciones, de forma que a más tamaño de la Red le corresponde menos valor emocional disponible para cada contacto

Ajuar de los enterramientos del futuro. / Autora: Maria Ángela Petrizzo.

les. Los asistentes nos miramos con una sonrisa cómplice de incredulidad. Hoy día, si nos enterrasen con ajuar, como en la Prehistoria, sin duda pediríamos que nos enterrasen con nuestro Smartphone. Estos dispositivos hacen de todo, incluso mantener conversaciones orales en tiempo real (llamar por teléfono, vaya). Y lo que es más importante, permiten la conexión con Internet o, lo que es lo mismo, la producción, el consumo y

la comunicación de contenidos siguiendo (aunque no exclusivamente) los contactos sociales. Las consecuencias culturales son formidables: el individuo aparece como la entidad natural sobre la que gira todo el sistema, la inmediatez del acceso acostumbra a un consumo líquido, de usar y tirar, en tiempo real de contenidos breves y ligeros; se refuerza la oralidad como elemento comunicati-

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 67

04.1 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

vo, uno de los elementos de la «supersocialización» que veremos más tarde y se delega en la tecnología la gestión de gran parte de las relaciones sociales. El concepto de «individuo» es un lugar común en la cultura occidental y el desarrollo del capitalismo. Sin embargo, conviene recordar que la historia del Planeta es mucho más amplia que la de la globalización y que en multitud de sistemas culturales los individuos no eran entidades per se, sino que las personas formaban parte de grupos que les conferían parte de sus identidades sociales. Pero esta historia ha desaparecido o está próxima a desaparecer: el indi� viduo conectado (siguiendo de nuevo a Wellman) es el nuevo actor social por excelencia. Supersocialización Los individuos conectados están continuamente atentos a grandes flujos de información, atendiendo a normas de etiqueta cada vez más difíciles de satisfacer (como seguir a quien te sigue, o aceptar a quien te invita, o dejar un comentario ingenioso a alguien que te ha citado en algún espacio) y revisando los mensajes que las compañías emiten automáticamente para avisar de la disponibilidad de comunicaciones. El resultado es la supersocialización: la inversión de cada vez más tiempo en interacciones socia-

68

les redundantes. Igualmente, la cultura de la inmediatez lleva a usar la conversación telefónica como mecanismo de coordinación de lo que en otro momento sería simplemente respetar la puntualidad. Esta neooralidad explica el éxito de la telefonía celular en todo el mundo pues se aproxima a un comportamiento natural como es el habla, pero digitalizada, transformada y reconstruida a través de complejas infraestructuras de comunicaciones. No es de extrañar que el mercado más importante de los teléfonos celulares sea precisamente el de las personas analfabetas. Ahora bien, lo que antes contenía la carta, o el telegrama, ahora se puede hacer oralmente y en tiempo real. Y con una diferencia muy importante: las cartas y los telegramas no exigen dedicar al menos un 30% del tiempo de la interacción a intercambiar educadamente informaciones sobre la situación de cada uno y los suyos. Ahora bien, esta supersocialización no significa que haya cambiado de manera significativa la estructura de las redes personales. Las redes personales tienen dos grandes características relacionadas. La primera es que se configuran con un núcleo de lazos fuertes, entre 5 y 15 aproximadamente, que cambia poco con el tiempo, y una periferia muy variable de lazos débiles, que cambia

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

El éxito de la telefonía celular en todo el mundo se aproxima a un comportamiento natural como es el habla, pero digitalizada, transformada y reconstruida a través de complejas infraestructuras de comunicaciones

más rápidamente. La segunda es que la localización geográfica de esos contactos es glocal, es decir, una mayoría viven cerca y un número reducido de los contactos activos puede estar disperso por todo el mundo. Con la supersocialización aumentan rápidamente los lazos débiles pero no la estructura centro-periferia comentada ni la distribución geográfica de los contactos activos. Esto es así por dos razones. La primera es porque los recursos cognitivos disponibles para la socialización son limitados y se reparten entre las interacciones, de forma que a más tamaño de la Red le corresponde menos valor emocional disponible para cada contacto. Dicho de otro modo: disponer de un «millón de amigos» en Facebook implica que cada «amigo» tiene asignado un valor emocional cero (o algo muy próximo a cero). La segunda consiste en el hecho de que los SNS (incluso Twitter) suelen hacer más densa la comunicación entre redes sociales preexistentes (sin cerrarse a nuevos contactos), por lo que el fenómeno de la glocalidad se repite. Esto nos lleva a la tercera característica: las posibilidades de movilización. Movilización La desafortunada denominación «Primavera Árabe» (una traslación de la « Primavera

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.1

de Praga») para referirse a los movimientos revolucionarios experimentados en los estados árabes en el 2011 se asocia a Twitter y a los smartpho� nes: los activistas informaban en tiempo real de los acontecimientos haciendo competencia a la propaganda de cada régimen emitida por los medios de comunicación convencionales. El fenómeno no es nuevo y no se explica solamente por la disponibilidad de telecomunicaciones personales en tiempo real, aunque hay que reconocer que las facilitan: la reducción de la distancia social y de los umbrales de movilización espontánea en momentos de crisis. El estudio del BIFI de la Universidad de Zaragoza sobre el intercambio de mensajes en el movimiento del 15-M (15m. bifi.es) pone de manifiesto la dinámica que se produce en estos fenómenos. En momentos de crisis los contactos débiles dejan pasar tanta información y credibilidad como lo hacen los contactos fuertes en circunstancias normales, emerge un sentimiento de solidaridad colectiva temporal y aumenta el número de conocidos de cada persona que manifiestan una conducta determinada (como, por ejemplo, acampar en la Puerta del Sol de Madrid) con lo que se precipita, por influencia social, la adopción de esta nueva con-

Egipto, abril 2011. / Foto: cedida por el autor.

ducta en cascada. Aunque este fenómeno es bien conocido (de hecho es el fenómeno que se produce en una multitud), el uso de estas tecnologías sociales lo acelera. No es de extrañar que en países tan importantes como China, Twitter no sea operativo y que los Gobiernos se interesen por controlar los mensajes de Blackberry entre otros operadores.

Y esto nos lleva al tema final: la redefinición del concepto de privacidad. Privacidad Los Estados han recogido históricamente información sobre sus pobladores. Aunque el secreto estadístico apareció en España en fecha tan temprana como el siglo XVIII con el Censo de Floridablanca, podemos

decir que de forma sistemática los datos recogidos por los estados han acabado en empresas que han usado esta información de forma comercial, ya sea por procesos de privatización, triquiñuelas legales, descuidos, simple robo u otros. Pues bien, con la irrupción de Internet y de las tecnologías sociales podemos decir que el proceso se ha invertido: son las empresas comerciales las que disponen de toda nuestra vida registrada. La posición geográfica en cada momento que emite nuestro celular, el contenido de los mensajes, la hora exacta, los destinatarios con los que estamos conectados, las conversaciones privadas, en fin, todo. Y lo más importante, de forma voluntaria. En estas circunstancias hay autores que sugieren que la única solución es hacerlo todo público, renunciar a la privacidad, como el mecanismo más eficiente para evitar la comercialización de la información personal. Pero quizás lo más importante no es la accesibilidad a la información personal sino las tecnologías que la hacen significativa. Y esas tecnologías hace tiempo que están disponibles. Hace falta una nueva cultura de la información que nos permita navegar en este océano para el que sin duda ya no sirven las viejas cartas marinas que nos enseñaron nuestros mayores.

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 69

04.2 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

La recuperación de prácticas sociales en la Red El mundo digital, virtual, especular y reticular que comienza a habitar entre nosotros muestra, entre otros interesantes fenómenos, la tendencia a recuperar y reinterpretar actividades que podrían parecer ajenas a un mundo tecnológico. El autor señala cinco aspectos que reflejan esta migración insospechada al espacio digital.

Antonio Rodríguez de las Heras Universidad Carlos III de Madrid

El nuevo artesanado La Revolución Industrial afectó profunda y ampliamente al trabajador artesano. La industria le despojó, con el maquinismo, de sus medios de producción; también de su lugar, pues el trabajo ya no se hacía en el hogar sino en una nave industrial; y de su tiempo, que dejó de ser flexible y organizado por el propio trabajador según las tareas pendientes, pa-

70

ra convertirse en un horario impuesto y uniforme. Cuando este despojo parecía irreversible, el mundo digital abre una corriente contraria: cada vez hay más posibilidades para que se establezcan nuevos artesanos. Sus medios ya no serán el torno, el yunque o el banco, sino un artefacto electrónico, un computador, con el que se pueden realizar

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

muchas tareas, además de hacer al trabajador, por la Red, ubicuo. Así que también recupera su lugar, ya que no necesita ir a un local, sino estar en la Red, y la Red es un espacio sin lugares (ese es el gran fenómeno de un mundo en red) en el que, por tanto, se dan las propiedades de la ubicuidad y la deslocalización. Y, por último, liberado de tener que ir no tiene entonces que llegar a

una hora y estar un tiempo: el tiempo vuelve a ser blando, sin la rigidez del horario, acomodable a la voluntad del trabajador y a las tareas que asuma. Estos nuevos artesanos no trabajan con la arcilla, el hierro, la madera o el cuero, sino con la información. Todas las actividades que tengan como materia prima la información son susceptibles de este cambio.

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.2

Antonio Rodríguez de las Heras Catedrático y director del Instituto de Cultura y Tecnología de la Universidad Carlos III de Madrid, en la que ha sido Decano de la Facultad de Humanidades, Comunicación y Documentación. Sus estudios se centran en las transformaciones que la tecnología produce en la cultura y en la educación. Ha dirigido el Laboratorio EducaRed de Formación Avanzada. Profesor en la Sorbona y en Paris VIIISaint Denis. Premio Fundesco de Ensayo con el ljbro Navegar por la información. Sus publicaciones disponibles en la Red están en www.rodriguezdelasheras.es. twitter.com/ARdelasH.

Antonio Rodríguez de las Heras.

Esta resaca posindustrial se intensificará posiblemente en los próximos años como consecuencia de la trastornadora crisis económica. Se está produciendo, por la necesidad, un significativo cambio en la mentalidad de las sociedades hasta ahora privilegiadas: los jóvenes ya no aspiran como el más satisfactorio remate de sus estudios a ingresar en una gran empresa o en una administración pública, pues la vulnerabilidad de estos empleos es cada vez más elevada. Por otro lado, pero amplificando este cambio de aprecio, poco a poco van brotando en las nuevas generaciones otros valores, como el del tiempo, y no sólo el del dinero, que no se compaginan con la alienación que produce el trabajo por cuenta ajena en un sistema capitalista insaciable.

Hasta ahora, el nada apetecible trabajo freelance, se veía como una opción para cuando no había otro remedio, y en general no era valorado socialmente. Hoy, en este escenario de devastación de lo establecido que presenta la crisis, nuevas formas profesionales, nuevas actividades, nuevas relaciones laborales, nuevos modelos de negocio se están gestando. Lo que hasta estos años críticos se interpretaba como un trabajo precario perderá esa consideración, pero no por conformismo fatalista, sino por otros valores, y porque este espacio sin lugares que es la Red permite formas nuevas impracticables en nuestro espacio natural. Modelos de negocio insostenibles con una plantilla fija, con unos locales para albergarla,

Hoy, en este escenario de devastación de lo establecido que presenta la crisis, nuevas formas profesionales, nuevas actividades, nuevas relaciones laborales, nuevos modelos de negocio se están gestando

tendrán viabilidad si encuentran la proporción adecuada entre su presencia de este lado y del otro de la pantalla, entre los empleados en las tareas in situ y los nuevos artesanos deslocalizados en la Red. La conciencia de pertenencia al sistema capitalista y su visión cambiarán por otras perspectivas y experiencias que dará esta nueva organización de las relaciones laborales. Así que un profundo e imprevisible cambio social subyace bajo esta transformación que trae el mundo en red. Internet va por barrios La Red es un mundo virtual, y por ser virtual es también especular; es decir, nos reflejamos en ese mundo como si fuera un espejo. Es un espejo borroso, aún las imágenes son muy imprecisas, pero el proceso hacia la nitidez es imparable. Muchas personas se inquietan ante esta característica de la Red. Les parece que amenaza su intimidad, ven este trasvase de datos digitales sobre su identidad y sus actividades como la amenaza de un totalitarismo orwelliano. Pero es inevitable: vamos dejando rastro en la Red, ya no de huellas ni de células muertas con nuestro ADN, sino de ceros y unos. Estas trazas no implican solo la utilización maligna de un

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 71

04.2 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

mo un barrio en donde conocemos y nos conocen, donde sabemos en qué sitio están las cosas, y éstas se encuentran próximas, sin tener que depender de un taxi. No por ello estamos encerrados, ni nuestro mundo urbano es limitado: toda la megalópolis está a nuestro alcance.

Cúpula del British Museum de Londres. / Foto: Antonio Rodríguez de las Heras.

Gran Hermano; con ellas se puede construir un perfil. Se recurre con frecuencia a la metáfora de la megalópolis para hacer ver la Red, lo que hay al otro lado de la pantalla. Esta representación de algo tan abstracto es útil también para entender la función que tiene el hecho de que se evolucione hacia un espejo cada vez más nítido en el que se pueda reconocer nuestra imagen. Cuando se llega a una gran ciudad la impresión envolvente es de exceso y de desorientación:

72

hay demasiadas cosas, demasiados estímulos. Nos sentiremos bien instalados en ella, ciudadanos y no sólo visitantes, cuando hayamos contorneado nuestro barrio. En el barrio, un espacio cotidiano y humanizado abierto a la totalidad de la gran ciudad, vamos a las tiendas que conocemos, y en ellas nos conocen, nos cruzamos con personas que volvemos a ver, hay vecindad, hay saludos... Cuando dejamos este espacio abierto, pero próximo, nos engulle la gran ciudad.

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

Igual sucede en la Red. Es demasiado grande. Google es una compañía de taxis que nos conduce a cualquier punto de la urbe. Dependemos de estos taxis como el recién llegado, e incluso no podemos evitar cierta desconfianza de si nos lleva por el camino correcto. Después de unos años en que el papel de un buscador como el de Google ha resultado imprescindible, es ya el momento de sentirnos más cómodos y mejor integrados en la Red: se tiene que hacer a nuestra medida, ofrecerse co-

La evolución de la Red en los próximos años se medirá, entre otras características, por su especularidad. La pantalla se parecerá más a un espejo de azogue. Veremos nuestra imagen fiel al otro lado de la pantalla. Esto permitirá que al ser reconocidos nos envuelva el entorno que nos conviene, el que necesitamos. Nos sentiremos así en un barrio, el nuestro, de la gran ciudad. Y esto no será óbice para que preservemos nuestra intimidad, como ahora lo hacemos, en los momentos que consideremos oportunos. El barrio no habrá desaparecido en el mundo digital. Pero ahora esta evolución perturba. Mantenemos aún frente al espacio digital los escrúpulos y el recelo propios de un lugar al que acabamos de llegar; no lo controlamos aún y todo se nos presenta amenazador. Creamos fantasmas. Bajar a la plaza En el espacio urbano la plaza ha sido desde sus orígenes lugar

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.2

de encuentro, de intercambio y de comunicación. La invasión de las calles por el automóvil y la invasión de los hogares por la información audiovisual contrajeron la afluencia a la plaza, que se convirtió en lugar de paso, sin las funciones de antes. Con el mundo digital se ha realizado una operación urbanística virtual extraordinariamente sugerente. Se han demolido estrechas calles por donde sólo se podía pasar (sería la Web 1.0) y ha aparecido una amplia plaza. La grata sorpresa es que la gente ha comenzado a ir a esta plaza, hasta alcanzar la efervescencia y vitalidad de las plazas de antaño. Se forman incontables corrillos en los que se habla de lo divino y de lo humano. Se puede observar el comportamiento de los corrillos, que, como si fueran remolinos, continuamente se dividen, se agrupan, crecen, menguan... Quienes poseen los espacios cerrados en donde se habla desde el púlpito, la tribuna, la cátedra, el escenario, miran con recelo esta efervescencia de la plaza. Dicen que de ahí sólo brota trivialidad y ruido. Pero lo que desprecian como ruido es rumor. Y en ocasiones ese rumor se hace inteligible: es el fenómeno de la emergencia; lo que brota de abajo y no se dicta, por tanto, desde arri-

ba, desde la tribuna, la cátedra, el púlpito, el escenario... Las redes sociales están mostrando la fuerza transformadora que tiene en la Red lo pequeño y abierto frente a lo grande y cerrado, las nuevas posibilidades de recuperar la comunicación en una sociedad conformada hasta ahora por unos medios destinados a la información de masas. Estamos sólo al comienzo de este fenómeno. Pasados las desconfianzas y los desprecios, superado el desconocimiento que los soporta, una poderosa forma de comunicación mediada por la tecnología abrirá una época de transformaciones quizá mayor (eso sería lo conveniente) que las que abrieron otras mediaciones técnicas como la imprenta y lo audiovisual. Entre la oralidad y la escritura Hace unos años se discutía si el soporte digital favorecería más a la cultura escrita o a la audiovisual. Ambas se disputaban la hegemonía; una por secular, y hasta entonces dominante; y otra por expansiva y atrayente. Para la escritura, el soporte digital proporcionaba capacidades imposibles sobre papel; pero a la hora de la lectura la necesidad de un artefacto con una pantalla electrónica, en vez de un libro códice, dificultaba su acepta-

La Red es un mundo virtual, y por ser virtual es también especular; es decir, nos reflejamos en ese mundo como si fuera un espejo

ción. En cambio, para la comunicación audiovisual la pantalla era su espacio propio. El empeño por encontrar un artefacto de lectura ergonómico ha dado su fruto y ahora tanto una cultura como la otra tienen su oportunidad en la Red. Pues bien, cuando parecía que todo iba a seguir como hasta ahora, pero con más potencia, es decir, la cultura impresa y la audiovisual repartiéndose presencia e influencia en la sociedad tecnológica, la oralidad reaparece. La cultura oral fue reducida por la hegemonía de la escrita, que se impuso como cultura superior; pero con la digitalidad tiene una interesante reinterpretación. La oralidad supone un aquí y un ahora. Es decir, coincidencia en un lugar y en un momento. La escritura tiene dos lugares (el del escritor y el del lector) y dos momentos (cuando se escribe y cuando se lee), por tanto hay un allí (distancia) y un entonces (asincronía). Sucede lo mismo si es un registro audiovisual. Además en la comunicación audiovisual se puede dar, y decimos entonces que es en directo, un allí y un ahora; en este caso, emisor y receptor no se encuentran en un mismo lugar, pero sí están en el mismo momento. En una red social, en esta nueva plaza, en los corrillos que se

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 73

04.2 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

forman se da una comunicación que ya no es allí (dos lugares) ni aquí (coincidencia), sino ahí. La especularidad del espacio digital coloca una imagen nuestra al otro lado de la pantalla, y ahí se encuentra con las imágenes especulares de otras personas. Por tanto, dos personas no están en los extremos de un canal de comunicación, sino que se encuentran dentro de un espacio de comunicación, el digital, merced al desdoblamiento que el espejo produce.

Las redes sociales están mostrando la fuerza transformadora que tiene en la Red lo pequeño y abierto frente a lo grande y cerrado

En cuanto a la coincidencia o no temporal, es interesante observar que en la red social no se da ni el entonces ni el ahora, sino el ahora dilatado. Lo que se habla en un corrillo no es tan efímero como en una conversación oral, pero tampoco persiste como sobre el papel, el celuloide o la cinta magnética: dura unas horas, pocas, y se desvanece igual que la palabra en el aire. No se podría adelantar hace pocos años que con un soporte tan resistente como el digital se optara por una comunicación tan poco persistente, casi como la oral. Y esto es lo que hace que la evolución de la digitalidad, entendida como esta forma nueva de comunicación, resulte tan interesante de observar. En las redes sociales, hay una comunicación que se aproxima

74

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

más a la oralidad que a la escritura, por lo que prácticas propias de la comunicación oral se están recuperando y reinterpretando en el espacio digital. El arte de la memoria Antes de la imprenta, un método mnemotécnico tuvo un desarrollo importantísimo. El arte de la memoria se basaba en saber crear imágenes y lugares para colocar en sus detalles las palabras. Figuras, edificios, incluso ciudades, y luego figuras geométricas y sus combinaciones y rotaciones absorbían las palabras y las contenían en sus elementos. Al recorrer con la vista o con la imaginación estas imágenes y lugares brotaban de nuevo las palabras. El método se basaba en la fuerza de retención que tienen las imágenes y los lugares en nuestra memoria. Por tanto, las palabras, mucho más difíciles de retener, se refugiaban contra el olvido bajo los detalles de las imágenes y lugares imaginados. Esta práctica mnemotécnica pierde utilidad con la llegada del libro impreso y la abundancia de papel para retener las palabras. Parecía que continuaría entonces tan solo como objeto de estudio de especialistas. Pero la digitalidad recupera el arte de la memoria. La escritura ha migrado del papel al soporte digital. To-

do el patrimonio libresco estará sobre el nuevo soporte, y ya se publica para una lectura en un artefacto electrónico y no en un libro códice. Sin embargo, se sigue escribiendo como si se hiciera sobre papel y para ser leído en la página de un libro. Hemos aceptado el nuevo soporte, pero no nos hemos desprendido aún plenamente de las dos dimensiones de la hoja ni comprendido que en el soporte digital la escritura es en tres dimensiones. Por consiguiente, la escritura supone también plegar el texto (hipertexto) y no sólo extenderlo por la superficie de la hoja. Y si pliego hábilmente un texto se crea como en el papel, por el arte de la papiroflexia, una figura. Debajo de los detalles de esa imagen estarán las palabras, igual que en el arte de la memoria. El saber plegar un texto bajo los elementos de una imagen, crear, por tanto, la imagen oportuna para que contenga el texto es una práctica de escritura nueva muy atractiva, pues explora los caminos por donde irá la escritura y la lectura cuando ya no se hacen sobre el papel. El arte de la memoria secular y abandonado puede tomar ahora el nombre de nemótica. Se reinterpreta así ante las nuevas instancias y las nuevas posibilidades que abre el mundo digital. Estamos en los inicios, pero es una llamada irresistible a la creatividad.

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.3

Móviles, mapas, satélites y redes sociales: gestión de crisis 2.0 La Web 2.0 ha propiciado la participación de los ciudadanos en la gestión de las crisis y emergencias. La colaboración entre voluntarios on line y organizaciones humanitarias es cada vez más frecuente.

Marta Poblet Universitat Autònoma de Barcelona

L 

a aceptación y el uso masivo de la telefonía móvil, las redes socia­ les y las tecnologías cola­ borativas propias de la Web 2.0 han facilitado, en los úl­ timos años, el surgimien­ to de formas participativas y descentralizadas de ges­ tión de las crisis y emergen­ cias derivadas de catástro­ fes naturales, conflictos o guerras abiertas. Con ello se abren vías inéditas a la participación ciudadana y, de este modo, nuevos ac­ tores se incorporan a la

escena, sumando sus es­ fuerzos a los de las organi­ zaciones públicas y priva­ das dedicadas a responder a emergencias o proporcio­ nar ayuda humanitaria. Se trata—y utilizo aquí la eti­ queta al uso– del nuevo pa­ radigma denominado «gestión de crisis 2.0». Un ejemplo, en este sentido, lo proporciona el terremoto de Haití de ene­ ro de 2010: pocas horas des­ pués del seísmo, algunos es­ tudiantes de la Universidad de Tufts en Boston instalaron en uno de sus servidores la plata­

forma de código abierto Ush­ ahidi (un software desarrollado por primera vez en Kenia) pa­ ra localizar en un mapa on line los informes que ciudadanos afectados por el desastre en­ viaban por medio de SMS a un número corto establecido para la emergencia. La mayoría de mensajes recibidos estaban escritos en francés criollo y, antes de aparecer en el mapa –creado simultáneamente por voluntarios de OpenStreet­ Map–, eran traducidos al in­ glés por hablantes de aquella lengua, también voluntarios,

distribuidos por todo el mun­ do. En consecuencia, los equi­ pos de primeros auxilios y las organizaciones humanitarias que operaban sobre el terreno tenían acceso a peticiones de ayuda casi en tiempo real, pro­ porcionadas por los propios afectados e inmediatamente traducidas y localizadas en un mapa por centenares de vo­ luntarios. Tras Haití vino el te­ rremoto de Chile, después los incendios de Rusia en el vera­ no de 2010 y posteriormente el desastre nuclear en Japón. En todos estos casos volunta­

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 75

04.3 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Marta Poblet Directora del Instituto de Derecho y Tecnología de la Universidad Autónoma de Barcelona, Investigadora ICREA, coordinadora de equipos de Standby Task For­ ce (SBTF) y miembro de la red internacional de Crisis Mappers. Es Doctora en Derecho por la Universidad de Stanford (2002) y Master en International Legal Studies por la misma universidad (2000). Es profesora del Máster Internacional en Resolución de Conflictos de la Univer­ sitat Oberta de Catalunya (UOC). Sus ámbitos de investigación son las tecno­ logías aplicadas al derecho, los sistemas judiciales y la gestión y resolución de conflictos y tiene más de 30 publicaciones internacionales en estos dominios. Asimismo, es consultora de proyectos internacionales relacionados con la tec­ nología y el derecho.

son los riesgos y límites? ¿Qué efectos ha tenido o puede tener en un futuro? Trataré de dar al­ gunas respuestas orientativas a continuación.

Marta Poblet.

rios on line, plataformas y ma­ pas se pusieron al servicio de quienes coordinaban la res­ puesta. En tan solo dos años, el soft­ ware de Ushahidi en sus dis­ tintas versiones ha sido utiliza­ do ya en miles de ocasiones para hacer frente a las situacio­ nes más variadas: terremotos, incendios, vertidos tóxicos, tor­ mentas de nieve, inundaciones, observación de procesos elec­ torales, violaciones de derechos humanos, etc. Tal profusión de iniciativas, basadas en estas y otras herramientas de software

76

(e.g. Sahana, Tomnod, etc.), ha impulsado a su vez el desarro­ llo de un nuevo dominio marca­ damente pluridisciplinar: el de­ nominado crisis mapping. De forma aproximativa, el crisis mapping o mapeo de crisis con­ siste en un conjunto organizado de tareas relacionadas con la búsqueda, agregación, geolo­ calización y análisis de informa­ ción o de datos procedentes de fuentes múltiples: tecnologías móviles, redes sociales, medios de comunicación, organismos oficiales, etc. ¿Qué caracterís­ ticas definen el crisis mapping? ¿Qué ventajas ofrece y cuáles

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

Características del crisis mapping Colaboración descentraliza� da en red: el crisis mapping se basa en el principio del crowdsourcing. La noción de crowdsourcing fue acuñada por Howe en 2006 para des­ cribir la división de un con­ junto de tareas o microtareas entre un grupo generalmen­ te amplio e indefinido de per­ sonas que acuden a la convo­ catoria (abierta o limitada). Las distintas versiones de la Wi� kipedia constituyen un ejem­ plo paradigmático de crowd� sourcing en la Red. Y, si bien es cierto que el crowdsourcing como principio o método exis­ tía antes de la aparición de In­ ternet y la posterior irrupción de las tecnologías de la Web

2.0, no hay duda de que es­ tas han alentado el fenóme­ no del crowdsourcing. Hoy en día los aficionados a la astro­ nomía pueden colaborar con los científicos en la identifica­ ción y clasificación de galaxias (www.galaxyzoo.org) y los en­ tusiastas de los juegos con­ tribuir a descifrar la estructura completa de una proteína del virus del SIDA (http://fold.it), por citar ejemplos conocidos. En el caso que nos ocupa, las distintas tareas del crisis ���� map� ping pueden distribuirse entre individuos o grupos de volun­ tarios diversos: unos monito­ rizan fuentes de información, otros se ocupan de digitalizar mapas, buscar coordenadas o proyectar distintas capas de información en dichos mapas. Además, y en función del even­ to, emergencia, crisis o conflic­ to que es objeto de mapeo, re­ sulta igualmente esencial la tarea de extracción de estadís­ ticas, patrones o datos elabo­

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.3

rados que den valor añadido a los procesos de agregación anteriores. En el Libya Crisis Map, el mapa auspiciado por la Oficina de Naciones Unidas para la Coordinación de Asun­ tos Humanitarios (UNOCHA) para dar soporte a las opera­ ciones de ayuda humanitaria en el citado país, un equipo de analistas del grupo de volun­ tarios de Standby Task Force (SBTF) se encargó de producir informes sucesivos que sinteti­ zaban patrones de eventos, ti­ pos de emergencias, áreas más afectadas por la violencia, etc. Asimismo, hay que tener en cuenta que el crowdsour� cing se produce en dos niveles distintos, esto es, en el origen de la información que se pro­ cesa (SMS o correos electróni­ cos, noticias de medios de co­ municación, posts en Twitter o Facebook, videos de Youtube, fotos en Flickr, etc.) y también en la distribución de las tareas que este procesamiento de in­ formación desencadena. Procesamiento de informa� ción a tiempo real. Las redes sociales se caracterizan por la inmediatez de los conteni­ dos que los usuarios produ­ cen, y ese mismo rasgo pue­ de trasladarse al mapping on line de crisis y conflictos. Inclu­ so cuando, a consecuencia de un desastre de origen natural, o como resultado de la censu­ ra impuesta por un Estado, In­ ternet deja de estar disponible,

los teléfonos fijos, las radios lo­ cales y los SMS (las redes de telefonía móvil –y, en particular, la funcionalidad de los mensa­ jes cortos– suelen restablecer­ se antes que Internet) pueden tener un papel decisivo en el procesamiento rápido de la in­ formación. Cuando el régimen de Mubarak, en Egipto, decidió bloquear Internet y las redes móviles, el servicio Speak-toTwitter, diseñado conjuntamen­ te por los ingenieros de Google y Twitter, ponía a disposición de los usuarios de telefonía fija la grabación de mensajes de voz para su inmediata transcripción en Twitter. Crowdfeeding. Los princi­ pales destinatarios de la in­ formación agregada y pos­ teriormente categorizada en los procedimientos de crisis map­p ing suelen ser las or­ ganizaciones que solicita­ ron directamente su activa­ ción (UNOCHA en el caso de Libia, el Science for Humans Rights Program de Amnistía Internacional USA en el ca­ so de Siria, etc.). Sin embar­ go, los mapas de crisis tienen a veces la capacidad de co­ nectar a los ciudadanos con los propios ciudadanos. La posibilidad de facilitar dicha conexión es tanto más valio­ sa cuando a menudo quienes ofrecen los primeros auxi­ lios a las víctimas en una si­ tuación de crisis son otros ciudadanos, especialmen­

Las redes sociales se caracterizan por la inmediatez de los contenidos que los usuarios producen, y ese mismo rasgo puede trasladarse al mapping on line de crisis y conflictos

te cuando las organizacio­ nes que operan sobre el te­ rreno se ven desbordadas. Los mapas de crisis, en defi­ nitiva, no sólo pueden ayudar a establecer estas conexio­ nes sino que además amplían el mismo concepto de vecin­ dad: quienes escuchan y lo­ calizan los mensajes de ayu­ da pueden no ser los vecinos del barrio, pero puede ser una comunidad de vecinos digita­ les. Patrick Meier –cofunda­ dor de la red internacional de Crisis Mappers– denomina crowdfeeding a esta capaci­ dad de vecindad on line que ofrecen algunas instancias de crisis mapping. Ventajas, riesgos y límites La integración de tecnologías que supone la gestión de de­ sastres 2.0 y el crisis mapping en particular ofrece sin duda al­ gunas ventajas evidentes. Las más destacadas son: (i) la in­ mediatez; (ii) la continuidad en las tareas –si los voluntarios que participan en la iniciativa traba­ jan en distintas zonas horarias del planeta los mapas registran actividad sin interrupción duran­ te las veinticuatro horas del día y siete días por semana– y (iii) la flexibilidad en los protocolos, puesto que las tareas se distri­ buyen y evolucionan en función de la dinámica y las necesida­ des de la situación (o, dicho de otro modo, los mapas de crisis evolucionan con la propia crisis). La visualización de la informa­

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 77

04.3 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

ción agregada, además, puede permitir la detección de patro­ nes que, aunque sólo consti­ tuyan indicios, susciten nuevos análisis a emprender o hipótesis de trabajo a verificar. A pesar de todo ello, la ex­ periencia acumulada en el mapeo de crisis sugiere que existen, como mínimo, tres ámbitos que conllevan algu­ nos riesgos a tener en cuenta.

En primer lugar, la necesidad de establecer mecanismos estandarizados de verifica­ ción de la información que se recoge, se agrega y se publica en un mapa: ¿es posible verifi­ car toda la información que se extrae de las redes sociales? ¿Pueden considerarse distin­ tos niveles de fiabilidad? ¿Có­ mo ha de intentar verificarse dicha información en cada ni­ vel? ¿Cómo distinguir, en de­

Es necesario establecer mecanismos estandarizados de verificación de la información que se recoge

El Libya Crisis Map fue auspiciado por la Oficina de Naciones Unidas para la Coordinación de Asuntos Humanitarios (UNOCHA).

78

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

finitiva, la información veraz del rumor, la propaganda o la desinformación? Si bien es cierto que los grupos y orga­ nizaciones que se dedican al crisis mapping están conside­ rando la elaboración de están­ dares comunes, la verificación de los informes ha sido has­ ta ahora una tarea ad hoc en cada iniciativa, con protoco­ los distintos en cada caso y sujeta al debate y a la discu­ sión en foros y conferencias. El segundo aspecto a consi­ derar es la calidad de la infor­ mación que se procesa. Aquí se plantean cuestiones del ti­ po: ¿cómo disminuir el ruido o la redundancia? ¿Cómo fil­ trar, de entre la multiplicidad de flujos informativos, lo que constituye información rele­ vante para los destinatarios o usuarios finales de un mapa? Aunque ya hay herramientas de software que permiten fil­ trar la información –e.g. Swif­ triver– los filtros actuales son el resultado de la monitoriza­ ción manual de las fuentes, ya que son los propios volunta­ rios quienes acaban por iden­ tificar, a partir de la experien­ cia adquirida, los contenidos más relevantes. Finalmente, hay que destacar los aspectos éticos, de priva­ cidad y seguridad asociados a las prácticas de crisis map� ping. Es importante distinguir aquí entre las crisis que se de­ rivan de catástrofes natura­

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.3

les y las que son el resultado de la violencia o los conflictos armados. Aunque en ambos casos debe prevalecer el prin­ cipio de no causar daño algu­ no y la adopción de las medi­ das de seguridad y privacidad oportunas, cuando se trata de contextos violentos la ne­ cesidad de protección puede llegar a ser todavía más acu­ ciante. A pesar de que la infor­ mación que los mapas agre­ gan es pública, el hecho de localizarla y divulgarla en el contexto de un mapa de cri­ sis puede comprometer gra­ vemente la seguridad de quie­ nes inicialmente la publicaron en las redes sociales. Es por ello por lo que algunas inicia­ tivas han optado por la ano­ nimización de los datos y la protección de los mapas con claves de usuario, publican­ do una segunda versión del mapa con información limita­ da. En casos extremos en que los estándares de seguridad no pudieran garantizarse (por ejemplo, cuando divulgar lo­ calizaciones de incidentes vio­ lentos pudiera suscitar suce­ sivos ataques a la población) se plantearía incluso la misma oportunidad de emprender un proyecto de mapping. Efectos Iniciativas como la del terre­ moto de Haití o la del Libya Crisis Map han sido acogidas con gran interés entre las or­ ganizaciones internacionales

de ayuda humanitaria y han sido objeto de análisis y re­ flexión en foros académicos y profesionales. La colabora­ ción entre redes de volunta­ rios on line y organizaciones humanitarias en la gestión de las crisis es cada vez más fre­ cuente, y ello amplía sin du­ da el abanico de herramien­ tas y estrategias disponibles. Además, ya no es inusual ver en las conferencias interna­ cionales de crisis mapping a responsables de la coordina­ ción de emergencias locales, nacionales e internacionales ofrecer su experiencia y explo­ rar las mejores vías de colabo­ ración. Las nuevas formas de cooperación entre ciudada­ nos, grupos y organizacio­ nes dedicadas a la gestión de emergencias y crisis ofrecen infinidad de posibilidades. En noviembre de 2011, un grupo de 180 voluntarios de diver­ sas procedencias analizaron un total de 3.909 imágenes por satélite del corredor hu­ manitario de Afgooye en So­ malia; en tan sólo cinco días marcaron con 253.711 eti­ quetas los distintos tipos de refugios provisionales localiza­ dos en esa zona de difícil ac­ ceso para poder proporcionar al Alto Comisionado para los Refugiados de Naciones Uni­ das (UNHCR) una estimación de la población allí desplaza­ da. Los resultados obtenidos, además, van a compararse con los que ofrecen los algo­

Iniciativas como la del terremoto de Haití o la del Libya Crisis Map han sido acogidas con gran interés entre las organizaciones internacionales de ayuda humanitaria

ritmos de detección automá­ tica de refugios que el Joint Research Center en Ispra (Ita­ lia) ha aplicado sobre las mis­ mas imágenes, para así ver cómo pueden mejorarse tan­ to los procesos manuales de detección como los automáti­ cos. En cualquier caso, el des­ pliegue de tal fuerza de trabajo voluntario durante 120 horas ininterrumpidas difícilmente está al alcance de ningún or­ ganismo internacional, y es ahí donde la cooperación y el crowdsourcing ofrecen un va­ lor añadido. Las capacidades de unos y otros se ven refor­ zadas. Aún así, la gestión 2.0 de las crisis carece todavía de indi­ cadores y pruebas suficientes que permitan evaluar su impac­ to real y su eficacia con respec­ to a las estrategias operacio­ nales al uso. Queda mucho por hacer y desarrollar en cuanto a estrategias, métodos, proto­ colos, formación y evaluación. Lo que sí parece fuera de du­ da es la irreversibilidad del pro­ ceso. Las tecnologías facilitan que, en ocasiones, sean los ciudadanos los primeros en emitir una alerta de emergen­ cia o crisis, y permiten también que otros ciudadanos sean los primeros en escuchar y, a ve­ ces, en responder. Con todas sus ventajas e inconvenientes, la gestión de crisis 2.0 es otra muestra de las nuevas vecin­ dades digitales. Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 79

05 Tribuna

05 TRIBUNA ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Hacia una sociedad más tecnológica e innovadora Juan Junquera Secretario de Estado de Telecomunicaciones y para la Sociedad de la Información. Ministerio de Ciencia e Innovación

H  

oy en día las tecnologías de la información y la comunicación constituyen una palanca básica para avanzar en la senda del crecimiento, la innovación, la productividad y el empleo de calidad. España cuenta con numerosas empresas del sector de las nuevas tecnologías punteras a nivel global, que aumentan además cada año su presencia internacional en campos, como la sanidad en red, la televisión digital, las infraestructuras de telecomunicaciones, las redes inteligentes, la banca y la administración electrónica. La apuesta por las tecnologías de la información y la comunicación es, además, una garantía para el desarrollo de la sociedad en su conjunto. Asimismo, constituyen una herramienta de enorme utilidad para la reducción de las emisiones de gases de efecto invernadero y son la mejor opción para la construcción de un nuevo modelo económico basado en la competitividad y en la sostenibilidad.

82

| LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

El objetivo del Plan Avanza es el desarrollo de la sociedad de la información en España, asegurando el crecimiento económico y social de sus regiones y su convergencia con el resto de Europa

Las nuevas tecnologías también fomentan la innovación, la cual se traduce en un impacto de carácter multidimensional, ligado a la mejora de la productividad, al ahorro de costes, a las mejoras en los niveles de calidad, a una mayor variedad de servicios y a una mayor capacidad de creación de empleo cualificado. Se confirma, por tanto, que la innovación es una necesidad básica para la supervivencia empresarial en el medio y largo plazo, ya que permite interpretar y dar respuesta a las demandas del mercado, al mismo tiempo que genera ventajas competitivas. A lo largo de los últimos años se han alcanzado grandes éxitos en el ámbito de la sociedad de la información, tanto a nivel nacional como internacional. A día de hoy, la cobertura de banda ancha es de las más altas del mundo, asimismo, se ha doblado el número de internautas desde 2004 y España es líder mundial en implantación del DNI electrónico. Se ha reducido considerablemente la distancia con los

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TRIBUNA 05

A día de hoy, la cobertura de banda ancha es de las más altas del mundo, asimismo, se ha doblado el número de internautas desde 2004 y España es líder mundial en implantación del DNI electrónico

países más avanzados de Europa y se están dando grandes pasos en el desarrollo de servicios tecnológicos avanzados. En este sentido, el Plan Avanza ha tenido una gran importancia y gracias a él se puede considerar que España es hoy una sociedad en red y que cuenta con la capacidad para posicionarse como líder del desarrollo de la sociedad de la información. El objetivo del Plan Avanza es el desarrollo de la sociedad de la información en España, asegurando el crecimiento económico y social de sus regiones y su convergencia con el resto de Europa. Es la expresión del compromiso del Gobierno español con la promoción de las TIC y está diseñado para redefinir nuestro modelo productivo. Destacan algunos de los principales logros en el fomento de la sociedad de la información en España por parte de las Administraciones públicas: •  El despliegue de la TDT ha logrado una cobertura del 98,8%, en una implantación récord que comenzó en noviembre de 2005. •  La población internauta ha pasado de 11,7 millones en 2003 a más de 27 millones actuales. •  El DNI electrónico es una iniciativa que se inició en abril de 2006 y, en tan sólo en cinco años, existen más de 25 millones de DNI electrónicos expedidos. •  El Plan Avanza ha financiado desde su creación en el año 2006 un total de 3.107 proyectos de I+D+i en empresas, habiendo movilizado un total de más de 4.086,03 M€ solo en este concepto.

Juan Junquera.

En enero de 2010, España accedió a la presidencia de turno de la Unión Europea y se le encargó a la Secretaría de Estado de Telecomunicaciones y para la Sociedad de la Información la labor de coordinación de las posiciones e iniciativas de los distintos Gobiernos europeos, ejerciendo un papel de liderazgo en la generación de avances tanto legislativos como de otra índole, en el seno de la Unión Europea. Asimismo, se han tenido presentes en todo momento las necesidades de la industria TIC. Se ha aprovechado al máximo la Presidencia de la Unión Europea para impulsar el desarrollo del sector de las tecnologías de la información y la comunicación como motor de la innovación y la calidad de vida en Europa.

En este periodo fue aprobada la Agenda Digital para Europa, que marca las líneas a seguir para la estrategia de desarrollo de las TIC en todo el continente entre los años 2010 y 2020. Estos son solo algunos de los logros conseguidos por el conjunto de las Administraciones públicas en el ámbito de la innovación y las nuevas tecnologías. Muestran la cantidad y magnitud de los trabajos llevados a cabo en todo el periodo. La sociedad debe mantenerse firme en el compromiso con la innovación, especialmente la vinculada a las TIC, redoblando esfuerzos para lograr entre todos avanzar hacia una sociedad más tecnológica e innovadora, en definitiva, hacia una sociedad mejor. Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 83

06 Noticias

06 NOTICIAS |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Resolución de Proyectos Cero en Envejecimiento La convocatoria de Proyectos Cero 2011 en Envejecimiento de la Fundación General CSIC, impulsada por la Obra Social «la Caixa» y apoyada por el CSIC, se ha resuelto con la concesión de cinco proyectos de investigación en el ámbito de los estudios psicosociales y tecnológicos orientados a mejorar la calidad de vida de las personas mayores. La Obra Social «la Caixa» aportará un millón de euros para el desarrollo de estas investigaciones:

•  « Aplicación de sistemas Brain Computer Interface (BCI) al entrenamiento cognitivo y al control domótico para prevenir los efectos del envejecimiento» , dirigido por Roberto Hornero Sánchez, Universidad de Valladolid.

•  « Worthplay. Videojuegos para el envejecimiento positivo», dirigido por Josep Blat, Universitat Pompeu Fabra .

•  «Envejecimiento activo, ciudadanía y participación: valoración de las aspiraciones, necesidades y estrategias aso-

•  «Las pensiones y la educación: efectos combinados en la redistribución inter e intrageneracional», dirigido por Concepció Patxot Cardoner, Universidad de Barcelona .

vimeopro.com/fgcsic/workshopcomo-medimos-la-ciencia

El Palacio de Ferias y Conferencias de Málaga acogió durante los días 26 y 27 de octubre la Conferencia EmTech, evento anual de referencia de la revista Technology Review del Massachusetts Institute of Technology (MIT), patrocinada entre otras entidades por la FGCSIC. Durante su celebración se entregaron los TR35 Spain, galardones otorgados por la revista Technology Review a diez jóvenes científicos e innovadores menores de 35 años. El panel de jueces designó «TR35 innovador del año» a Pau García Milà (24 años) por anticipar el concepto de almacenamiento virtual y «TR35 innovador solidario del año» a Teresa Gonzalo (33 años) por desarrollar nanotecnología comercial para prevenir el contagio del VIH. Entre los galardonados, Francisco Javier Cazorla y Manuel Moliner trabajan en el CSIC, y Nuria González se formó en esta Institución. El MIT lleva 12 años otorgando estos galardones en EEUU. Esta es la primera vez que se entregan en España.

El objetivo de la jornada, celebrada el 5 de octubre en Valladolid, fue mostrar las actividades en el ámbito de las

tecnologías limpias y la movilidad sostenible y, en concreto, en las áreas de actuación de la iniciativa Europea Green Cars.

ciadas a la autonomía y empoderamiento de viejas y nuevas generaciones de personas mayores en España», dirigido por Joan Subirats Humet, Universidad Autónoma de Barcelona. •  « Biomateriales para modular la inflamación producida por la degeneración macular asociada a la edad (BIODMAE)», dirigido por Eva Chinarro Martín, Instituto de Cerámica y Vidrio (ICV-CSIC). Más información: http://www.fgcsic.es/envejecimiento

Workshop FGCSIC ¿Cómo medimos la ciencia? El 20 de septiembre, en CaixaForm Madrid, tuvo lugar el segundo Workshop FGCSIC programado para el año 2011. La jornada, con el título de «¿Cómo medimos la ciencia?», se centró en las métricas de la producción científico-técnica. Javier Rey Campos y José Luis de Miguel Antón, director y subdirector de la Fundación, Ramón López de Mántaras (CSIC),

toria Ley, directora de la ANEP, moderó la mesa redonda. El workshop, retransmitido por vídeo streaming, está accesible para todos los interesados en los canales de la Fundación:

Itziar Laka (UPV), Carles Miravitlles (CSIC), Isidro F. Aguillo (CSIC) y Alonso Rodríguez (UPM) fueron los ponentes. Vic-

Conferencia EmTech

www.fgcsic.es/comunicacion/ galeria_multimedia www.youtube.com/fgcsic

Jornada Green Cars 2011 La Fundación General CSIC ha participado en la Jornada «Green Cars 2011: proyectos en marcha», con la presenta-

86

ción del Informe sobre la I+D en energía y automoción que está elaborando la Unidad de Análisis de FGCSIC.

| LYCHNOS | Nº 6 | Cuadernos de la Fundación General CSIC

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NOTICIAS 06

Workshop sobre Planificación Estratégica en la I+D

Proyecto europeo TrendChart

¿Qué es la planificación estratégica en la I+D? ¿Cómo definir los objetivos? ¿Con qué ejemplos contamos? A estas y otras preguntas se dieron respuesta en el Workshop sobre Planificación Estratégica en la I+D organizado por la FGCSIC el 14 de noviembre en CaixaForum Madrid. Teoría y debate se sucedieron en esta jornada en la que la directora de la Unidad de Estrategias de la FGCSIC, María Sanz, expuso las bases del modelo FGCSIC de planificación estratégica de la I+D, y que contó, además, con la participación de Joan Cortadellas, Lluis Rovira, José Luis Marco, Belén Gutiérrez y Víctor Rodrigo.

La Fundación General CSIC organizó el 25 de octubre en el Real Jardín Botánico de Madrid uno de los seis workshops previstos en el marco del actual proyecto europeo TrendChart de monitoreo de las políticas de innovación. La reunión de trabajo se centró en revisar la recopilación y análisis de información en políticas de investigación y de innovación.

La jornada fue retransmitida por vídeo streaming y seguida por más de 200 personas. Las ponencias están disponibles en los canales de la Fundación: www.fgcsic.es/comunicacion/ galeria_multimedia www.youtube.com/fgcsic vimeopro.com/fgcsic/planificacionestrategica-en-la-id

Reunión del Patronato de la Fundación General CSIC En la sede central del Consejo Superior de Investigaciones Científicas, el 29 de noviembre de 2011, se celebró la reunión del Patronato de la Fundación General CSIC. Los

II Concurso CPAN

patronos han renovado su apoyo a la Fundación, aprobando el Plan de Actuación 2012 presentado por Javier Rey Campos, director general de esta entidad.

El Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN), en colaboración con la Fundación General CSIC, ha concedido los premios de su segundo concurso de divulgación científica, una iniciativa que reconoce la producción de material divulgativo en estas áreas de la Física. El acto de entrega de estos galardones tuvo lugar en el marco de las III Jornadas CPAN, celebradas del 2 al 4 de noviembre en Barcelona. Más información: www.i-cpan.es http://www.i-cpan.es/concurso2/ ganadores.php

Un marroquí y una española, ganadores de la Carrera Internacional de la Ciencia Los atletas Vanessa Veiga y Mohammed Blal se han proclamado ganadores de la XXXI Carrera Internacional de la Ciencia, organizada por el CSIC y patrocinada, entre otras instituciones, por la Fundación General CSIC. En la prueba, disputada el domingo 16 de octubre en Madrid, participaron 7.200 corredores que recorrieron 10 kilómetros homologados con inicio y final en la sede central del Consejo Superior de Investigaciones Científicas.

Cuadernos de la Fundación General CSIC | Nº 6 | LYCHNOS | 87

||||||||||||||||||||

Cuadernos de la Fundación General CSIC / Diciembre 2011

Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre 2011 / Publicación trimestral / Precio: 9 euros

07

4

12

40

Introducción

Tecnologías de la información

Nuevos espacios de la información

62 Efectos sociales