nº15
marzo 2015
CIENCIA Y TECNOLOGÍA
Revista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco
Juan Antonio Zufiría Aurkene Alzua-Sorzabal entrevista al Director General de IBM Global Technology Servicies Europa
Euskadi-Aquitania Mesa de ideas Visiones y reflexiones sobre la investigación desde los dos territorios
El año de la luz Artículos de Ricardo Díez Muiño y Javier Aizpurua, Rubén Esteban, Pablo Alonso y Rainer Hillenbrand
Contenidos Editorial 04
Jesús María Goiri, director general de CIC Energigune, escribe sobre la nueva etapa de CICNetwork
Diálogos científicos 06
Aurkene Alzua-Sorzabal entrevista a Juan Antonio Zufiría, Director General de IBM Global Technology Servicies Europa
Ciencia en abierto 12
Alex Fernández Muerza, periodista de divulgación científica, escribe sobre divulgación científica en internet e impresoras 3D, ¿la tercera revolución industrial?
Investigación en vivo 20
Mer Licht! artículo de Ricardo Díez Muiño y Nanoóptica: controlando la luz en la nanoescala de Javier Aizpurua, Ruben Esteban, Pablo Alonso y Rainer Hillenbrand
Entorno CIC 33
Mesa de ideas
Visiones y reflexiones sobre la investigación desde Euskadi y Aquitania con Igor Campillo, Helene Jacquet, Jacques Tortos, Fernando Plazaola, Eric Papon y Antonio Porro. Modera: Joseba Jauregizar
Artículos de
Silvia Alonso-de Castro, Emmanuel Ruggiero y Luca Salassa, Josu Martínez-Perdiguero, Deitze Otaduy, Aritz Retolaza y Santos Merino, Josu Eguia. L. Uriarte y A. Lamikiz
Científicos ilustres 66
Santiago Pérez Hoyos, Galileo Galilei: en busca de la evidencia
Nueva etapa, nueva luz Desde los inicios de creación de los centros de investigación cooperativa, en particular, desde el primero de los creados (CIC Biogune), se ha venido publicando la revista CIC Network con una periodicidad bianual. Se cumplen ahora diez años desde que se creó el primer centro de investigación cooperativa, el CIC Biogune, y nueve años desde que viera la luz el primer número de CICNetwork. Desde entonces, otros centros se han ido sumando a esta red, enriqueciéndola y aportando esfuerzo e ilusión a cada nuevo número de la revista. Las catorce ediciones publicadas han cumplido excepcionalmente con los objetivos de rigor y calidad científicos que exigieron, desde el principio, los editores de la revista; el despliegue de primeras figuras de la ciencia mundial han ocupado la públicación en todos sus números. Ahora, después de nueve años, toca un cambio conceptual que está muy relacionado con la incorporación de lo digital al modo de plantear la publicación, y todo ello, sin abandonar el vehículo papel; además es prioritario mantener el nivel anterior de rigor y calidad científicos.
nuevas secciones y un diseño atractivo que nos permita acercar, aún más, nuestro trabajo a la sociedad.
Este nuevo periodo de la revista pretende acercar la misma a un público objetivo no estrictamente académico y, al mismo tiempo, procurar que su lectura apasione al colectivo investigador, en principio, el de nuestro entorno. Queremos también que la revista sea un canal para a dar a conocer al exterior los logros y ambiciones del conjunto de los CIC y una plataforma de entrada para proyectos, investigaciones y noticias de primera relevancia asociadas al conjunto de la RVCTI y a los propósitos del nuevo Decreto. Comprobaréis que, desde ahora, nuestro espacio digital cambia sustancialmente con el objetivo de aumentar el número de visitas con una web más actualizada,
El reto, en este período de presidencia rotatoria de CIC Energigune, será el de mantener a toda costa el rigor y calidad de lo anterior y ampliar el abanico de interés a un colectivo investigador más amplio. Lo que si podemos contrastar como seguro es que: sólo aquellas regiones que apuesten de manera masiva por crear centros de conocimiento e investigación sobrevivirán como ofertas económicas innovadoras; lo contrario será ciertamente un camino rápido a la decadencia y marginalidad.
Jesús María Goiri, Director General de CIC Energigune
Una idea ambiciosa a largo plazo sería convertir esta publicación en un altavoz para multiplicar el conocimiento de lo que hacemos en Euskadi en materia de I+D+I. En primer lugar, dentro de la propia Red y también en el exterior; pues es indudable que la consolidación de Euskadi como un referente industrial y de innovación sólo podría realizarse mediante un sector de I+D+I volcado a Euskadi y al mundo y dotado de unos presupuestos adecuados. Este nuevo número cuenta como tema principal el Año Internacional de la Luz y entre los interesantes artículos de la revista mencionar “Diálogos Científicos”, la entrevista a D. Juan Antonio Zufiria, Director General de IMB Global Technology Services Europa así como la “Mesa de ideas”, que aborda un aspecto de gran trascendencia como es la colaboración en materia de ciencia e investigación en la Euro-región Aquitania – Euskadi.
El año de la luz Que la revista CIC Network dedique parte de este número quince al Año Internacional de la Luz está plenamente justificado, pues la historia de nuestro Universo y la de la civilización en nuestro planeta Tierra está íntimamente relacionada con la luz; desde el fuego como iluminador de esa caverna ha-
Consejo Editorial Aurkene Alzua-Sorzabal Eduardo Anitua Pedro Miguel Etxenike Jesús María Goiri Félix M. Goñi Nuria Gisbert Joseba Jauregizar Luis Liz Marzán Xabier de Maidagan José María Mato José María Pitarke Ana Zubiaga Director Jesús María Goiri
bitada, a la exploración de lo más oculto de la materia; quizá con una radiación de sincrotrón para caracterizar algún componente biológico clave como una proteína. Ciertamente el progreso de la humanidad ha sido paralelo y se ha acelerado extraordinariamente con el conocimiento de la luz; sobre todo a partir del gran James Clerk Maxwell, quien realizó la primera de las unificaciones de dos de las Fuerzas principales que controlan nuestro Universo. A partir de ese instante fue cuando empezamos a comprender que existía un mundo mucho más amplio que ese minúsculo intervalo de longitudes de onda que llamamos luz y que constituye lo que vemos, ya que se descubrió que la luz se extendía más de 24 órdenes de magnitud: desde las ondas más largas hasta la radiación gama más penetrante.
Colaboran Pablo Alonso Silvia Alonso-de Castro Javier Aizpurua Ricardo Díez Muiño Josu Eguia Rubén Esteban Alex Fernández Muerza Rainer Hilenbrand L. Lamikiz Josu Martínez-Perdiguero Santos Merino Daitze Otaduy Santiago Pérez Hoyos Aritz Retolaza Emmanuel Ruggiero Luca Salassa L. Uriarte Coordinación Sara Ortiz Prismaglobal
El progresivo dominio de la luz por parte de la Humanidad ha permitido que múltiples aplicaciones como la radio, la televisión, el radar de telefonía móvil, los láseres en todo tipo de equipos o que diagnósticos, terapias y tratamientos médicos sean de uso común y se encuentren presentes en nuestras vidas diarias. Tenemos que ser conscientes que todo esto y otras muchas utilizaciones, incluso el caso de Internet, es el resultado de nuestro dominio sobre el fenómeno físico que denominamos luz.
Diseño y maquetación Prismaglobal
Estas aplicaciones ya son habituales en nuestra vida diaria; pero todavía nos espera un gran camino de desarrollo con un futuro que nos sorprenderá a todos. Los avances en el campo de la fotónica volverán, a buen seguro, a revolucionar las aplicaciones de la luz; desde la computación cuántica a la opto-atómica, con aplicaciones sorprendentes que van desde la navegación hasta la metrología. En definitiva, podremos seguir teniendo muchos años internacionales de la luz y sin embargo, no podemos olvidar el elemento clave: que la luz, sobre todo en esa diminuta banda de longitudes de onda que percibimos nos da la posibilidad de una vida compleja en nuestra Casa merced a la fotosíntesis.
Edita CIC Network Asoc. Red de Centros de Investigación Cooperativa del País Vasco Parque Tecnológico de Bizkaia, Ed. 800 48160 Derio (Bizkaia)
[email protected]
Sí, la luz es muy importante. Como dice Ricardo Díez Muiño en un artículo de este número: Mehr Licht!.
Reportajes fotográficos Roberto Villalón APPA Agence Photo
Depósito legal SS-1228-2006
Esta revista no se hace responsable de las opiniones emitidas por sus colaboradores. Queda prohibida la reproducción total o parcial de los textos y elementos gráficos aquí publicados.
OS ÍFIC ENT S CI LOG O DIÁ
“Los nuevos modelos de computación tratan de emular la eficiencia energética del cerebro humano” Aurkene Alzua-Sorzabal, Directora General de CIC tourGUNE, entrevista a Juan Antonio Zufiría, Director General de IBM Global Technology Servicies Europa
Juan Antonio Zufiría es una de las figuras más destacadas de la computación en nuestro país. Desde 1987, este matemático e ingeniero aeronáutico, ha estado ligado a una de las grandes multinacionales del sector: IBM. Primero como investigador en el Thomas Watson Research Center de Nueva York y, posteriormente, en varias funciones directivas, Presidente de IBM España, Portugal, Grecia y Israel, hasta alcanzar su actual responsabilidad: Director General de IBM Global Technology Services South West Europe. Zufíria es también Académico Numerario de la Real Academia de Ingeniería de España.
DIÁLOGOS CIENTÍFICOS - Juan Antonio Zufíria y Aurkene Alzua-Sorzabal
Juan Antonio Zufiría, (Villabona) es Doctor Ingeniero Aeuronáutico por la Universidad Politécnica de Madrid, Ph.D. in Applied Mathematics por el California Institute of Technology y Master en Business Administration por la London Shcool of Economics. En 1987 obtuvo el premio W.P. Carey & Co. Inc. en Matemáticas Aplicadas del California Institute of Technology a la mejor disertación doctoral. En 1989, fue nombrado director de Tecnología de Ingeniería del Conocimiento (IIC) desde donde impulsó su actividad innovadora. En la actualidad es Director General de IBM Global Technology Services South West Europa .
Desde que le otorgaran el premio WP Carey & Co. Inc. en Matemáticas Aplicadas del California Institute of Technology a la mejor disertación doctoral el mundo ha cambiado sustancialmente. ¿Cuáles son los principales aspectos de cambio? Hay dos cosas que me han sorprendido en estos años desde que terminé mi tesis doctoral, la primera es el aumento de la complejidad y el segundo el cambio en la escala de tiempo en el que las cosas ocurren. Cuando pienso en el primero creo que hay una serie de factores económicos y sociales que han sido impulsados por la globalización y también las tecnologías nos han permitido entender mucho mejor el mundo que nos rodea, el mundo se ha hecho mucho más interconectado y tenemos ahora mejores gafas (lentes) para ver lo que ocurre a nuestro alrededor. Con los cual, tenemos un mundo más complejo y vemos más complejidad en ese mundo, porque somos capaces de ver más cosas. Esto para mi es muy importante porque viniendo de un mundo matemático me abre al espacio de los sistemas no lineales, la riqueza de cosas que puedes hacer cuando las soluciones no son lineales aumenta sustancialmente y eso es lo bonito del mundo que tenemos ahora. Veo más cosas y veo que puedo hacer muchas más cosas.
La segunda, es la escala de tiempo en las que las cosas cambian. Cuando comparo el ritmo de la innovación de la década de los 80, cuando hice mi tesis doctoral, con el de ahora, el cambio es sorprendente. Por ejemplo, se ha multiplicado por seis la producción de patentes anuales. Al tener capacidad de ver más cosas, también somos capaces de hacer más cosas en menos tiempo. La pregunta después de esto es obvia, ¿cómo puedo con mis capacidades sacar provecho de la complejidad y el aumento en esta escala de tiempo?, ahí es donde veo la posibilidad de utilizar nuestras tecnologías para abordar la realidad de una forma más eficiente y ahí es donde entra el concepto de si somos capaces o no de hacer inteligentes nuestros sistemas, es donde surge la idea de la inteligencia artificial.
“La inteligencia artificial nunca sustituirá a la humana” Definitivamente desde los años 80 la concepción que tenemos de inteligencia artificial ha evolucionado. ¿Cuáles han sido los mayores cambios que ha percibido? Los cambios, aunque recientes en el tiempo, son enormes. La inteligencia artificial de los años 80 no fue más allá de crear los llamados sistemas expertos, que no dejaban de ser aplicaciones diseñadas para automatizar procesos de toma de decisiones sencillas, siguiendo pautas rígidas utilizadas por expertos humanos y dentro de un conjunto de reglas perfectamente definidas, con cero ambigüedades y de orden finito. Es, por ejemplo, el ámbito de aplicaciones como los juegos automáticos de ajedrez. Han sido cambios disruptivos. Ahora estamos en la era de los sistemas cognitivos, en la que de verdad estamos dando un salto sustancial en la forma en la que entendemos la inteligencia artificial. Estamos hablando de máquinas que son capaces de entender el lenguaje humano de detectar ambigüedad de postular hipótesis y verificarlas y de tomar decisiones con atributos que cada vez se parecen más a la inteligencia
7
humana. Habréis visto ya probablemente una máquina que hemos lanzado que se llama el IBM Watson, la desarrollamos para un concurso de televisión en 2011 y con ella ganamos al campeón del mundo en contestar preguntas en lenguaje natural. Para nosotros, esto es el comienzo de una nueva era. Este sistema interpreta correctamente el lenguaje natural (no código informático), aprende de manera dinámica (en lugar de tener que ser reprogramado), razona (en el sentido de que es capaz de dar respuestas adecuadas a preguntas complejas) y tiene una incipiente capacidad de incorporar el contexto externo en su proceso de toma de decisiones.
“La tecnología ya no trabaja para los músculos, trabaja para las neuronas” Hemos visto computadoras participando en Jeopardy o ganando a un campeón del mundo de ajedrez como Kasparov. ¿Hasta dónde puede llegar el poder de la computación? Bueno, lo primero yo siempre pienso que cuando hablamos de computación y hablamos de inteligencia artificial, nunca estamos hablando de la posibilidad de sustituir al ser humano. El ser humano está siempre por encima y los sistemas de información siempre van a ser una herramienta. En la medida en que la herramienta mejore, nuestras capacidades como seres humanos se van a multiplicar, no estamos hablando de sustitución del ser humano nunca. Hay teorías que ya se cuestionan cuando se va a poder construir una máquina que sea más inteligente que el ser humano, yo creo que eso está muy lejos en mucho aspectos y cerca en otros en el sentido en que sí podemos generar máquinas que tengan cierta capacidad de razonamiento, en un área muy concreta, mayor que la del ser humano pero nunca va a sustituirlo. Al contrario, el ser humano lo que va a hacer es elevarse, vamos a dejar de hacer unas cosas para hacer otras de mayor valor añadido. Siempre vamos a estar por encima de la máquina, nunca la máquina por encima nuestro, aunque tenga capacidad de hacer algunas cosas más rápido que nosotros. Año 2045 es la fecha que manejan los expertos como posible para desarrollar una máquina que, sólo en algunos aspectos concretos, supere al ser humano.
Desde la propia Revolución Industrial las personas han tenido cierto recelo por que las máquinas pudieran reemplazarlos. Teniendo en cuenta que actualmente existen sistemas de recomendación personalizados que atienden al contexto del momento, ¿cómo tranquilizaría a todas esas personas que temen por la deshumanización de actividades tan típicamente humanas como tomar una decisión? Primero les diría que lo que hay que hacer es mirar a la historia con perspectiva. Esto ha pasado siempre, hemos tenido miedo a la llegada de los coches, a las bicicletas, a todo y en realidad toda la historia de la humanidad está llena de procesos de innovación, lo que nos pasa a nosotros es que cuando la innovación ocurre en la escala de tiempo de tu vida y es más disruptiva te da más miedo. Cuando uno estudia el PIB del mundo, hasta el siglo XVIII se puede decir que no pasó nada, a partir de la revolución industrial viene un período en el que el mundo progresó mucho y cuando analizas lo que pasaba es que desarrollamos tecnología para sustituir a los músculos de las personas. Desarrollamos una máquina y eso es lo que ha pasado hasta ahora, que la innovación ha trabajado para los músculos, y eso lo entendíamos. Lo que ocurre en este momento es que la tecnología ya no trabaja para los músculos, trabaja para las neuronas. Nos estamos dotando de herramientas que multipliquen la capacidad de pensar e interactuar y eso nos da un poco más de miedo. Eso sí ¿va la máquina a sustituir la inteligencia emocional?, nunca, yo creo que nunca. ¿Va a ser una máquina igual de inteligente que un hombre?, nunca. ¿Habrá aspectos concretos de procesos de razonamiento que desarrollamos lo seres humanos que podremos delegar en una máquina y que los haga mejor que nosotros?, seguro. Esto último va a ser muy importante en el progreso y en su velocidad para el desarrollo de la humanidad. ¿Por qué no ver entonces la tecnología como un facilitador para pensar, decidir y actuar con una dimensión mucho más esencialmente “humana”? Viendo toda esta innovación, ¿cómo nos va a ayudar a influir y actuar ante los nuevos cambios sociales? Esta nueva tecnología nos permite observar muchísimo más, generar más evidencia sobre esta realidad y abordar el comportamiento social y humano de una manera diferente. Hay un fenómeno que estamos viviendo ahora
DIÁLOGOS CIENTÍFICOS - Juan Antonio Zufíria y Aurkene Alzua-Sorzabal
que son las redes sociales, que abre unas posibilidades de interconexión inmensas. Hay quienes piensan que estas redes aislan más a las personas y las convierte más individualistas pero en realidad eres más social, lo que pasa es que socializas de una manera diferente, interactúas con más gente. ¿Qué es lo que pasa? Que como toda esa interacción se realiza con tecnologías, registras todo lo que está pasando, dejas una evidencia. Somos capaces de recoger toda esta información y de estudiarla y eso nos capacita para analizar cómo ocurren las relaciones humanas, cómo interaccionan las personas. Ello nos faculta para tomar mejores decisiones. Por ejemplo, hemos cerrado hace unas semanas un acuerdo con twitter que nos permite ofrecer a clientes la posibilidad de analizar dichas interacciones para cambiar los programas informáticos de esos clientes con el fin de que puedan tomar decisiones de negocio más acertadas. Básicamente, podemos leer lo que se dice, en base a ello saber como actúan diversos sectores de la sociedad y, de esta manera, construir un marketing o desarrollar una serie de productos que se ajusten mejor a la naturaleza de la sociedad actual.
“Necesitamos profesionales como los data scientist para poder procesar los inmensos volúmenes de información” Hoy tenemos más tecnología para entender mejor las ciudades, la articulación más inteligente de estos espacios urbanos es fundamental en un mundo donde en 2050 más del 70% de la población vivirá en ellos. ¿Cómo van a ayudar las ciudades inteligentes a sus ciudadanos? ¿Qué aspectos estima van a ayudarles a mejorar su vida cotidiana? Somos capaces de poner una capa de inteligencia encima de las ciudades para haSomos capaces de poner una capa de inteligencia encima de las ciudades para hacer una vida cotidiana más fácil y mejor para todos. Vemos 3 pilares grandes de progreso: El primero es que las ciudades no analizan todavía toda la información que tienen, la red de transporte o energía por ejemplo; el segundo gran pilar es la anticipación, si eres capaz de anticipar los posibles riesgos o problemas de una ciudad creas mucho valor y hoy tenemos tecnología para poder anticipar fenómenos que puedan distorsio-
nar; y el tercer elemento es la coordinación, que es donde más valor hay. Ahora mismo, los diferentes subsistemas que tiene una ciudad son bastante independientes no interactúan entre ellos. Hay gran valor en hacer interactuar todos ellos, el Big Data que nos ayude a construir el ecosistema de la ciudad y sacar mayores correlaciones y encontrar mejores soluciones. Aquí es donde vamos a encontrar el verdadero concepto de ciudad inteligente, en el conjunto de todas estas cuestiones. ¿En que aspectos se va a mejorar la vida cotidiana gracias a la inteligencia artificial? Vamos a ver una mejora en todo lo que nos rodea, no es nada en concreto, una mejor calidad de vida, porque mejoran todos los sistemas. Cuando los sistemas están entrelazados una mejora en uno de ellos hace que mejore todo. Por ejemplo, si tú mejoras el tráfico, reduces el nivel de contaminación, mejoras las condiciones para la sanidad, seguros, etc. Una ciudad inteligente no es otra cosa que una ciudad preparada para funcionar mejor, gastar de manera más eficiente, prevenir y adaptarse a las situaciones cambiantes y permitir una mayor capacidad de interacción, calidad de vida y participación a sus ciudadanos. Esta revolución que nos comenta requiere de dos cuestiones, nuevos tipos de científicos y nueva forma de hacer ciencia. ¿Puede indetificar las oportunidades, los retos de esta ciencia y esta tecnología, que convergen poco a poco en esta nueva forma de entender la inteligencia aplicada? Respecto a las capacidades, ahora tenemos mucha más información y capacidad analítica sobre lo que ocurre, el contexto por lo que me doto de mayor capacidad para tomar mejores decisiones. El primer problema que tengo es que hay que leer muchas cosas, son muy grandes en volumen, segundo, muchas de ellas no están estructuradas, es decir no son datos estructurados en una tabla. El 80% de este volumen de datos courre en conversaciones entre personas, en mensajes de textos, imágenes, vídeos, periódicos, etc. Esto implica retos tecnológicos y científicos, ¿tengo yo la capacidad de leer todo eso, interpretar, analizar, buscar las correlaciones y el conocimiento que voy a extraer de ahí? En la última década hemos asistido a la consolidación de nuevos profesiones de investigación como el data scientist, como la persona
9
el especialista quien debe hacer el diagnóstico, el que decide lo que hay que hacer. Recientemente, en una prestigiosa publicación científica aparecía un reportaje sobre el proyecto Sinapsia, al que llamaban el nuevo cerebro de IBM. ¿Qué aporta este proyecto al mundo de la inteligencia artificial? Es una importante revolución, hasta ahora, en el mundo del software hay una cosa en la que no le estamos ganando al cuerpo humano: la cantidad de
especializada en entender correlaciones y procesar estos nuevos volúmenes de información. Entrar dentro de la información y buscar los algoritmos matemáticos o lógicos necesarios para extraer conocimiento para llegar a mejores conclusiones. Esta es una nueva área de capacitación que necesitamos en la sociedad.
“En Europa tenemos un reto: que los resultados de la investigación básica generen valor directo en la sociedad” Cuando pienso en la aplicabilidad hay ejemplos muy significativos de estos nuevos sistemas cognitivos en el mundo de la medicina, en las instituciones financieras, en la interacción entre el ciudadano y las organizaciones públicas. Hemos creado un nuevo centro en Nueva York, el centro Watson, en el que nuestros clientes, personas, pueden acudir con retos, ideas para que nosotros busquemos soluciones tecnológicas. Puedo poner el ejemplo de unos estudios desarrollados por una universidad americana sobre la proteína P53, una proteína que es precursora de cáncer. Se le dotó a Watson con el conocimiento que había sobre medicina (hay que tener en cuenta que ahora en dos días generas tanta información como la que había generado toda la humanidad hasta el comienzo de este siglo) en Publimed, que cuenta con 23 millones de artículos, y se le solicitó a Watson que identificara enzimas que pudieran actuar contra el P53. Hoy en día, entre todos los investigadores mundiales trabajando en este campo, se encontra una enzima por año. Watson, en sólo unas semanas, encontró 6. Para probar la valía de Watson se hizo otra prueba, le dieron el Publimed con fecha 2003, con el conocimiento de entonces y se le hizo la misma pregunta. Encontró 9 de las cuales, posteriormente, 7 han resultado reales, válidas. Solamente leyendo el Publimed. Una prueba definitiva que demuestra la eficacia de computadoras como Watson. Un especialista en oncología para leerse todo lo que se publica necesitaría 160 horas por semana, sólo le quedan 8 para dormir, Watson lee todo ello y te puede asistir en el diagnóstico. Eso sí, es
energía que necesitamos para hacer todas esas búsquedas y procesos. Cualquier supercomputadora necesita megawatios, una cantidad de consumo de energía brutal. En este momento un campo de investigación está centrado en la posibilidad de nuevos modelos de computación que fueran eficientes desde el punto de vista energético y se parecieran más a la computación del cuerpo humano que sólo necesita unos pocos watios (alrededor de 20) para el mismo esfuerzo. Estamos desarrollando tecnologías alternativas en las que se intentan simular la arquitectura del cuerpo humano. Es el proyecto SyNAPSE. Para que nos hagamos una idea de las cifras de esta iniciativa, estamos hablando de que con una potencia de 20mW/cm2 podemos tener un millón de neuronas programables. Es decir, podemos tener un superordenador en la palma de la mano. Cuando se pregunta cómo será la computadora del 2045, algunos apuntan a que será como los computadores de ahora pero sumando muchos juntos; otros creen que será como nuestro proyecto SyNAPSE (simulador de neuronas); y otros que piensan que será una cosa híbrida, que nos enchufaremos un acelerador en nuestro cerebro y eso nos dará la posibilidad de computación. Hay diferentes escuelas que estudian los caminos para llegar más rápidamente a tener una capacidad de computación mayor. Poner un acelerador al cerebro, copiar el cerebro o seguir escalando la capacidad. ¿Cuáles cree que van a ser los retos a los que va a tener que enfrentarse en general la industria y los investigadores?
DIÁLOGOS CIENTÍFICOS - Juan Antonio Zufíria y Aurkene Alzua-Sorzabal
De alguna manera, ya lo hemos comentado antes, es el reto de ser capaz de leer, entender y buscar correlaciones en un mundo dominado por los datos. El análisis de los datos es lo que nos dará el salto exponencial hacia el futuro. Tenemos que desarrollar tecnología que nos permita tratar estos datos de una manera estructurada y capacitar a los seres humanos, capacitar a profesionales que sepan utilizar esas tecnologías para ayudar a la sociedad a mover el futuro.
“Soy optimista, el 99% de los científicos que ha tenido la Humanidad están hoy vivos” Ante la actual perspectiva en lo relativo a las políticas científicas europeas, nacionales y regionales, ¿cuál es el futuro que le augura al sector de la investigación y la innovación?. ¿Qué cambios cree que sería conveniente aplicar en las actuales estrategias de I+D+I para poder situarnos en un lugar competitivo global? Cuando miro el dato del apoyo que se le da en Europa a estos temas creo que es insuficiente teniendo en cuenta el reto al que se enfrenta nuestro continente. Europa tiene que competir con una demografía que no le es favorable y con un nivel de vida que tampoco le favorece para competir con otros mercados más emergentes. La única vía de competitividad es la generación de puestos de trabajo de mucho valor añadido y eso siempre está ligado a la capacidad que tienes de innovar. Los políticos todavía no se han dado cuenta de lo importante que es esto. No le dan el valor que le corresponde. También entiendo el contexto de limitación de recursos. Hay que hacer las cosas de manera más eficiente, no sólo dedicar más dinero. Aun así, no se están utilizando las colaboraciones público-privadas eficientemente porque yo creo que hay oportunidades y el sector privado esta dispuesto a poner dinero en esas oportunidades; siempre y cuando el sector público responda
con unas garantías, con unos marcos adecuados para que eso tenga sentido. Ya hay mucha investigación básica en Europa y no estamos haciendo lo suficiente para fluir bien los resultados de esta investigación básica en valor directo para la sociedad. Transferir la investigación básica en valor real no implica mayor dinero sino mejor organización. Hay que darle valor y hacerlo mejor. ¿Cuál es su visión y la de IBM sobre el futuro? Yo creo que tenemos que ser extremadamente positivos hacia el futuro. Solo nosotros mismos podemos destruir nuestro futuro. Hay datos para la esperanza, por ejemplo, hoy en día el 99% de todos los científicos que han existido en la historia de la humanidad están vivos. Tenemos más capacidad de pensar que nunca. Por otra parte, hemos desarrollado tecnologías no que ayudan a nuestros músculos, sino que ayudan a nuestro cerebro a ser más potente y además hemos aumentando mucho la interconectividad en el mundo; la encefalización del mundo ha aumentando mucho, la interconexión entre el número de capacidades para generar nuevas capacidades. Esto nos lleva a la conclusión de que el progreso que el mundo puede tener debido a la tecnología es mucho más grande que nunca. Estamos ante una trasnformación que es exponencial, no es lineal. Nuestra única limitación es que a veces nos ponemos de acuerdo para romperlo en vez de para utilizarlo. El reto está en la sociedad, en organizarnos para ser capaces de absorber toda esta tecnología. ¿Volvería a iniciar toda su carrera desde la matemática, desde la ingeniería? Totalmente, no cambiaría nada, me da miedo cambiar cosas del pasado. Estoy bien ahora, así que esto quiere decir que todo lo que he hecho antes tiene que estar bien. Eso no significa que no haya cometido errores, pero he disfrutado mucho en esa intersección del mundo de la ciencia con el mundo de la empresa. Cruzando conocimientos diferentes para crear innovación.
11
RTO BIE NA AE NCI CIE
Divulgación científica en Internet Alex Fernández Muerza. Periodista miembro de la Asociación Española de Periodismo Científico, de la European Union of Science Journalists Asociaton y socio fundador de la Asociación de Internautas Vascos.
Ya no hay excusas para no hacer divulgación científica: Internet ha abierto unas enormes y asequibles posibilidades de acercar la ciencia a la sociedad. En una entrevista1 publicada en el diario asturiano La Nueva España, el pediatra y neurofisiólogo Eduard Estivill, ante la afirmación del entrevistador “ha vendido dos millones de ejemplares de ‘Duérmete niño’, pero también ha recibido muchas críticas”, respondía: “Los que critican mi método es que no han leído el libro o han leído Internet, un foro en el que la ciencia brilla por su ausencia y en el que pueden opinar pederastas y asesinos.” Por su parte, el escritor Juan Manuel de Prada aseguraba en una entrevista en el diario ABC que “Internet es la muerte de nuestra vida. Es la muerte de todo2”. Son dos de los diversos ejemplos de ataques a Internet que pueden oírse o leerse. El desconocimiento, el miedo a lo nuevo, al cambio, o el desprestigio hacia la discrepancia son algunas motivaciones que impulsan estas críticas. Sin embargo, precisamente por sus peculiares características, Internet es idóneo para la ciencia y su divulgación. Evidentemente, Internet también tiene sus inconvenientes; al fin y al cabo, se trata de una extensión del ‘mundo real’. Ahora bien, ¿no es más lógico combatir a quienes hacen mal uso, y aprovechar las nuevas ventajas? Como señala el responsable de la Cátedra de Cultura Científica (CCC) de la Universidad del País Vasco (UPV/EHU) Juan Ignacio Pérez Iglesias, en un dossier especial3 sobre divulgación científica de la revista de la Sociedad Española de Bioquímica y Biología Molecular (SEBBM) “hay que hacer uso de todo tipo de medios y soportes, utilizando materiales específicos para cada uno de ellos. Y es importante ensayar formatos nuevos, porque estamos asistiendo a la eclosión de modalidades de difusión de la ciencia que pueden proporcionar excelentes resultados.” Internet permite utilizar diversos registros y niveles de comunicación, enlaces hipertextuales para dirigirnos a otros trabajos o explicar conceptos, imágenes, videos, infografías interactivas, publicar, modificar y actualizar contenidos de manera instantánea con posibilidades mundiales de difusión, generalmente de forma gratuita, o con unos costes muy bajos, sobre todo en comparación con
los demás medios de comunicación. Se trata de un medio en el que se puede ser tan breve o extenso como se quiera, y publicar tanto artículos super especializados como divulgativos o informativos, y llegar tanto a científicos como a la sociedad en general. Y sí, hablamos de medio. Internet es otro medio de comunicación, diferente a los existentes, que toma de los mismos ciertos elementos pero incorpora otros nuevos y evoluciona hacia nuevas formas de expresión, con nuevos soportes, como tabletas, teléfonos y televisiones inteligentes, libros electrónicos etc., que nos llevan a una Internet que será todo, independientemente del aparato y el lugar en el que esté. Por tanto, no será importante hablar del medio, sino del contenido. La mitad de la población española utilizó en 2013 los dispositivos móviles para conectarse a la Red, lo que supone un crecimiento del 28% con respecto a 2012, según datos del informe eEspaña 20134 .
“Por sus peculiares características, Internet es idóneo para la ciencia y su divulgación” No resulta así extraño que Internet sea ya la primera fuente de información científica, por delante de la televisión, como señalaba el informe ‘Percepción Social de la Ciencia y la Tecnología en España’5 de la Fundación Española para la Ciencia y la Tecnología (FECYT). No obstante, el informe ‘Los públicos de la ciencia6’ , dirigido por el profesor de la Universidad Rey Juan Carlos (URJC) Luis Pablo Francescutti y editado por la Fundación Dr. Antoni Esteve, confirma también el importante desajuste entre los casi 17 millones de españoles que manifestaban su interés por la ciencia y la tecnología en la encuesta de la FECYT de 2010 y los 5 ó 6 millones que aproximadamente consumen esta información de manera habitual.
CIENCIA EN ABIERTO - Divulgación científica en internet
Internet y la divulgación de la ciencia El proceso de comunicación, divulgación e información de la ciencia ya no es igual desde la llegada de Internet. La divulgación ha visto cómo se amplían espectacularmente en Internet sus posibilidades. La aparición de nuevas iniciativas, tanto amateurs como profesionales, es cada vez mayor. El elemento de comunicación de los descubrimientos científicos, las revistas científicas, también se han visto afectadas por Internet. Nature es un claro ejemplo de apuesta por ampliar y mejorar su presencia en Internet, no sólo con sus contenidos de papel, sino con comunicación, divulgación e información adaptada a este medio, como blogs, ‘podcasts’ y ‘videocasts’ (grabaciones de audio o video similares a programas de radio y televisión), foros o espacios orientados a la comunidad, y llegar así a públicos más amplios que la propia comunidad científica interesados en la ciencia. Internet puede contribuir a frenar los cada vez mayores costes de la distribución en papel y a encontrar nuevas vías de negocio.
“Internet es ya la primera fuente de información científica, por delante de la televisión, según datos de la FECYT” En la red se han creado los denominados ‘pre-prints’, artículos científicos de acceso libre que no han sido sometidos al sistema de revisión de pares de las revistas, de manera que se saltan el control y el tiempo de espera de éstas. Según Dídac Martínez, director del Servicio de Bibliotecas y Documentación de la Universitat Politècnica de Catalunya. (UPC), “la comunidad académica y científica debe recuperar el control de la difusión y acceso al nuevo conocimiento que surge de sus instalaciones y sobre todo del pensamiento y de la creación de sus miembros y apostar por el acceso libre. Con Internet tiene grandes oportunidades de hacerlo7.” Más recientemente, el Nobel de Medicina 2013 Randy Schekman señalaba públicamente su boicot a publicaciones como Nature, Science o Cell por el daño que a su juicio le hacen a la ciencia. “Son como diseñadores de moda o la cultura del bonus de Wall Street”, sentenciaba8. Las instituciones, universidades, centros de investigación o empresas ligadas a la ciencia y la tecnología, tanto públicas como privadas, son cada vez más conscientes de la importancia de comunicar y divulgar en Internet para dar a conocer investigaciones y productos que pueden resultar de interés a una sociedad a la que se deben, y de paso, promocionarse en la dura lucha por la financiación. La agencia espacial estadounidense (NASA), tanto su gabinete de comunicación
como su web (http://www.nasa.gov) (pendientes incluso de los hispanoparlantes con webs como Ciencia@NASA (http://ciencia.nasa.gov) resultan paradigmáticos. En España, la web del Instituto Astrofísico de Canarias (http://www.iac.es) fue una de las primeras en hacer un esfuerzo divulgativo en Internet. Diversas instituciones han puesto en marcha webs de divulgación e información científica. EurekAlert! (http://www.eurekalert.org), desarrollado por la Asociación Estadounidense para el Avance de la Ciencia (AAAS); AlphaGalileo (http://www. alphagalileo.org) se dedica a difundir los avances de la investigación europea, “para compensar la omnipresencia de la actualidad científica estadounidense” según sus responsables; Agencia SINC (http://www.agenciasinc.es/), promovido por la FECYT, similar a las anteriores sólo que en español y para potenciar las noticias de la investigación española; Red de Unidades de Cultura Científica (UCC), puesta en marcha en 2007 por la FECYT, su objetivo es fomentar la divulgación para ciencia a la sociedad (http://comcired.fecyt.es); Mapping Ignorance (http:// mappingignorance.org/), una iniciativa de la CCC y de la Fundación Euskampus para difundir en inglés los avances científicos en general y los generados en España y el País Vasco en particular; o las iniciativas de la Fundación Elhuyar BasqueResearch (http://www.basqueresearch.com/), una web-puente para que los investigadores vascos den a conocer su trabajo a los medios de comunicación, con publicación en euskera, inglés y castellano, y Zientzia.net (http://www. zientzia.net/), con noticias en euskera sobre ciencia y tecnología, y enlaces a noticias destacadas de otros medios en inglés y francés. El trabajo de divulgación de los museos de ciencia se ve también trasladada a Internet. La Agencia SINC también ofrece un listado de los principales museos y planetarios españoles. (http://www.agenciasinc.es/Enlaces-de-la-ciencia/%28filtro%29/-Museos_y_planetarios#enlaces_ciencia). Las revistas de divulgación tienen página web en la que ofrecen los contenidos del papel y también exclusivos para Internet. Las más conocidas son Ça m’intéresse (http://www.caminteresse.fr), Discover Magazine (http://discovermagazine. com/), Focus (http://www.bbcfocusmagazine.com/), National Geographic (http:// www.nationalgeographic.com), o Popular Science (http://www.popsci.com); y en español Muy Interesante (http://www.muyinteresante.es) y Quo (http://www.quo.es). Algunas iniciativas han surgido solo en Internet, con una gran variedad, aunque la incapacidad para autofinanciarse ha hecho que algunas de ellas desaparezcan o dejen de actualizarse. Por poner algunos ejemplos: How Stuff Works (http://www.howstuffworks.com/), completo portal con explicaciones científicas sobre cómo funcionan las cosas; Space (http://www.space.com/), web de referencia para noticias astronómicas y del espacio; en español Divulgamat (http://www. divulgamat.net) sobre Matemáticas, etc. Las Asociaciones de periodistas, comunicadores, divulgadores y escritores de ciencia también tienen su presencia en Internet, como la Asociación Española de Comunicación Científica (AECC) (http://www.aecomunicacioncientifica.org), la Asociación Catalana de Comunicación Científica (ACCC) (http://www.accc.cat), la European Union Science Journalists’ Association (EUSJA) (http://www.eusja.org/), o la International Science Writers Association (ISWA) (http://internationalsciencewriters.org/). En este sentido, financiar la divulgación científica en Internet, e incluso vivir profesionalmente de ella, no es precisamente una tarea sencilla, según ponen en evidencia diversos estudios, como el Informe de Salarios de la Comunicación elaborado por la empresa Wellcomm, que señala que “lo digital se paga peor”9. Esta situación repercute evidentemente en la calidad de los contenidos. Internet también está proporcionando vías alternativas de financiación de trabajos científicos y de divulgación. Mediante la denominada “Gamification”, se realizan juegos, concursos, contenidos divertidos para llegar a un gran público. Por ejemplo, el certamen ‘Dance your Phd10’ (‘Baila tu tesis’) organizado por la revista Science y la AAAS propuso a científicos de todo el mundo que grabaran un video musical para explicar su tesis y ganar un viaje a EE.UU. La bilbaína Saioa Álvarez ganó la categoría de Química con un video que explica, al ritmo de Shakira, el proceso de creación de una mayonesa baja en grasas.
13
El crowdfunding, o financiación colectiva, permite a cualquier persona ayudar a un proyecto que le gusta, al aportar una cantidad de dinero. En España, este sistema ha pasado de recaudar 9,7 millones de euros en 2012 a 19,1 millones en 2013, y hay 53 plataformas generalistas y específicas, entre ellas dos específicas para temas científicos, según un informe de la web especializada en esta materia Infocrowdfunding.com. Por ejemplo, el reto SciFund, una iniciativa de crowdfunding creada en EE.UU. para investigadores de todo el mundo. Según12 Marisa Alonso Núñez, una investigadora que financió uno de sus trabajos con este sistema, lo novedoso es que “los propios científicos presentan sus proyectos de forma interesante y entendible para que la gente elija los que quiera financiar”.
Tecnologías para divulgar en internet Internet ofrece multitud de posibilidades y herramientas multimedia para divulgar ciencia. En la actualidad la red se conoce como Web 2.0, un concepto que engloba tecnologías y aplicaciones para la colaboración y participación, y en las que la ciencia tampoco está al margen. Las redes sociales son tal vez uno de los servicios más conocidos. En estas webs sus usuarios pueden publicar contenidos para que los vean sus amigos u otras personas a las que se dé permiso, y buscar nuevas amistades o contactos. Los usuarios pueden así compartir contenidos, interactuar, crear comunidades y seguir temas sobre intereses similares. Facebook (http://www.facebook.com/), Twitter (http://twitter.com/), o Google+ (https://plus.google.com/) son las más conocidas, así como Linkedin (http://www. linkedin.com/), como red social profesional en la que también se pueden encontrar contenidos de divulgación. El fenómeno de los blogs, aunque un tanto eclipsado por las redes sociales, sigue teniendo un gran peso en el mundo de la divulgación científica en Internet. Entre sus ventajas destaca la facilidad con la que cualquiera, sin apenas conocimientos informáticos, puede tener y actualizar uno de manera gratuita, en plataformas como Blogger (http://www.blogger.com/) (hace falta tener una cuenta en Google), o WordPress (http://es.wordpress.com/). Por ello, cada vez son más los ‘blogueros’ que se lanzan a publicar blogs relacionados con ciencia, contabilizándose por centenas. Diversas webs ofrecen un listado de blogs de ciencia en los que también se mide su popularidad, como por ejemplo la lista de blogs de Alianzo (http://www.alianzo.com/es/top-ranking/Blog/media/cat/ciencia), la de Ebuzzing (http://labs.ebuzzing.es/top-blogs/ciencia) o la de Bitácoras (http:// bitacoras.com/top/bitacoras/categoria/ciencia).
“Internet también está proporcionando vías alternativas de financiación de trabajos científicos y de divulgación” Además de los blogs individuales, también podemos encontrar ‘granjas de blogs’ o ‘blogs colectivos’ en los que varias personas se encargan de mantener y publicar contenidos en un mismo espacio. Por poner algunos ejemplos, en inglés se puede encontrar Science Blogs (http://scienceblogs.com/) y en español Naukas (http://naukas.com/), E-ciencia.com (http://e-ciencia.com/) o Hablando de ciencia (http://www.hablandodeciencia.com/). Como iniciativa del mundo universitario e institucional, Ehusfera (http://www.ehu.es/ehusfera/es/) de la UPV/EHU, o los de Madrimasd (http://www.madrimasd.org/blogs/). El Wiki es una aplicación de informática colaborativa que permite que varias personas puedan crear, actualizar y corregir documentos web de manera colectiva y sencilla. De todos los wikis, sin duda el que más participación y renombre ha conseguido es la Wikipedia (http://www.wikipedia.org), una enciclopedia on-line de contenido libre mantenida y administrada por la fundación norteamericana sin ánimo de lucro Wikimedia con la ayuda de cientos de voluntarios de todo el mundo. Las webs de ‘inteligencia colectiva’ tienen a los usuarios como protagonistas, ya que seleccionan la información para el resto de la comunidad. Se podría hablar básicamente de dos tipos. Por un lado, las informaciones son enviadas por los usuarios, que son publicadas si los editores de la web las consideran interesan-
tes. Estas noticias luego pueden ser comentadas por los usuarios. La primera fue Slashdot, que cuenta con sección de Ciencia (http://science.slashdot.org/). La versión castellana de esta web más popular es Barrapunto, que también tiene un apartado para temas de Ciencia (http://ciencia.barrapunto.com/). Por otro lado, los usuarios envían historias que los demás usuarios del sitio pueden votar, moviendo las más votadas a la página principal. La primera en lanzar este concepto fue la estadounidense Digg (http://digg.com/). En castellano, la más popular es Meneame (http://www.meneame.net/). Una web más reciente basada en Meneame para contenidos específicos de divulgación científica es Divúlgame (http://www.divulgame.net/). Los ‘marcadores sociales’ permiten agregar los marcadores que se guardan en los navegadores y categorizarlos con un sistema de etiquetado. De esta manera, sus usuarios almacenan sitios webs, los comparten con otros usuarios, y conocen cuántos tienen un determinado tema guardado en sus marcadores. Entre estos servicios se puede destacar Delicious (http://delicious.com/) o Reddit (http://www.reddit.com/). Ante toda la cantidad de contenidos que puede encontrarse en Internet, uno de los peligros que se corre es el de la sobre información o saturación. Una forma de evitarlo es organizando los medios de los que se quiere estar actualizado. Para ello se pueden utilizar los ‘agregadores de contenido’, que reúnen información categorizada de forma automática gracias al sistema RSS, como Feedly (http://feedly.com/).
“No hay que caer en la ‘tecnofobia’, pero tampoco en el ‘ombligismo’: La divulgación no se debe hacer para nosotros mismos, sino para los internautas, que en muchas ocasiones saben más que nosotros” Internet es ahora más multimedia que nunca, y si bien los contenidos de divulgación científica están un tanto dispersos, se pueden encontrar ejemplos interesantes, como ‘podcasts’ y ‘videocasts’ en webs tanto amateurs como profesionales (http://e-ciencia.com/blog/divulgacion/los-mejores-podcasts-de-ciencia/), sistemas de edición y publicación audiovisual on line con contenidos de ciencia muy diversos, como en Youtube (http://www.youtube.com) o Vimeo (http://www. vimeo.com), buscadores de videos de ciencia, como Science Hack (http://sciencehack.com), webs para publicar y compartir presentaciones tipo powerpoint en SlideShare (http://www.slideshare.net), webs para montarte una televisión en streaming (emisión en directo por Internet), como Livestream (http://www.livestream.com/), etc. En español destaca Indagando (http://www.indagando.tv/), una TV en streaming para divulgar contenidos de ciencia e innovación. Como herramientas para establecer conferencias entre dos o más usuarios, que pueden utilizarse como canales divulgativos, se pueden utilizar hoy programas de chat de texto, audio y video, como Skype (http://www.skype.com/) o Hangouts (http:// www.google.com/chat/video).
CIENCIA EN ABIERTO - Divulgación científica en internet
El movimiento es vertiginoso en Internet, y algunos expertos ya hablan de la llegada de la “web 3.0.”, marcada por su “inteligencia semántica” y su carácter móvil y ubicuo. Las nuevas tecnologías no corren, vuelan, pero su objetivo es ofrecer a los internautas más posibilidades. La siguiente versión del “lenguaje de Internet”, el html5, promete hacer la red mucho más interactiva, mientras que el concepto de ‘la nube’ (“cloud computing”) promete virtualizarlo todo. Las redes sociales generalistas, tipo Facebook, podrían dejar paso a otras más especializadas, para ajustarse a las características temáticas de sus responsables.
Algunas ideas para mejorar la divulgación científica en Internet •
No caer en la ‘tecnofobia’, pero tampoco en el ‘ombligismo’: La divulgación no se debe hacer para nosotros mismos, sino para los internautas, que en muchas ocasiones saben más que nosotros. Los géneros, lenguajes y formatos no son mejores ni peores, sino diferentes según a quién y cómo queramos llegar.
•
Seguir el ejemplo de las buenas iniciativas del mundo anglosajón, algunas de las cuales nos llevan mucha ventaja.
•
Profesionalización de los divulgadores digitales. La precarización laboral empeora la calidad y cantidad de las iniciativas de ciencia en Internet.
•
Conocer mejor a los internautas para afinar más en lo que quieren.
•
Formación en divulgación científica y digital.
•
Potenciación de una cultura divulgadora y digital entre los científicos, que puedan ser tanto fuente como divulgadores en sí.
•
Dar mayor peso en instituciones, universidades, empresas y centros de I+D a la divulgación de la ciencia en Internet, no sólo con contenidos corporativos. La Ciencia es cultura y la generalización del conocimiento y de una opinión pública informada y crítica fortalece la democracia.
•
Digitalización del conocimiento científico con acceso sencillo y público: Tesinas y tesis doctorales, revistas científicas, etc.
•
Creación y afianzamiento de iniciativas en Internet y no una copia de otros medios: webs multimedia, comunidades on-line participativas, videoconferencias con científicos, guías de expertos, sistemas de noticias especializadas para que los medios de comunicación amplíen sus contenidos de Ciencia, etc.
Referencias [1] http://www.lne.es/secciones/noticia.jsp?pRef=2008052000_31_637940__ Oviedo-Media-hora-haciendo-cosas-bien-suficiente-para-educar) [2] http://www.abc.es/cultura/libros/20130113/abci-juanmanuel-prada-internet-201212272103.html [3] http://www.sebbm.com/173.htm [4] http://fundacionorange.es/fundacionorange/analisis/eespana/e_espana13.html [5] http://icono.fecyt.es/informesypublicaciones/Paginas/ Percepcion-Social-de-la-Ciencia.aspx [6] http://www.esteve.org/cuaderno-publicos-ciencia/ [7] Martínez, Dídac, “La crisis de las revistas científicas y las nuevas oportunidades de Internet”, Telos, http://sociedadinformacion.fundacion. telefonica.com/telos/articulotribuna.asp@idarticulo=2&rev=56.htm [8] http://www.elmundo.es/salud/2013/12/10/52a732c763fd3d00028b457e.html [9] http://www.trecebits.com/2013/01/15/asi-son-los-salariosde-los-profesionales-de-la-comunicacion-en-espana/ [10] http://news.sciencemag.org/people-events/2014/11/ dance-your-ph-d-winner-announced [11] http://www.infocrowdsourcing.com/crowdfunding-espana-2013-19-millones/ [12] http://e-ciencia.com/blog/noticias/ingenio-contra-la-crisis-elreto-scifund-una-nueva-forma-de-financiar-la-ciencia/
15
RTO BIE NA AE NCI CIE
Impresoras 3D, ¿la tercera revolución industrial? Alex Fernández Muerza
Convierten en objetos reales diseños por ordenador de forma rápida, sencilla y económica. La nueva era de la innovación y la producción industrial se está imprimiendo en 3D. Daniel Omar estaba cuidando las vacas de su familia, en el sur de Sudán, cuando una bomba le dejó a sus 14 años sin ambas manos. Se calcula que el conflicto armado en la región ha causado unas 50.000 amputaciones. Tras conocer la historia, el productor audiovisual y filántropo estadounidense Mick Ebeling puso en marcha el ‘proyecto Daniel’ . Su objetivo: crear una prótesis por menos de cien dólares para Daniel1 y otros damnificados. El diseño se ha hecho libre de patentes y la tecnología de la impresión 3D ha hecho el resto. El hospital de las Montañas Nuba tiene ahora un laboratorio que ha fabricado un antebrazo artificial para Daniel y otras personas que no podrían permitirse de otra forma una prótesis convencional. La idea de las impresoras 3D es tan sencilla como revolucionaria. Consiste en crear objetos físicos a partir de un archivo modelado antes en un ordenador. “No me voy a poner cursi y decir que puedes hacer todo lo que imaginas, pero la impresión 3D tiene el inmenso potencial de hacer muchas cosas de forma di-
ferente, pura innovación. Lo mejor está por descubrir. Además, en combinación con un escáner 3D, las aplicaciones se multiplican”. Son palabras de Jon Bengoetxea, responsable de Tumaker, una empresa con sede en Oiartzun (Gipuzkoa) que ha desarrollado ‘Voladora’, una impresora 3D con tecnología 100% vasca. Diversos analistas y medios como The Economist apuntan2 a las impresoras 3D como la cabeza visible de una ‘Tercera Revolución Industrial’, en la que se apuesta por la calidad, la innovación y los productos hechos de forma local, a pequeña escala y a medida. El periodista y emprendedor en Internet Nicolás Boullosa explica3 que “las grandes factorías instaladas en países emergentes, fruto de las economías de escala, cederán protagonismo a talleres de profesionales, de nuevo en los países desarrollados”.
“La impresión 3D puede solucionar, y de hecho está haciéndolo, muchos problemas en diversos campos de la ciencia y la tecnología” ‘The Open Shoes’ sería, siguiendo dicho criterio, una iniciativa de esta nueva era industrial. Seleccionada por su originalidad por Innobasque, la Agencia Vasca de Innovación, propone acercar a los ciudadanos el ‘calzado de bienestar’, de manera que cualquiera pueda disponer de un calzado adaptado a sus características fisiológicas. Según uno de sus impulsores, Javier Bustamante, “la impresión 3D puede solucionar, y de hecho está haciéndolo, muchos problemas en diversos campos de la ciencia y la tecnología. Y sirve para acelerar y abaratar muchos procesos. Hace unos años para un prototipo de un producto se podía tardar meses o incluso años y si había que modificarlo ocasionaba unos costes elevadísimos que hacía que muchos se quedasen por el camino. Hoy en día, una vez diseñado, se puede imprimir en unas horas y, si no funciona, modificarlo y volver a imprimirlo.”
CIENCIA EN ABIERTO - Impresoras 3D, ¿la tercera revolución industrial?
Posibilidades inmensas Empresas de sectores muy diversos utilizan ya impresoras 3D para generar prototipos de productos, piezas, o utillaje para sus procesos de fabricación; en formación profesional y universidades para crear prototipos e incluso objetos funcionales que aplican a robótica, electrónica, mecánica, arquitectura, etc.; o en laboratorios de investigación para hacer a medida sus propias herramientas. En 2013, según diversos datos manejados por Bengoetxea, la cifra de negocio movida por la industria de las impresoras 3D alcanzó los 895 millones de euros, y hay estudios que estiman que para 2025 podría rondar una horquilla entre los 3.200 y los 47.000 millones de euros. Szilárd Kados, diseñador gráfico e ingeniero 3D en DeustoTech, el Instituto de Tecnología de la Universidad de Deusto, señala otras estimaciones para 2013 en torno a los 2.000 millones de euros y unas previsiones de incremento del 600% para 2018. A medida que su uso se diversifica y generaliza, las impresoras 3D y sus resultados se pueden ver tanto en el espacio como en la casa de algún entusiasta de esta tecnología. La Agencia Espacial Estadounidense (NASA) ha llevado a la Estación Espacial Internacional la ‘Zero-G’, una impresora 3D para estudiar las posibilidades de imprimir objetos 3D a bordo de las naves espaciales. Los astronautas serían así más autónomos y no dependerían del suministro de nuevas piezas o elementos desde la Tierra, esencial para misiones a otros planetas. La Agencia Espacial Europea (ESA) ha puesto en marcha el proyecto ‘Amaze’ para el desarrollo de estas técnicas, mientras que organizaciones como Inspiration Mars Foundation o Mars Wane las consideran claves para que dentro de unas pocas décadas haya colonias con humanos en el planeta rojo. Sin necesidad de ir al espacio, el aspecto de la distribución y la logística es otra cuestión que cambiará por completo. Como señala Javier Pedreira ‘Wicho’, uno de los autores del blog tecnológico Microsiervos, “en un lugar aislado, con tal de tener una impresora 3D y el material en bruto necesario se podrían fabricar repuestos o suministros que hicieran falta sin depender de que nadie los haga llegar allí.” 4 La impresión 3D se adapta a las necesidades de sus usuarios, de manera que se pueden hacer desde piezas diminutas hasta productos más grandes como edificios o automóviles. La empresa china Winsun New Materials construye viviendas en un día a partir de piezas impresas prefabricadas. El estudio de arquitectura danés Eentileen y la empresa Facit Homes, especializada en crear casas personalizadas, pusieron en pie la Villa Asserbo, una vivienda unifamiliar
a partir de diseños 3D. En Ámsterdam, el estudio Dus Architect’s ha diseñado un edificio, Print Canal House, con una impresora 3D creada para que pudiera fabricar las piezas con las dimensiones requeridas. Los diseñadores londinenses Zero Zero han inventado un sistema para construir espacios habitables con componentes que pueden obtenerse en Internet, para imprimirse y montarse en cualquier lugar. Según sus responsables, la impresión 3D abarata costes y reduce el impacto ambiental de la construcción. Kor Ecologic es una empresa canadiense que ha creado el ‘Urbee’, un coche híbrido con piezas obtenidas en una impresora 3D. El vehículo recorre 100 kilómetros con 0,86 litros de biocombustible y ha costado 55.000 euros, la mitad de lo que hubiera supuesto con métodos convencionales. Un equipo de la academia de ingeniería blea Group T ha creado ‘Areion’, un pequeño coche de carreras cuya gran mayoría de piezas se han impreso en 3D a partir de un modelo digital.
“La impresión 3D se adapta a las necesidades de sus usuarios, de manera que se pueden hacer desde piezas diminutas hasta productos más grandes como edificios o automóviles” El sector médico-sanitario es uno de los que más puede beneficiarse. Además de la citada prótesis del joven Omar, otro caso llamativo es el de Kaiba Gionfriddo, un bebé de seis semanas incapaz de respirar por si solo que salvó la vida gracias a una tráquea artificial impresa en 3D por un equipo de la Universidad de Michigan (EE.UU.). Bespoke Innovations, con sede en San Francisco (EE. UU.), produce prótesis personalizadas con un menor coste que las tradicionales. Organovo trabaja en el desarrollo de ‘bioprinters’, para la creación de órganos humanos con impresoras 3D a partir de células madre. Sin ir tan lejos como la creación sintética de órganos para trasplantes, se baraja la posibilidad de crear copias de órganos impresas en plástico u otro material sencillo para practicar operaciones complejas antes de hacerlas con el paciente. El mundo de la ciencia también puede sacarle mucho partido. Un equipo del Imperial College de Londres han creado las ‘sculplexity’, esculturas creadas con impresoras 3D para llevar a la realidad conceptos matemáticos.
17
Impresión 3D para todos los públicos El responsable de Tumaker diferencia entre las empresas que ofrecen productos muy sofisticados y de nicho para diferentes sectores de la industria, como Stratasys y 3D Systems, y las empresas que ofrecen “impresoras 3D personales”. Ahora bien, la idea de tener una en casa, al igual que la típica para imprimir en papel, se encuentra todavía algo lejos. Según Bengoetxea, se pueden encontrar impresoras 3D “en formato kit” que pueden rondar los 300-400 euros, pero para sacarles rendimiento hay que saber montarlas y usarlas, y para ello hace falta invertir “más tiempo del que normalmente se está dispuesto”. Bustamante recomienda a quien quiera comprarse una que piense antes para qué la quiere: “hay que saber diseñar en 3D. Si no, se va a dedicar únicamente a descargarse de Internet diseños ya realizados por otros usuarios.”
¿Cómo funciona una impresora 3D?
“Se pueden encontrar impresoras 3D “en formato kit” que pueden rondar los 300-400 euros, pero para sacarles rendimiento hay que saber montarlas y usarlas, y para ello hace falta invertir más tiempo del que normalmente se está dispuesto”
La impresión 3D no es una recién llegada. Hace 31 años, el estadounidense Chuck Hull ideó el primer método de impresión 3D: la estereolitografía. Tres años después fundó la compañía 3D Systems y comenzó a comercializar las primeras máquinas de impresión estereolitográficas. A partir de entonces, como explica Bengoetxea, se desarrollan diferentes tecnologías de impresión 3D, entre ellas las de modelado por deposición fundida, la utilizada normalmente en los modelos personales.
Por otra parte, se encuentran las impresoras 3D “Out-of-the-box”, listas para imprimir una vez se sacan de su caja. Bengoetxea señala que, dependiendo de características y funcionalidades, pueden costar entre 1.000 y 2.000 euros, “pero ofrecen fiabilidad y calidad profesional y se empiezan a aproximar en usabilidad y coste a lo que las personas no expertas pueden esperar.” Su empresa ha apostado por uno de estos modelos con la denominada ‘Voladora V2’.
“La posibilidad de replicar cualquier producto aumentará los problemas con la vulneración de patentes o los derechos de autor” Mientras llega el momento, al igual que otras tecnologías, en el que la facilidad de uso y precio las haga asequibles a un gran público, se puede optar por las
El proceso de creación comienza con el diseño del objeto. Para ello pueden utilizarse diversos programas informáticos, como SketchUp o Wings 3D, de manera que el objeto realizado se pueda imprimir por adición, es decir, añadiendo material capa a capa. Plásticos de diversos tipos, goma, papel o metales como el aluminio son algunos materiales utilizados. Las piezas se pueden fabricar sin juntas, de manera que son más sólidas, y más ligeras.
empresas que ofrecen impresiones 3D. Kados diferencia entre las impresoras 3D patentadas y las de ‘código abierto’ (ambas se pueden encontrar en Euskadi). Las primeras, casi todas con tecnología patentada en EE.UU., se distribuyen por diversas empresas e incluso ofrecen la posibilidad de imprimir modelos 3D, como el propio DeustoTech. Las segundas permiten que cualquier empresa pueda desarrollar su propia impresora 3D y venderla, como Tumaker. Las aplicaciones más ‘domésticas’ son cada vez más diversas y originales: juguetes personalizados por la empresa Imaginarium; platos de comida originales por la empresa barcelonesa Natural Machines; zapatillas de atletismo para mejorar el rendimiento de los corredores por marcas como Puma, Nike o Adi-
CIENCIA EN ABIERTO - Impresoras 3D, ¿la tercera revolución industrial?
Desafíos de las impresoras 3D Las impresoras 3D deberán hacer frente a una serie de desafíos y dificultades, además del citado precio elevado y su falta de usabilidad para lograr su generalización: Velocidad: El responsable de ‘The Open Shoes’ explica que las actuales tienen unas velocidades máximas “que según para qué usos pueden ser bastante lentas, aunque ya hay en marcha proyectos que prometen solucionarlo.” Conflictos legales y éticos: La posibilidad de replicar cualquier producto aumentará los problemas con la vulneración de patentes o los derechos de autor. Por su parte, como expone5 Eduardo Paz, consultor especializado en marketing y tecnología, abrirá nuevos problemas relacionados con la manipulación del ADN, la clonación humana, o la creación de órganos humanos, e incluso con la posibilidad de hacer drogas de diseño. Además, este experto recuerda el tema de la responsabilidad del fabricante: ¿Quién se hace cargo si por ejemplo falla un casco hecho con una impresora 3D y su usuario se rompe el cuello? Seguridad: En 2013 se creaba en EE.UU. ‘Liberator’, la primera pistola hecha con una impresora 3D a base de plástico. Aunque su fabricación fue más costosa que la de una pistola convencional similar, abrió la polémica de que cualquiera puede hacerse un arma sin necesidad de los necesarios permisos legales. Photobump es un programa informático que permite duplicar cualquier llave a partir de la foto de una cerradura e imprimir una copia para abrirla. Sus autores, los ingenieros Jos Weyers y Christian Holler, pretenden dejar en evidencia que las cerraduras de pistones se han quedado obsoletas. Asimismo, los materiales que entren en contacto con alimentos deberían contar con las mismas garantías de seguridad que los utilizados por la industria alimentaria. Impacto ambiental: Al producir objetos a medida, reducen el impacto ambiental que supone la producción en masa, pero también tienen otros inconvenientes para el medio ambiente, como un alto consumo de energía, la utilización de materiales contaminantes, la generación de residuos, o la dependencia de los plásticos. Por ello ya se habla de buscar nuevos materiales biodegradables o reutilizables y un uso más eficiente de los recursos.
das; joyas con diseños únicos por la neoyorquina American Pearl; miniaturas 3D para la reconstrucción de la escena de un crimen por la policía de Tokio; réplicas exactas de cuadros famosos por la compañía rusa Prixel; vestidos a medida para la actriz y bailarina Dita Von Teese; carcasas para teléfonos móviles por Nokia; auriculares que encajan a la perfección en los oídos por la empresa neoyorquina Normal; el busto del presidente de EE.UU. ,Barack Obama, por un equipo del Instituto Smithsonian; y un etc. que se irá viendo en los próximos años. Como señala Bengoetxea, “acabamos de entrar en un proceso donde las personas fabricarán casi cualquier cosa estén donde estén y cuando lo necesiten. Casi nada.”
Referencias [1] http://www.notimpossiblelabs.com/#!project-daniel/c1imu [2] http://www.economist.com/node/21553017 [3] http://faircompanies.com/news/view/impresoras-3d-10productos-cotidianos-que-pueden-imprimirse/ [4] http://www.rtve.es/noticias/20131019/impresion-3d-metal-prometerevolucionar-forma-se-fabrican-muchas-cosas/769460.shtml [5] http://eduardopaz.com/10-problemas-o-peligros-de-las-impresoras-3d/
19
IVO NV NE IGA CIÓ EST INV
Mehr Licht! Ricardo Díez Muiño. Director del Centro de Física de Materiales CSIC-UPV/EHU y Director del Donostia International Physics Center, Donostia – San Sebastián.
De la misma manera que al entrar en una habitación a oscuras buscamos automáticamente con la mano el interruptor que nos permite iluminar el entorno, muchos físicos recurren de forma casi instintiva a la luz para orientarse en el mundo microscópico y entender cómo funciona la materia en la escala atómica. Este texto hace un breve repaso de la información que podemos adquirir al hacer incidir luz sobre sistemas de muy distinto tamaño y recoger los electrones que son emitidos en procesos de fotoemisión. Cuenta la leyenda que al comienzo de la primavera de 1832, en su último momento de lucidez antes de morir, el escritor alemán Johann Wolfgang von Goethe gritó con voz quejumbrosa “mehr Licht!”, “¡más luz!”. Quizás porque la expresión cuadra perfectamente con el temperamento del romántico Goethe, capaz de vender su alma al diablo, al menos en la ficción, por un amor de juventud, esta frase se ha dado por cierta y ha generado no pocas interpretaciones. La más literaria y humana es que Goethe sentía la sombra oscura de la muerte acercándose y reclamaba, ansioso, un poco más de vida, una prolongación de su tiempo. Una interpretación más prosaica y no sé si más verosímil, es que Goethe simplemente solicitaba a una de sus asistentes que descorriera las cortinas de la ventana que daba al jardín para poder contemplar mejor la luz de la mañana. En cualquier caso, lo que parece muy poco probable es que con sus últimas palabras el bueno de Goethe estuviera reclamando estudios científicos más profundos sobre la naturaleza de la luz. A pesar de lo que pueda parecer, no sería esta nueva explicación de sus últimas palabras una teoría tan descabellada, puesto que en el siglo XIX la separación entre las disciplinas artísticas y científicas era menos acusada que en la actualidad. El propio Goethe era científico además de poeta, estaba en estrecho contacto con investigadores de su época y llegó a publicar incluso un libro de óptica en el que teorizaba sobre el fenómeno del color. A buen seguro que, de encontrarse en una situación vital más sosegada, Goethe hubiera reivindicado con firmeza más avances científicos sobre la luz. El hecho de que sea la primera de las interpretaciones, la literaria, la que más aceptación haya encontrado es debido probablemente al simbolismo que la luz ha tenido siempre para el ser humano. La luz nos saca de la oscuridad, ilumina
Figura 1. Además de sus obras literarias, Johann Wolfgang von Goethe (1749-1832) publicó varios trabajos científicos, entre ellos uno sobre la naturaleza de la luz y el color (Teoría de los colores, 1810).
INVESTIGACIÓN EN VIVO - Mehr Licht!
nuestro mundo y es por tanto ayuda para el conocimiento de nuestro entorno. Ya en la tradición bíblica se dice que Dios vio que la luz era buena y que separó la luz de las tinieblas que cubrían el abismo. Arrojar luz sobre cualquier problema significa descubrir sus recovecos para poder afrontarlo de una manera más eficaz. Es la misma metáfora que llevó a llamar al siglo XVIII, aquel en el que se extendió el uso de la razón y el análisis para mejorar nuestra comprensión del mundo, el Siglo de las Luces.
“La luz nos saca de la oscuridad, ilumina nuestro mundo y es por tanto ayuda para el conocimiento de nuestro entorno” La iluminación de un objeto nos permite por tanto acceder a él en todos sus detalles. Pero hacer incidir luz sobre él puede ser también una forma de transmitirle energía. La luz solar focalizada por una lente es capaz de prender una llama y crear fuego. La energía transportada por la luz puede llegar incluso a romper el objeto, de la misma forma que las pistolas-láser en cualquier película de ciencia-ficción son capaces de agujerear las avanzadas armaduras protectoras de los soldados enemigos. Somos por tanto capaces de recoger información, pero también de modificar y romper cosas con la luz. Vamos a hablar en los párrafos siguientes de luz, del lugar en que se encuentra nuestro conocimiento actual de la luz y de algunos de los papeles protagonistas que ha adquirido en la ciencia actual, en particular cuando actúa en feliz pareja con otro de los grandes nombres de nuestro universo científico, el electrón.
Recordando a los grandes Aunque el progreso en la descripción científica de la naturaleza y efectos de la luz, como en cualquier otro problema científico, esté basado en numerosas contribuciones históricas que incluyen grandes nombres de la física como Newton o Maxwell y que han ido ampliando la frontera de nuestro conocimiento, existe una fecha que podríamos considerar clave en la comprensión actual de la interacción entre luz y materia: 1905, el Annus Mirabilis de Albert Einstein, el año en el que el físico alemán (después suizo y estadounidense) publicó en la entonces prestigiosa revista alemana Annalen der Physik cinco artículos históricos, básicos para el desarrollo de gran parte de la física moderna. Entre estos cinco artículos, hay tan solo uno que el propio Einstein calificó en su momento como ‘revolucionario’, aquel titulado ‘Sobre un punto de vista heurístico concerniente a la producción y transformación de la luz’, en el que proponía la propagación de la luz a partir de la existencia de ‘un número finito de cuantos de energía localizados en puntos del espacio que se mueven sin dividirse y solo pueden ser absorbidos o generados como unidades completas’. El nuevo planteamiento de Einstein suponía cuestionar la validez ilimitada de la teoría de la luz de Maxwell, que se basaba en una distribución continua de la energía del campo electromagnético. Maxwell, por quien Einstein sentía un enorme respeto intelectual, había sido capaz de formalizar matemáticamente gran parte de los avances que en la descripción de la electricidad y magnetismo se habían producido durante el siglo XIX, convirtiéndose en uno de los gigantes históricos de la física. El artículo de Einstein era por tanto una forma de rizar el rizo, de complementar y ampliar los trabajos de Maxwell, que eran ya reconocidos como uno de los grandes hitos en la historia de la física. Unos años más tarde, en 1916, los cuantos de luz de Einstein se transformaron en auténticas partículas cuando él mismo propuso que estos cuantos no solo intercambiaban energía con la materia sino también cantidad de movimiento en una dirección determinada. Desde entonces, hemos aprendido a convivir con la enrevesada naturaleza de la luz, cuya descripción exige en ocasiones considerar que es una onda y en otras que es una partícula. Es la dualidad onda-corpúsculo. Diez años después, en 1926, las partículas de luz recibieron su bautismo y adquirieron el nombre de fotones gracias a un oficiante inesperado, el químico americano Gilbert N. Lewis, uno de los científicos que más veces estuvo cerca de obtener el Premio Nobel (se dice que hasta 35) sin llegar a conseguirlo nunca. Lewis acuñó por primera vez la palabra fotón en una carta a la revista Nature,
aunque su idea sobre las partículas de luz difería ligeramente de la de Einstein. Pero el término fotón pervivió. El artículo de Einstein del año 1905 es la primera descripción teórica del efecto fotoeléctrico en términos de la absorción de fotones. En un proceso fotoeléctrico, un sistema cualquiera absorbe luz y utiliza esta energía absorbida para excitar electrones que pueden ser recogidos en el exterior. Dicho de otra forma, el fotón, la luz, desaparece y, en una especie de sacrificio generoso, su energía sirve para liberar un electrón. El hecho de que la energía aportada por la luz tenga que ser absorbida en forma de paquetes, de cuantos de energía bien definida, y no en la forma continua derivada de las ecuaciones de Maxwell, ha supuesto, como bien planteaba el propio Einstein, una verdadera revolución en la descripción de la interacción entre luz y materia.
Recogiendo electrones El efecto fotoeléctrico o, de otra forma, el proceso de fotoemisión electrónica es la base a partir de la cual se han desarrollado infinidad de técnicas experimentales de caracterización y espectroscopía, tanto de átomos y moléculas en fase gaseosa como de superficies, nanoestructuras y sólidos. En todas estas técnicas, la luz funciona como una sonda, como una herramienta que utilizamos para extraer información, en este caso en forma de electrones, de nuestro sistema. Uno de los aspectos más interesantes de las técnicas de fotoemisión es que, dependiendo de la energía del haz que hacemos incidir sobre la muestra, podemos tener acceso a informaciones muy distintas sobre los sistemas que estudiamos.
“Hemos aprendido a convivir con la enrevesada naturaleza de la luz, cuya descripción exige en ocasiones considerar que es una onda y en otras que es una partícula” Desde un punto de vista general, los electrones que conforman la materia pueden estar muy ligados (necesitamos mucha energía para arrancarlos) o poco ligados (necesitamos menos energía). Son estos últimos, los electrones poco ligados, los denominados de valencia, los electrones relevantes en los procesos
Figura 2. Densidad electrónica inducida en función de la distancia y el tiempo cuando introducimos una partícula cargada en un medio metálico. El apantallamiento se produce en tiempos ultrarrápidos, por debajo del atosegundo [A. Borisov et al. Chem. Phys. Lett. 387 95 (2004);
21
Figura 3. Átomos adsorbidos pueden transferir electrones a la superficie después de ser excitados con luz. [R. Díez Muiño et al. PNAS 108, 971 (2011)]
químicos. Son los que forman los enlaces y por tanto los responsables de que distintos átomos se junten o separen, una especie de ‘pegamento’ de la materia. Para extraer estos electrones de valencia de cualquier material necesitamos luz de frecuencia ultravioleta. Las técnicas de fotoemisión a partir de radiación ultravioleta, por tanto, nos proporcionan acceso a las propiedades electrónicas y químicas de los materiales y, de hecho, han sido la herramienta fundamental para acceder de forma experimental a la distribución periódica de los electrones en los sólidos cristalinos y para verificar la precisión de la descripción de estas propiedades en términos de su estructura de bandas. Distinto es el caso de los electrones más ligados, aquellos que están más cercanos a los núcleos de los átomos y se sienten fuertemente atraídos por la carga de estos últimos. La extracción de estos electrones exige radiación de mayor energía, en la zona de los rayos X del espectro electromagnético. Una de las ventajas de fotoemitir estos electrones es que su energía de ligadura está definida de forma más precisa y es, en general, específica de cada átomo, similar a una huella dactilar. El espectro de fotoemisión por rayos X de un material es así una especie de identificación por huellas dactilares de los materiales, una potente herramienta de análisis químico.
“La aparición de nuevas fuentes láser con pulsos extremadamente cortos nos ha permitido adentrarnos en el mundo ultrarrápido, en la química del femtosegundo y en la física del atosegundo” En general, de la misma forma que en las películas americanas de cine clásico los heroicos protagonistas que se escapan de infernales prisiones encuentran todo tipo de dificultades y peleas antes de llegar a su destino, los electrones fotoemitidos, en su huida hacia el detector experimental que los espera con los brazos abiertos, encuentran otros átomos de material y sufren desvíos y colisiones. Algunos de estos electrones, los menos afortunados, no cumplen su
objetivo final de escapar del sistema pero los más exitosos, los que sí lo consiguen, son testigos valiosísimos, si sabemos preguntarles adecuadamente, de la conformación estructural del lugar del que vienen. La difracción de fotoelectrones y, en particular, de aquellos electrones que provienen de las capas más internas de un material y son excitados con rayos X, es por tanto una excelente herramienta para estudiar las propiedades estructurales de sólidos, superficies y nanoestructuras. El desarrollo de herramientas teóricas basadas en la simulación de las colisiones elásticas experimentadas por los electrones en su salida hacia el vacío partiendo de determinadas geometrías y la comparación de los resultados así obtenidos con la evidencia experimental es una fantástica puerta de acceso a la información estructural. Variar la energía de la luz incidente nos permite por tanto seleccionar el tipo de información que podemos extraer de un determinado sistema. Podemos acceder a sus propiedades electrónicas, químicas o estructurales. Pero las propiedades de coherencia o incoherencia de la luz incidente y la selección de los tiempos en los que enviamos pulsos de luz nos permiten también acceder a información desde un punto de vista totalmente distinto. La aparición de nuevas fuentes láser con pulsos extremadamente cortos y el desarrollo de técnicas experimentales basadas en ellos nos ha permitido adentrarnos en el mundo ultrarrápido, en la química del femtosegundo y en la física del atosegundo. Un femtosegundo es la mil billonésima parte de un segundo y un atosegundo mil veces menos, la trillónesima parte de un segundo. Para hacernos una idea de las dimensiones de las que estamos hablando, en las que es fácil perderse: la proporción entre un atosegundo y diez segundos es aproximadamente la misma que entre diez segundos y la edad del Universo. Entre 1964 y 2001, el año en que se generó el primer pulso laser de duración inferior al femtosegundo, la duración de estos pulsos se ha reducido en tres órdenes de magnitud. Nos hemos garantizado así el acceso a una escala temporal totalmente nueva que estamos comenzando a explorar con un nivel de detalle impensable en el pasado. El salto cualitativo que supone acceder a la escala del atosegundo en el estudio de las propiedades electrónicas es espectacular, parecido al salto que supuso el paso de la fotografía fija al cine. En la actualidad, es posible obtener ‘películas’ de la dinámica molecular con resolución espacial inferior al Angstrom y resolución temporal inferior al femtosegundo.
INVESTIGACIÓN EN VIVO - Mehr Licht!
Figura 4. La variación en las propiedades ópticas de las nanoestructuras dependiendo de su forma, composición, tamaño o estructura puede convertirlas en fantásticos sensores químicos [ver por ejemplo M. Ameen Poyli, J. of Phys. Chem. 3, 2556 (2012)].
La luz no solo nos da una llave de entrada genérica al mundo del atosegundo; en realidad nos abre las puertas a varios submundos distintos, cada uno de ellos con sus peculiaridades propias. La fotoemisión permite avanzar en la comprensión de las propiedades electrónicas y la estructura de bandas de sistemas cristalinos macroscópicos, de superficies, pero también de átomos y moléculas, o de nanoestructuras. Nos permite estudiar el enorme rango de distancias en que se mueve la materia que conforma nuestro mundo, desde la física atómica y molecular hasta la física de materia condensada. Y en muchos de estos casos, además, nos adentra en el universo cuántico, un mundo en el que nuestra intuición macroscópica deja de ser válida y los fenómenos físicos y químicos resultan, cuando menos, sorprendentes. Vamos a proporcionar a continuación algunos ejemplos de ello, haciendo un recorrido progresivo desde sistemas que podemos considerar grandes (sólidos y superficies) hasta aquellos de tamaño inferior (nanopartículas y moléculas).
“En medios metálicos típicos, el apantallamiento se produce en una escala de tiempos inferior al femtosegundo”
Creando cuasipartículas El acceso experimental a tiempos ultracortos en la interacción de luz y materia ha permitido no solamente dar muchas respuestas sino también plantear nuevas preguntas y avanzar en territorios que hasta ahora eran únicamente campo de especulaciones teóricas. Un ejemplo de esta situación es el tiempo que tarda una carga en apantallarse en un medio metálico, uno de los fenómenos más complejos en física de la materia condensada. Cuando una carga eléctrica aparece en un metal, los electrones de este último reaccionan a su presencia modificando su posición, tratando de neutralizar su efecto y haciendo desaparecer el campo eléctrico a largas distancias. Este fenómeno, conocido como apantallamiento, es aún más difícil de describir cuando la carga externa está moviéndose y la densidad electrónica del metal tiene que reacomodarse a
cada instante para contrarrestar a la partícula viajera. La imagen más habitual para visualizar de manera simplificada la dinámica de esta carga y su densidad electrónica de apantallamiento sería la de una lancha motora desplazándose por el agua y creando en su derredor y, principalmente, en su parte posterior, una estela de agua de naturaleza ondulatoria. Un electrón fotoemitido desde un metal es un buen ejemplo de esta situación. El hueco de carga que deja detrás de sí este electrón también acaba apantallándose y este proceso ha de tenerse en cuenta para una interpretación precisa de los resultados experimentales de muchas espectroscopías. En su intento de simplificar la descripción de la carga externa más la nube de densidad electrónica que le acompaña, los físicos de materia condensada agrupan a todo este conjunto y lo tratan como una ‘cuasipartícula’, una entidad distinta. Desde una perspectiva temporal, la pregunta obvia que surge es cuánto tiempo tarda en crearse el apantallamiento dinámico de una carga, es decir, cuál es el tiempo de creación de una cuasipartícula. La respuesta, basada tanto en medidas de la termalización de electrones como en cálculos de primeros principios, es que el apantallamiento y la aparición de efectos colectivos en el sólido no aparecen instantáneamente sino que requieren un tiempo finito para ser creados y que este tiempo depende además de la frecuencia de plasma del medio. En medios metálicos típicos, el apantallamiento se produce en una escala de tiempos inferior al femtosegundo. Es este por tanto un buen ejemplo de los nuevos conceptos que es necesario introducir en la descripción de los fenómenos cuando exploramos territorios cualitativamente nuevos a partir de mejoras técnicas. Hasta hace muy pocos años, podíamos considerar que el apantallamiento de una carga era instantáneo. El acceso experimental a escalas de tiempo inferiores al femtosegundo requiere incluir en la descripción del proceso efectos dinámicos. La evolución temporal, la dinámica en estos intervalos de tiempo, adquiere protagonismo.
Recortando tiempos Cuando contemplamos un objeto, nuestra percepción en realidad se limita a su superficie. Lo que identificamos con la totalidad no es sino una realidad muy parcial. O ni siquiera una realidad, como argüían los filósofos de la Grecia clá-
23
sica, a los que la existencia ontológica o no de superficies resultantes de dividir un cuerpo en dos mitades les provocaba no pocos quebraderos de cabeza. Lo que resulta intrigante es que esta dimensión externa de la materia no es solamente un mero recubrimiento sin relevancia, sino que muchas propiedades físicas y químicas de los objetos dependen o están muy condicionadas por sus propiedades superficiales. Las superficies son sistemas muy complejos, en los que perdemos parte de la simetría que pueda tener el sólido y que están especialmente preparadas para interactuar con el medio externo. Por eso también las superficies pueden ser funcionalizadas, es decir, pueden ser modificadas para cambiar su interacción con el exterior y por tanto su función. No es casual que existan sistemas biológicos, como el cerebro o las hojas de las plantas, cuyo desarrollo evolutivo esté basado en aumentar la proporción entre superficie y volumen. No es sino una forma de aumentar la funcionalidad, la actividad neuronal en el caso del cerebro o la actividad fotosintética en el caso de las hojas.
“Sabemos más sobre los acoplamientos entre el movimiento de los núcleos de los adsorbatos y el movimiento de los electrones y somos capaces incluso de conocer cuál es el tiempo que tarda un electrón en ser transferido, en ‘saltar’ desde un átomo adsorbido en la superficie hasta esta última”
las técnicas basadas en la fotoemisión o la fotoabsorción, jugó también un papel crucial en este desarrollo, convirtiéndose en el medio principal para obtener información sobre las propiedades electrónicas de las superficies. Cincuenta años más tarde, la ciencia de superficies se enfrenta a nuevas fronteras. Una de las más importantes es la descripción cuantitativa de la dinámica electrónica en superficies. La fotoexcitación de los electrones presentes en la superficie o en átomos y moléculas adsorbidos en superficies es una herramienta valiosísima para controlar, inducir o monitorizar procesos físico-químicos. Es la base de la fotoquímica o fotofísica en superficies. Y, una vez más, una de las claves está en los distintos ritmos o velocidades con los que se producen estos procesos y en la competencia temporal entre ellos, como si de una competición atlética se tratara. Son distintas las técnicas experimentales que se utilizan para medir tiempos mediante luz, pero una de las más sofisticadas en el caso de superficies es la fotoemisión de dos fotones, en la que se envía un primer pulso láser para excitar la muestra, para inducir un cierto proceso electrónico, y poco después un segundo pulso láser, con un retraso temporal perfectamente determinado, para comprobar el estado del sistema excitado. Gracias a estas técnicas o a variaciones sobre ellas y a los avances en paralelo en la descripción teórica de la dinámica electrónica, basados fundamentalmente en cálculos numéricos de primeros principios, conocemos ahora los tiempos de vida de los electrones excitados en superficies, sabemos más sobre los acoplamientos entre el movimiento de los núcleos de los adsorbatos y el movimiento de los electrones y somos capaces incluso de conocer cuál es el tiempo que tarda un electrón en ser transferido, en ‘saltar’ desde un átomo adsorbido en la superficie hasta esta última. Son unos cientos de atosegundos, de nuevo una escala temporal inaccesible hasta hace muy poco tiempo. Estos tiempos son distintos además en función de la relación entre la magnetización de la superficie y el espín del electrón que salta. No menos importantes son los trabajos que se centran en estudiar la diferencia en los tiempos de fotoemisión entre electrones provenientes de estados muy ligados o de valencia en una superficie metálica, es decir, en ‘cronometrar’ en tiempos de atosegundos la carrera entre dos electrones que escapan de una superficie.
Diseñando nanoestructuras En los últimos quince años, ha aumentado exponencialmente el interés por los sistemas de tamaño nanométrico. Las nanopartículas, los agregados, los sistemas de baja dimensionalidad en que los electrones están confinados en al menos una de las dimensiones del espacio, todos ellos se han convertido en las estrellas de muchos centros de investigación, además de aparecer de forma recurrente en medios de comunicación especializados y, de vez en cuando, incluso en los generalistas. En el mundo de la física, quizás el grafeno, representante señero de la nanociencia, sea el único nombre que pueda competir con el bosón de Higgs como protagonista mediático. Figura 5. La luz permite emitir electrones desde moléculas diatómicas creando patrones de interferencia que nos proporcionan información muy precisa sobre su estructura electrónica [(D. Akoury et al., Science 318, 949 (2007)]. IIustración de Till Jahnke, Goethe Universität de Frankfurt, Alemania.
A finales de la década de 1960, el estudio de la ciencia de superficies se vio fuertemente impulsado por la confluencia de varios factores. El desarrollo de las técnicas de ultra alto vacío y la mayor facilidad a la hora de conseguir muestras de superficies cristalinas permitieron un mayor control sobre las propiedades físico-químicas y las condiciones de conservación de los sistemas estudiados. Por otra parte, desarrollos metodológicos relacionados con la teoría de muchos cuerpos y, en particular, con la difracción de electrones ayudaron al desarrollo e interpretación de los resultados de nuevas técnicas experimentales (Low Energy Electron Diffraction, LEED, por ejemplo), idóneas para este campo. El resultado de todo esto fue una auténtica explosión de actividad y generación de conocimiento en relación con las superficies de los materiales. La luz, o, de otra forma,
“Estamos utilizando la luz para analizar el interior de los átomos, para aprender sobre el movimiento de sus electrones con resolución subatómica” Uno de los motivos principales por los que los sistemas de tamaño nanométrico han despertado este merecido interés es porque pueden considerarse como un verdadero cruce de caminos. Las nanoestructuras están a medias entre la física molecular y la física de estado sólido, compartiendo algunos conceptos y metodologías con esta pero otros en cambio con aquella. Los sistemas de tamaño nanométrico son así referencias ideales para estudiar cómo emergen propiedades típicas del estado sólido en función del tamaño del sistema. Las nanopartículas están también a medio camino entre la física y la química e incluso la biología. Este carácter multidisciplinar de la nanociencia es uno de sus mayores atractivos desde el punto de vista de la investigación básica, pero no hay que olvidar que es su inmenso potencial tecnológico el que ha contribuido
INVESTIGACIÓN EN VIVO - Mehr Licht!
igualmente a su actual desarrollo como disciplina. La variación de las propiedades electrónicas y ópticas de las nanoestructuras con su tamaño permite, en principio, controlar y ajustar estas propiedades externamente. Modificar el tamaño de una nanoestructura es así una manera de diseñar sus propiedades, como si de trajes a medida se trataran. La interacción de luz con nanopartículas es uno de los campos más activos de la nanociencia y ha dado lugar a una actividad brillante, nunca mejor dicho, en los campos de la nanofotónica y la nanoplasmónica. Hay muchos textos, probablemente más amenos que este, incluyendo algunos en esta misma revista, en los que se repasa la espectacular actividad en estos campos, así que me limitaré a señalar aquí que las excitaciones plasmónicas generadas por la luz en las nanopartículas metálicas producen señales tan intensas y dependientes de las propiedades específicas de los sistemas, incluyendo su forma y tamaño, que las convierten en ideales para ser utilizadas como marcadores en técnicas de diagnóstico médico o como sensores en la detección de distintos componentes químicos, entre otras muchas aplicaciones.
“Es posible acceder experimentalmente ahora mismo a la escala de tiempo durante la cual se produce una reacción química o se emite un electrón fotoexcitado en una superficie, una nanoestructura o una molécula” Pero además de excitaciones colectivas o plasmones, la incidencia de luz sobre nanopartículas también puede crear excitaciones electrónicas del tipo par electrón-hueco. El estudio del decaimiento o termalización de estas excitaciones en función del tamaño de la nanopartícula es extremadamente útil para entender el papel de efectos como el apantallamiento o la densidad de estados en las colisiones entre electrones, que nos permitan optimizar su uso en el campo de la fotoquímica. Estudios desde primeros principios y medidas de termalización en nanopartículas metálicas muestran que los tiempos de vida de las excitaciones electrónicas son fuertemente dependientes de la localización espacial de las excitaciones y que hay que alcanzar tamaños relativamente grandes para recuperar el comportamiento que se encuentra en el estado sólido.
Rompiendo ladrillos En este recorrido hacia sistemas cada vez más pequeños, llegamos por fin a los ladrillos a partir de los cuáles construimos la materia, a los átomos y moléculas. La luz, cómo no, ha jugado un papel crucial en los avances de la física atómica y molecular, particularmente en las dos últimas décadas. El estudio de los procesos de fotoemisión en moléculas en fase gaseosa ha dado un salto cualitativo en los últimos años gracias a la medición de espectros de moléculas orientadas en el espacio y no promediadas sobre ángulos, como era habitual en el pasado. Esto es tanto como pasar de una perspectiva plana, unidimensional, a una perspectiva completa, multidimensional. Y gran parte de este adelanto se debe a una inteligente utilización del proceso de fotofragmentación molecular. Técnicas experimentales basadas en la medida en coincidencia temporal de la energía y dirección de cada uno de los constituyentes de una molécula, después de disociarla mediante una excitación electrónica inducida con luz, nos permiten obtener información precisa y preciosa sobre las especiales relaciones de interdependencia que existían entre estos constituyentes antes de la fragmentación. La utilización de este tipo de técnicas combinada con la modelización teórica de estos procesos ha llevado por ejemplo a estudiar de forma detallada la fragmentación total mediante luz de moléculas de hidrógeno y deuterio en sus elementos constituyentes (dos iones positivos más dos electrones) o los efectos de interferencia en la fotoemisión de dos electrones en moléculas de hidrógeno, en un proceso similar al que se produce en el experimento de las rendijas de Young, uno de los diez experimentos más bellos en la historia de la física según
la revista Physics Today. En el caso de la molécula de hidrógeno, son los dos protones de la molécula los que juegan el papel de dos ‘agujeros’ emisores de electrones, solo que separados por una distancia extremadamente pequeña, muy inferior al nanómetro. En su viaje hacia el detector, cada uno de estos dos electrones presenta un patrón de interferencia como si se tratara de una onda y no de una partícula y hubiera sido emitido desde los dos centros al mismo tiempo. Por otra parte y como hemos mencionado anteriormente, el cambio de milenio vino acompañado de la aparición de intensos pulsos de luz ultracortos, de tan solo unos pocos ciclos de duración, y que dieron lugar a la apertura de un campo nuevo, la física del atosegundo. Los primeros blancos a los que se dirigieron estas nuevas armas investigadoras fueron átomos y moléculas y su primer objetivo fue diseccionar la dinámica electrónica en estos sistemas. En ocasiones, los avances de la ciencia no nos permiten un momento de reposo, detenernos y pensar sobre lo conseguido en perspectiva. En casos como este, merece la pena hacerlo: estamos utilizando la luz para analizar el interior de los átomos, para aprender sobre el movimiento de sus electrones con resolución subatómica.
Iluminando el futuro Gracias en parte al desarrollo de sofisticadas técnicas experimentales, muchas de ellas basadas en fuentes de luz láser, hemos conseguido avanzar espectacularmente en la comprensión de la dinámica electrónica en regiones de tamaño muy pequeño, de orden inferior a la nanoescala. Hasta hace muy poco, estas técnicas eran incapaces de obtener resoluciones temporales inferiores al femtosegundo, lo que nos impedía por ejemplo observar la dinámica electrónica en el tiempo en que se producen las reacciones químicas. La obtención de pulsos láser ultracortos ha cambiado radicalmente esta situación y ha permitido acceder al estudio de la dinámica electrónica que se produce en escalas de tiempo del femtosegundo o incluso del atosegundo. Por tanto, es posible acceder experimentalmente ahora mismo a la escala de tiempo durante la cual se produce una reacción química o se emite un electrón fotoexcitado en una superficie, una nanoestructura o una molécula. De forma atrevida y provocadora podríamos decir que todo es química, que la química es la base de la vida y de la naturaleza. En última instancia, todas las reacciones químicas están controladas por los electrones. Entender por tanto las reglas que rigen el movimiento de los electrones y los tiempos en que se producen estos movimientos (es decir, la dinámica electrónica), es avanzar un paso más en la comprensión de nuestro mundo. La mejora, gracias a nuevas técnicas basadas en la excitación con fotones, de la resolución temporal en el estudio de la dinámica electrónica está llevando al electrón a transformarse, a pasar de ser una celebridad en el campo de la fotografía a una auténtica estrella cinematográfica. No es de extrañar por ello que el número de grupos, centros de investigación y grandes instalaciones dedicados al estudio de la interacción entre luz y materia sea enorme y siga creciendo. La reciente inauguración del sincrotrón ALBA en Barcelona o la apertura prevista en Europa y Estados Unidos de nuevas instalaciones basadas en los láseres de electrones libres (FEL, por sus siglas en inglés) son buenos ejemplos de ello. En ocasiones se especula con que, así como el siglo XX ha sido el siglo de los electrones, el XXI pueda ser el siglo de los fotones. Independientemente de que esta excesiva simplificación sea cierta o no, lo que sí parece muy probable es que la luz va a estar muy presente en gran parte de los desarrollos científicos tecnológicos de los próximos años. Retomando el simbolismo de la luz como distintivo de conocimiento y belleza, podemos arriesgarnos a predecir que la ciencia del siglo XXI va a ser extremadamente hermosa, entre otras cosas porque estará llena de luz y porque esta ampliará majestuosamente nuestro conocimiento de la materia. La luz, por tanto, sigue y seguirá cumpliendo este objetivo de rescatarnos de las sombras de nuestra ignorancia e iluminar el mundo que nos rodea para su mejor comprensión. Solo tenemos que poner los medios necesarios, como sociedad convencida de que el avance en el conocimiento científico es una de las bases principales del progreso social, económico y ético, para que el futuro nos traiga mehr Licht, mucha, pero que mucha más luz.
25
IVO NV NE IGA CIÓ EST INV
Nanoóptica: controlando la luz en la nanoescala Javier Aizpurua, Rubén Esteban, Pablo Alonso-González y Rainer Hillenbrand.
La localización de la luz en diversas nanoestructuras ha permitido superar los límites de la óptica convencional, posibilitando un control sin precedentes de diversos procesos optoelectrónicos. La comprensión de la interacción entre la luz y la materia en la nanoescala sienta las bases de la generación, control, y manipulación de haces de luz en espacios ínfimos, abriendo un nuevo abanico de posibilidades tecnológicas. Entre otras, la nanoóptica permite obtener imagenes nanoscópicas de nanopartículas y sustancias biológicas, transmitir señal óptica de alta densidad en dispositivos, realizar termoterapia contra células cancerígenas o mejorar las prestaciones de células solares.
La luz ha sido un elemento fundamental en nuestra civilización desde tiempos inmemoriales. Por ello, 2015 ha sido reconocido como “año internacional de la luz” por las Naciones Unidas para poner de relevancia la importancia cultural, social, y tecnológica de la luz en nuestra sociedad actual. Asociada al ámbito de lo místico desde las culturas más antiguas, se la relacionaba con los ciclos de la vida, el bienestar, e incluso con la transcendencia de lo divino. Sin embargo, no es hasta hace unos pocos siglos, que el hombre comienza a comprender la naturaleza de la luz y a utilizarla. La luz tiene multitud de implicaciones en nuestra vida cotidiana, ya que establece una de las pautas más importantes en nuestra
Javier Aizpurua, es Profesor de Investigación en el Centro de Física de Materiales (CFM), Centro mixto CSIC-UPV/ EHU, y asociado al Donostia International Physics Center (DIPC), donde es responsable del grupo de Teoría de Nanofotónica. Rubén Esteban, es Fellow Gipuzkoa en el Donostia International Physics Center (DIPC).
relación con el mundo exterior, por medio de nuestros sensores biológicos en la retina. Sin embargo, más allá de esta necesidad biológica humana para relacionarse, la luz también aporta una dimensión tecnológica fundamental ya que constituye un medio de propagación de información (paquetes de luz) rápido, limpio, y muy manejable, así como una herramienta muy valiosa para sondear las propiedades de la materia. Diferentes grupos de investigación en el País Vasco contribuyen actualmente al esfuerzo de generar, controlar y manipular la luz en dimensiones extremadamente pequeñas, del orden del nanómetro, en lo que se denomina genéricamente nanoóptica. El campo de la nanoóptica o
Pablo Alonso-González, es investigador post-doctoral del grupo de Nanoóptica del CIC nanoGUNE. Rainer Hillenbrand, es Profesor de Investigacion Ikerbasque en nanoGUNE, donde lidera el grupo de Nanoóptica, y Joint Professor en la UPV/EHU.
INVESTIGACIÓN EN VIVO - Nanoóptica: Controlando la luz en la nanoescala
nanofotónica está experimentando un enorme desarrollo debido a los avances tecnológicos que ofrece en ámbitos tan dispares como la microscopía, la bioquímica, las ciencias de materiales, la medicina, la fotovoltaica, o la ingeniería de telecomunicaciones, entre otros. Un avance fundamental para entender los secretos de la naturaleza de la luz ocurre en el año 1865, cuando J. Clerk Maxwell postula las ecuaciones de los campos electromagnéticos que llevan su nombre y ponen de manifiesto la naturaleza ondulatoria de la luz. De acuerdo con estas ecuaciones, la luz está constituida por una evolución espacial y temporal de campos eléctricos y magnéticos que se retroalimentan en su propagación. Como toda onda, la luz puede ser caracterizada por una magnitud característica denominada longitud de onda, λ, que da cuenta de la distancia entre dos crestas sucesivas. La longitud de onda de la luz que perciben los sensores en nuestra retina abarca un rango entre los 400 nanómetros y los 750 nanómetros (1 nanómetro=10-9 metros), y está asociada a los distintos colores que distinguimos: el rojo hacia los 750 nm y el violeta hacia los 400 nm. La luz presenta una longitud de onda mucho más pequeña que otras ondas habituales tales como olas u ondas de presión que dan lugar a los sonidos. Otras ondas electromagnéticas que presentan mayor o menor longitud de onda que la luz visible corresponden a luz infrarroja y ultravioleta respectivamente, y pueden ser detectadas por diversos dispositivos tecnológicos. Otro rasgo notorio de la luz es su velocidad de propagación, que es de unos 300.000 Km/s en el vacío, la velocidad más rápida posible para la transferencia de energía y de información.
“La óptica no ha escapado a las grandes oportunidades que le ha brindado la nanotecnología y se ha beneficiado enormemente de ellas”
componentes micrométricos de células y estructuras materiales. Sin embargo, a finales del siglo XX, y de manera más intensa durante el comienzo del siglo XXI, la nanotecnología ha conseguido desarrollar métodos de fabricación que permiten obtener estructuras de tamaño nanométrico que abren nuevas posibilidades en multitud de campos de interés tecnológico. La óptica no ha escapado a las grandes oportunidades que le ha brindado la nanotecnología y se ha beneficiado enormemente de ellas. La fabricación de estructuras de unos pocos nanómetros permiten localizar la luz por debajo del límite de difracción. Esta localización especial se consigue gracias al papel que juegan los electrones de las nanoestructuras que intercambian energía con la luz incidente. Los metales como el oro o la plata ofrecen una de las posibilidades más interesantes para obtener una localización de luz por debajo de la longitud de onda, gracias al mecanismo de acoplo de luz con los electrones libres de los metales, que tienen la capacidad de oscilar colectivamente cuando son excitados por luz, creando una excitación denominada plasmón de superficie. Durante un tiempo extremadamente breve, de unos pocos femtosegundos (10-15 segundos), la energía de la luz queda atrapada en la nanoescala, como “contenida” en la nanopartícula en forma de pseudo-luz. Pasados unos pocos ciclos ópticos, ésta se convierte en otra forma de energía (calor) o se reemite de nuevo como luz al vacío, de donde venía. De manera más específica, cuando las excitaciones de los electrones se producen en una nanoestructura metálica, las oscilaciones de la densidad de carga se localizan en la interfase de las nanoestructuras, creando plasmones de superficie. Los plasmones de superficie se pueden entender como una oscilación de una “sopa” de electrones sobre el fondo formado por los núcleos de los átomos, a modo de olas en el agua. En superficies metálicas de gran extensión, los plasmones se propagan a lo largo de éstas, de manera similar a como lo hacen las olas sobre el mar, pero en este caso en la nanoescala. También es posible atrapar la oscilación de los electrones (plasmón) en partículas metálicas, que pueden ser mucho más pequeñas que la longitud de onda de la luz que las ha excitado. El proceso de excitación de un plasmón en una nanopartícula y, por
La tecnología asociada al control de la luz ha sufrido un desarrollo paralelo al de la comprensión de su naturaleza. La utilización de lentes para aumentar el tamaño de un objeto ha sido desarrollada desde la edad media. Sin embargo, estas lentes sufren importantes limitaciones para manipular y focalizar la luz que las atraviesa debido a una propiedad fundamental: como cualquier otra onda, la luz sufre un fenómeno físico denominado difracción, que hace que ésta se desvíe al chocar contra un objeto, como por ejemplo una esquina, una apertura, o una guía de ondas. El fenómeno de difracción de una onda puede ser visualizado fácilmente en la propagación de una ola al incidir sobre una esquina o contra un objeto, los cuales producen nuevos frentes de olas y desviaciones de la dirección de propagación de la ola original, en forma de nuevas olas que se propagan en múltiples direcciones. De la misma manera, la difracción también impide utilizar lentes para localizar la luz a distancias mucho más pequeñas que la mitad de la separación entre dos crestas de la onda (la mitad de la longitud de onda; ≈λ/2), imponiendo el denominado límite de difracción, tal y como se aprecia en la Figura 1(a). En otras palabras, la luz no se deja “atrapar” fácilmente, sino que escapa y rebota cuando se la intenta “cazar”. Este comportamiento supone un obstáculo para poder acceder con luz a objetos menores que la longitud de onda utilizada, y por tanto, impone un límite a la resolución óptica. En 1873, Ernst Abbe desarrolló su teoría de los límites de la resolución de los microscopios y estableció que el tamaño que podían resolver los mismos, D, venía dado por la fórmula D=λ/(2nsinα), donde λ es la longitud de onda de la luz, n el índice de refracción del medio, y α es el ángulo de semi-apertura del objetivo del microscopio. En la práctica, el límite de difracción hace que no se puedan diferenciar los detalles de objetos menores que aproximadamente la mitad de la longitud de onda mediante óptica convencional. En el caso de la luz, la resolución se limita, por tanto, a unos pocos cientos de nanómetros, es decir, algo menos de un micrómetro. Durante más de un siglo, las limitaciones impuestas por la difracción han supuesto una barrera para el desarrollo de diferentes tecnologías ópticas. Por ejemplo, la señal óptica ha sido transportada en guías de fibra de dimensiones de micrómetros, y los microscopios ópticos sólo conseguían acceder a los
Figura 1. (a) Localización de la luz mediante óptica convencional: una lente focaliza un haz de luz en dimensiones (D) de la mitad de la longitud de onda λ. (b) Localización de la luz por debajo del límite de difracción en nanoóptica gracias a la acción de una nanopartícula metálica de tamaño mucho menor que la longitud de onda (D