Las Celdas Fotovoltaicas - fismat uia

URL: https://themultidisciplinarian. com/2012/08/07/the-worst-enemy-of- science/. From the world of science to the world of research?; Latour, Bruno; Fecha de.
12MB Größe 13 Downloads 109 vistas
CARTA EDITORIAL Dr. Alfredo Sandoval Villalbazo Probablemente el problema más apremiante que afecta a la vida en la Tierra es la crisis ambiental producto de la acción del ser humano sobre su entorno. En este contexto, varias colaboraciones recibidas para el ejemplar número 3 de “el gato en la caja” corresponden a temas relacionados con la generación de soluciones a través de diferentes enfoques. El artículo “Las celdas fotovoltaicas”, incluido en la sección Integral, contiene una descripción básica de los principios físicos que posibilitan la generación de energía eléctrica a través de la luz del Sol. Este tipo de tecnología se encuentra en auge en países como Alemania, en dónde la producción de electricidad por este medio ha aumentado en un factor de mil en los últimos 16 años. La energía solar es completamente amigable con el medio ambiente y tendrá un carácter estratégico durante las siguientes décadas. La comprensión de los fenómenos físicos que hacen posible el desarrollo de tecnología verde inevitablemente requiere la construcción de modelos matemáticos que permitan representar situaciones concretas. La nueva sección de “el gato en la caja”, que hemos llamado ¡uy que miedo! tiene la intención de provocar ideas en el lector relacionadas con el temor que la ciencia llega a producir en función de sus métodos e implicaciones prácticas. En dicha sección se abordan ejemplos específicos de avances tecnológicos que han llegado a crear recelo, como la posibilidad del uso de automóviles autónomos, capaces de transportarnos a grandes distancias sin intervención humana. La sección también analiza las causas de la constante antipatía hacia las matemáticas existente en diversos niveles educativos, así como reflexiones generales sobre la interacción entre ciencia y sociedad. La principal fortaleza de “el gato en la caja” es su identidad como medio de difusión científica a través del uso del recurso de la escritura realizada por jóvenes. Los recursos empleados por los autores abarcan desde sólidas descripciones producto del estudio sistemático, hasta el uso de ideas imaginativas relacionadas con futuros distantes y fantásticos en los cuales el carácter humanista prevalece ante los retos planteados por una realidad compleja. En este entorno, el equipo de “el gato en la caja” espera que este ejemplar número 3 cumpla con las expectativas de nuestros lectores.

3

CONSEJO EDITORIAL RECTOR Mtro. David Fernández Dávalos, S.J. Responsable Editorial Dr. Alfredo Sandoval Villalbazo Consejo editorial Mtra. Teresita Gómez Fernández Humberto Mondragón Dr. Alejandro Garciadiego Dantán Mariana Osorio Asistente editorial María Clementina Castro Vallejo Diseño Daniela López Gutiérrez Asesora de Diseño Editorial Dra. Ivonne Lonna Olvera Logotipo Maricarmen Quintero Flores En este número también colaboran: Guillermo Nava Mariana Osorio Humberto Mondragón Alma Sagaceta Francisco González Miguel Morales Daniel Rocha Paloma Vilchis Alain Chavarri Ariela Strimling Ezequiel Nieva 4

El gato en la caja es una publicación semestral de la Universidad Iberoamericana, A. C. , Ciudad de México, Prol. Paseo de la Reforma 880, Col. Lomas de Santa Fe. C. P. 01219, Ciudad de México. Tel. 59 50 40 71. www.uia.mx, Editor Responsable: Alfredo Sandoval Villalbazo. No. de Certificado de Reserva al Uso Exclusivo otorgado por la Dirección de Reservas de Derechos por la Secretaría de Cultura: 042016- 021715592700-102. Certificado de Licitud de Título, Certificado de licitud de contenido: En Trámite. Domicilio de la publicación: Departamento de Física y Matemáticas, Universidad Iberoamericana, A. C. , Ciudad de México, Prol. Paseo de la Reforma 880, Col. Lomas de Santa Fe. C. P. 01219, Ciudad de México. Tel. 59 50 40 71. Impresión: Sandoval Impresores, Tizapan 172 Int. Local 1, México, Col. Metropolitana 3a. Sección, Nezahualcóyotl, México, C.P. 57750. Distribución: Universidad Iberoamericana, A. C. , Ciudad de México, Prol. Paseo de la Reforma 880, Col. Lomas de Santa Fe. C. P. 01219, Ciudad de México. Tel. 59 50 40 71. Se prohíbe la reproducción de los artículos sin consentimiento del editor. El gato en la caja No. 3, se terminó de imprimir el mes de diciembre de 2016 con un tiraje de 50 ejemplares.

ÍNDICE Experimento de doble rendija

6

Las celdas fotovoltaicas

10

Espintrónica: un nuevo giro en la electrónica contemporánea

11

Mecánica celeste: Coreografías

13

Órganos en un chip

15

Abandonando el método Científico

16

El logaritmo y sus maravillosas propiedades

21

Apología matemática

25

El miedo a la ciencia

28

Coches autónomos y controversias éticas

30

ATRÉVETE

Atrévete

34

SUMÉRGETE

Sumérgete

35

INTEGRAL

DERIVADA

¡UY QUÉ MIEDO!

5

E

INTEGRAL

xperimento de doble rendija

Ariela Strimling Mariana Osorio

Desde siempre en la física se había buscado conocer con altos grados de exactitud los fenómenos que nos rodean, solo así podíamos predecir de manera exacta el qué, cómo y cuándo de los eventos futuros. Por esto la ciencia estaba sólidamente fundada en dos conceptos: la causalidad y el determinismo. Número anterior de El Gato en la Caja(2 que no nos extenderemos de nuevo en él, pero para aquellos que se lo perdieron), la causalidad es la “conexión y la acción recíproca existente entre todos y cada uno de los procesos del universo” (De Gortari 1), un concepto que se puede entender de maravilla a través de la mecánica newtoniana, específicamente con la tercera ley de Newton: a cada acción corresponde una reacción. De esta forma todos los procesos del universo se conectan y tienen su porqué. Por otro lado, el determinismo formula que cuando se conocen: las condiciones de un sistema en un instante cualquiera con alta precisión, y las leyes que gobiernan su comportamiento es posible prever lo que va a suceder en el futuro con este sistema. Estos conceptos sufrieron un gran quebrantamiento cuando la física

cuántica llegó al panorama de la ciencia. Ésta trajo conceptos como la dualidad onda-partícula, el rol del observador en los procesos que toman parte en el universo y el Principio de Incertidumbre, que hicieron pedazos el determinismo y la causalidad de la física clásica. Nos llevaron a una era en donde los resultados ¡no son exactos!, sino distribuciones de probabilidad, y ya no es posible conocer todas las variables de un sistema para poder predecir su futuro comportamiento. Todo esto se ve grandiosamente ejemplificado en uno de los experimentos más importantes que se han visto en la ciencia, el experimento de Young, o experimento de la doble rendija, que fue realizado en 1801 por Thomas Young en un intento de descubrir la naturaleza corpuscular u ondulatoria de la luz.

El experimento Para explicar claramente el experimento se utilizará un “experimento pensado” por Richard Feynman para electrones. Pero para llegar a esto primero se presentará el comportamiento de objetos naturales para todos: pelotas y ondas de agua. Cuando contamos con pelotas que son lanzadas con cierta apertura angular a una pared con dos aberturas lo suficientemente grandes para dejar pasar una pelota, y las pelotas se absorben en una segunda pared atrás, ¿qué vamos a ver en la pared donde se absorben las pelotas? Fácil, dos franjas verticales, que corresponden a las pelotas que lograron atravesar las aperturas de la primera pared y chocaron con la segunda.

6

INTEGRAL

Y si se saca una distribución de probabilidad (esta probabilidad dicta La distribución de probabilidad de dónde es más probable que la pelota caiga en la pared) para las pelotas, por las ranuras por separado se ve de la siguiente forma: separado, se vería así:

Sin embargo, se puede observar claramente que al unir las distribuciones de probabilidad de ambas ranuras, la distribución definitivamente no es la suma: Y la distribución de probabilidad para ambas ranuras será igual a la suma de la distribución de la primera franja más la segunda.

Ahora hagamos un experimento similar pero en lugar de pelotas tenemos una fuente que produce ondas circulares de agua. Una vez que las ondas atraviesen ambas ranuras y lleguen a la segunda pared, donde son absorbidas, ¿cómo se verá la pared, dónde impactarán las ondas? En este caso encontramos una sucesión de franjas verticales de intensidad, que se traduce en un patrón de interferencia. Esto significa que en ciertos puntos del espacio, cuando las ondas están en fase, estás se ven con mayor amplitud que la original (hay interferencia constructiva, la amplitud es la suma de ambas), y en otros, cuando están a desfase, las ondas se hacen pequeñas y se llegan a cancelar (hay interferencia destructiva, y la amplitud es la diferencia de ambas), terminando con un patrón de ondas así:

7

Esto se explica porque existe interferencia entre ambas ondas. De hecho, este experimento simple se utilizó mucho antes del experimento de Young para comprobar que la luz se comportaba como onda. Ya que al hacer pasar rayos de luz por 2 ranuras muy pequeñas se encontró un patrón de interferencia. Al hacer el experimento con electrones, los resultados se colocan en un espacio mucho más extraordinario. En la siguiente imagen vemos el diagrama del experimento, una pistola de electrones, una pared con dos rendijas y la última pared donde los electrones son absorbidos.

INTEGRAL Lo raro de este experimento, es que a pesar de que los electrones son partículas, o pelotas muy pequeñas para fines prácticos, la distribución de probabilidad de ambas rendijas ¡no es la suma! ¡En esta encontramos interferencia! Así se ven las distribuciones de probabilidad:

Pero entonces nos preguntamos, ¿cómo logra el electrón hacer un patrón de interferencia? Esto significaría que el electrón puede pasar por ambas rendijas a la vez, y las pelotas, por más pequeñas que sean, definitivamente no pueden dividirse y pasar por dos ranuras a la vez y formar un patrón de este estilo. Esto es propiedad sola y única de las ondas, y ¡nunca le pasa a las partículas! Pero en el experimento claramente se ve la intensidad de una onda en la pared que absorbe a los electrones. Por lo que un electrón, paradójicamente, se comporta tanto como onda como partícula. Las conclusiones se vuelven aun más sorprendentes cuando se intenta el mismo experimento, pero en este se observa a los electrones, ¿cómo?, agregando una fuerte fuente de luz entre las rendijas (las cargas eléctricas dispersan la luz, por lo que cuando un electrón pasa, se puede observar). Al hacer esto

se comprueba que los electrones pasan por la rendija 1 o por la rendija 2, nunca por ambas. Igual que tu pelota cualquiera. Sin embargo al ver la pared en este experimento, ¡vemos las dos franjas de las pelotas! Si analizamos las gráficas de probabilidad de ambas rendijas, la distribución

a la que se llega es la suma de las rendijas por separado ¡Por lo que en este caso no hay interferencia! ¡Ahora el electrón si es partícula! Al bajar la intensidad de la luz para descubrir cual era el resultado en este caso, se encuentra algo todavía más sorpresivo, ¡la luz también tiene esa dualidad onda-partícula! Esto lo sabemos porque al disminuir la intensidad podemos ver menos electrones, lo que no haría sentido si la luz siempre se comportara como onda, pues entonces, aunque la luz fuera tenue sería un continuo de ondas que detectarían a los electrones. Esto solo deja la posibilidad de que la luz de baja intensidad solo significa menos partículas, o fotones, por unidad de tiempo. Y si hay menos fotones interactuando

8

INTEGRAL

CONCLUSIÓN

con electrones, pues vemos menos electrones. Por lo que los electrones que “vemos” se comportan como partícula, y los que “no vemos” se comportan como onda. (Feynman, Leighton, & Sands) Al ver este experimento se llega a comprender por qué Feynman decía que este es “[...] un fenómeno que es imposible, absolutamente imposible, de explicar de cualquier manera clásica, y que tiene en él el corazón de la mecánica cuántica. En realidad, contiene el único misterio.” (Feynman). Este rompe el gran paradigma de la causalidad pues se llega a comprender una situación de dualidad en todos los fenómenos cuánticos, y el observador llega a tal grado de complicidad con los sistemas que se rompe la conexión entre las acciones del universo, pues la reacción ahora corresponde más a la medición y al observador y no tanto a la acción. El paradigma del determinismo también se quebranta al dejar las soluciones exactas e intercambiarlas por distribuciones de probabilidad para las respuestas a nuestras preguntas, y de acuerdo con el Principio de Incertidumbre, al que se llega gracias al experimento de Young, es imposible conocer el momento y la posición de una partícula al mismo tiempo, por lo que aunque sepamos las leyes de la física, nunca podremos predecir el todo del sistema. Y aparte de romper dos de los más grandes pilares de la física clásica, este experimento desafía por completo la comprensión de todos los objetos que nos rodean, pues lo que conocíamos como una cosa, ahora y para siempre se vuelve dos. Porque ni el electrón, ni tú, ni yo somos solo partículas, también somos ondas. Y la luz que siempre había sido onda ahora también es partícula. Y esta dualidad ahora se adueña de todos los objetos que conocemos, pues ya no se puede ser uno sin ser el otro. Por lo que Feynman tenía razón, este experimento contiene el único misterio.

9

INTEGRAL

Las Celdas Fotovoltaicas Miguel Antonio Morales Daniel Rocha

Las celdas fotovoltaicas, mejor conocidas en agrupación como paneles solares, se encuentran en todos lados el día de hoy: desde calculadoras de precios accesibles hasta en los satélites que orbitan nuestro planeta. Aunque en el presente parece muy convencional el pensamiento que con la luz solar podemos conseguir energía eléctrica, a principios del siglo pasado esto era algo que causaba mucho conflicto a los físicos y no es hasta que Albert Einstein pudo explicar dicho fenómeno (con la explicación del efecto fotoeléctrico) que esta tecnología empezó a verse como algo posible. Pero, ¿qué es una celda fotovoltaica? Las celdas fotovoltaicas son celdas que convierten la energía proveniente de sol en energía eléctrica. Estas celdas están formadas normalmente por silicio (Si) con una eficiencia comercial promedio que va desde el 20% hasta el 30%; hoy en día existen celdas con unas eficiencia cercana al 50% pero estas están en un rango de precio sumamente elevado y sólo son usadas en investigación, experimentos o por agencias espaciales como la NASA. ¿Cómo

funcionan? La luz de nuestro sol está compuesta por partículas elementales llamadas fotones, los cuales no tienen masa pero si tienen propiedades electromagnéticas, y una de estas es que cuando estas colisionan con un metal a ciertas frecuencias estas desprenden uno de los electrones del átomo del metal. Es tan fácil como decir que el fotón fuese la bola blanca en un juego de billar que al chocar con el triángulo inicial desprende las otras bolas de colores (en este caso los electrones), así transfiriendo su energía cinética. Liberar un electrón solo es una parte del proceso de cómo funcionan las celdas fotovoltaicas ya que se requiere mover los electrones de cierta forma para generar una corriente eléctrica. Esto se logra mediante un campo eléctrico el cual es producido por el efecto de dos capas semiconductoras “p” y “n”. A estos semi-conductores se les llama semi-conductores extrínsecos, y son aquellos a los que se les hace algo que llamamos “dopaje”, esto significa que se le añade impurezas al semi-conductor voluntariamente para mejorar su conductividad

10

eléctrica. [1] La capa en la cual chocan los fotones “n”, tiene electrones libres de más , debajo de esta capa se encuentra la capa “p” en la cual hay exceso de huecos, estos huecos son pseudo-partículas que representan un espacio vacío dejado por un electrón y que tienen carga positiva. Al combinar ambas capas se genera un campo eléctrico el cual no deja a los electrones moverse más que de una manera, generando así una corriente eléctrica la cual puede ser almacenada fácilmente en una batería. ¡De esta manera generamos la corriente eléctrica que queremos a partir de la luz del sol! ¿Por qué son importantes los semiconductores? Los semiconductores tienen propiedades de metales y no metales y en el caso de algunos, como el silicio, estos pueden aislar una corriente eléctrica, habilidad que los hace elementales para su uso en celdas fotovoltaicas. El silicio es uno de los semiconductores más usados para celdas fotovoltaicas, pero además de él también se utilizan los compuestos de semiconductores III-V en el grupo III en los que se encuentran principalmente Al, In y Ga, mientras en el grupo V se encuentran principalmente N, P, As y Sb, teniendo así más de 10 combinaciones posibles de semiconductores. De esta forma podemos hacer notar que las celdas fotovoltaicas son un avance tecnológico primordial para el siglo XXI, en este se utiliza el concepto de física cuántica de efecto fotoeléctrico para generar energía de una manera sustentable en un mundo que cada vez se enfoca más en la ciencia para crear un mundo sustentable.

INTEGRAL

Espintrónica: un nuevo giro en la Ezequiel Nieva

electrónica contemporánea.

En la actualidad los dispositivos electrónicos son una parte esencial de la vida de muchas personas, ya que encontramos inmersos en nuestra vida cotidiana aparatos como las computadoras, teléfonos celulares, televisiones, electrodomésticos, entre muchas otras cosas. Por lo tanto, la investigación y desarrollo de nuevos dispositivos electrónicos es fundamental para el avance tecnológico de nuestra época. Sin embargo cada vez se vuelve más complicado describir físicamente estos sistemas para que tengan un funcionamiento óptimo y sean innovadores, por lo que estos avances tecnológicos no llegan de la noche a la mañana. Aunque se han presentado dificultades, la electrónica en general se ha desarrollado bastante en las ultimas décadas y ha presentado avances increíbles gracias a la creación de nuevos materiales y el desarrollo de la manipulación de escalas micrométricas (0.000001m) y sobre todo el desarrollo del software, entre otras. Un ejemplo de ello es la famosa “Ley de Moore”[1,2] la cuál expresa que aproximadamente cada 2 años se duplica el número de transistores en un microprocesador. Aunque Moore declaró en el 2007 que su ley estaría vigente tan solo unos 10 a 15 años más. Hoy en día esta idea ha cambiado ya que el avance de la electrónica se ha disminuido a como se tenía planeado, un ejemplo de ello es el desarrollo de los teléfonos inteligentes y las computadoras en donde se muestra un crecimiento en el tamaño (en las computadoras y celulares se puede notar por el uso de dual cores, quad-cores, etc. donde en vez de que un núcleo de procesamiento sea el doble de potente que el anterior se implementan dos o más). Pero, ¿qué se espera del futuro si la demanda de procesamiento de información y su almacenamiento es cada vez mayor? La respuesta a esta pregunta ha surgido en el desarrollo de nuevas tecnologías, una de ellas y la más importante es el desarrollo de la caracterización y deposición de materiales a escalas nano-métricas (0.000000001m) propiciando el desarrollo de materiales semiconductores. Debido a este desarrollo han surgido nuevas aplicaciones tecnológicas pero de igual manera nuevos retos, uno de ellos en el campo de la espintrónica. La espintrónica

no es una idea completamente nueva ya que desde mitades del siglo XX se pensaba en un nuevo desarrollo tecnológico que involucrara el control de sistemas a escalas muy pequeñas (nano-métricas). Una de las primeras personas en pensar en esta idea fue el famoso físico Richard P. Feynman el cual en una reunión anual de la American Physical Society (una de las sociedades científicas de mayor renombre en el mundo) mencionó una frase peculiar: “There’s plenty of room at the bottom” [3] (hay mucho espacio en el fondo) en la que hacía alusión a la manipulación de sistemas de escalas muy pequeñas y que haría surgir una nueva rama de la física, una de estas ramas es la espintrónica.

En qué consiste la espintrónica? La espintrónica consiste en “entender y controlar corrientes de espín polarizados y la aplicación de este conocimiento a tecnologías de información” [4]. Es decir, normalmente la electrónica se lleva a cabo en la descripción de corriente eléctrica (el flujo de electrones en un circuito) sin embargo la espintrónica se basa en las propiedades de los portadores de carga (las propiedades de los electrones, ¡como su espín!). Para entender por completo esta definición tenemos que tener en cuenta ciertos aspectos: 1. La descripción de sistemas espintrónicos se da en el formalismo de las

11

INTEGRAL leyes de la mecánica cuántica debido a que se describen sistemas de dimensiones muy pequeñas donde la física clásica no puede describirlos. 2. Debido a que la descripción de estos sistemas es mediante la mecánica cuántica surgen nuevos campos de aplicación y fenómenos físicos (para la espintrónica uno de ellos es el efecto espín órbita) que no tienen una equivalencia con los fenómenos macroscópicos que vivimos a diario sin embargo gracias al lenguaje de las matemáticas podemos llegar a comprender y controlar con precisión y exactitud escalas muy pequeñas e interpretar los resultados a variables físicas macroscópicas, es decir, a escalas de nuestras dimensiones. El denominado espín del cual surge el nombre de espintrónica es un efecto totalmente cuántico que en lenguaje técnico es una propiedad física de los electrones (existen otras partículas cuánticas que también tienen un espín, sin embargo de manera general podemos decir que el campo de la espintrónica maneja solo el espín de los electrones) asociada al momento angular intrínseco de la partícula. En otras palabras, aunque este es un fenómeno totalmente cuántico que no podemos asociar directamente con nada de nuestra experiencia cotidiana, una analogía del espín de una partícula la podemos asociar al movimiento que siente la partícula (momento angular) debido a que está girando en su propio eje y además trasladándose en una cierta dirección. Este fenómeno es muy peculiar y fue comprobado experimentalmente por primera vez por Otto Stern y Walter Gerlach en 1922 [5].

se pueden dividir bandas de conducción o valencia degeneradas lo cual implica un ahorro en la energético que se traduce a un paso de información mas rápido. Uno de los ejemplos más importantes y que actualmente tiene un gran impacto en nuestra vida cotidiana aunque la mayoría no lo tengamos en cuenta es el uso de la magneto resistencia gigante [6] (un fenómeno cuántico que nos produce nuestra corriente de espín polarizada), descubierto por Albert Fert y Peter Grünberg y galardonado por el premio Nobel, en los discos duros de las computadoras de aproximadamente del 2007 a la fecha (gracias a Stuart Parkin [7]). Por lo tanto la espintrónica nos abre puertas a nuevos descubrimientos (teóricos como prácticos) de tal manera que se espera que sea la sustitución de la electrónica actual en fechas cercanas debido al gran avance que ha tenido y al potencial de aplicación que tiene, siendo parte de lo que en la actualidad se llama Computación Cuántica.

Una vez definido que es el espín y el objetivo de la espintrónica debemos mencionar su importancia e innovación en el ámbito científico y tecnológico. La importancia de la espintrónica se da debido a que es una nueva manera de describir sistemas electrónicos al utilizar el espín de los portadores de carga. A diferencia de usar la carga de la partícula, el espín tiene ciertas peculiaridades y ventajas en el ámbito tecnológico, una de ellas es el efecto espínorbita [6] (se puede clasificar en efecto Rashba y en efecto Dresselhaus), el cual mediante la configuración de una estructura en un sistema (Structure Inversion Asymetry) o el uso de diferentes elementos de la tabla periódica (Bulk Inversion Asymetry)

12

INTEGRAL

Mecánica Celeste: Coreografías

Alma Sagaceta La Mecánica Celeste es una rama de la astronomía encargada de estudiar los movimientos de los cuerpos celestes tales como los planetas, los satélites, los cometas y asteroides. Esta rama de las matemáticas utiliza la ley de gravitación universal, propuesta por Isaac Newton, la cual plantea que la fuerza con que se atraen dos cuerpos de diferente masa depende del valor de sus masas y del cuadrado de la distancia que los separa .

( F g= GMm ( r 2

La fascinación por el cosmos y por entender el comportamiento del mismo existe desde los tiempos antiguos, filósofos y grandes pensadores como Anaxímenes de Mileto, Aristóteles, Aristarco de Santos, Ptolomeo, Copérnico, entre otros han realizado grandes aportes al conocimiento para lograr un entendimiento del universo. Tal ha sido nuestro interés que el hombre logró salir del planeta Tierra en 1969 con el uso de las matemáticas y la física de ese entonces. Newton revolucionó la ciencia haciendo uso de las matemáticas para explicar fenómenos físicos, y es asombroso que usando éstas ecuaciones se deduzcan las trayectorias de dos o más cuerpos, comúnmente denominadas órbitas. Los sistemas de ecuaciones para dos cuerpos celestes se resuelven de manera sencilla y sus soluciones son analíticas y exactas. Sin embargo, para tres o más cuerpos celestes las soluciones son numéricas o se hace uso de la teoría cualitativa de las ecuaciones diferenciales. Gracias al trabajo de varios científicos y usando las observaciones realizados por los astrónomos se han encontrado la presencia de los asteroides troyanos y satélites troyanos de Saturno. Además de predecir la posición de algún cuerpo celeste y de encontrar asteroides, en la Mecánica Celeste también se descubren coreografías. Éstas no son las coreografías que acostumbramos apreciar en los eventos culturales, si no que son soluciones de las ecuaciones diferenciales que modelan el problema de los n-cuerpos y que tienen una característica especial, la trayectoria de los cuerpos es fija. El estudio de estas coreografías ha aumentado gracias a la tecnología y al uso de métodos numéricos. Científicos como Checiner y Montgomery

INTEGRAL publicaron en el año 2000 [1], la existencia de una solución de tres cuerpos con masas iguales donde las tres masas tienen la misma trayectoria y esta trayectoria tiene forma de un ocho (Figura 1). Este descubrimiento conllevó a que la comunidad científica tuviera un

de tres cuerpos donde una luna gira alrededor de su planeta y el planeta alrededor del sol, en este caso las masas de los cuerpos son distintas. Esta configuración fue encontrada por K.C. Chen [3]

Figura 1 Configuración de ocho

mayor interés en dichas soluciones [2]. Tiempo después se descubrió otra coreografía donde los cuerpos tienen masas iguales y forman un Figura 3 triángulo equilátero (Figura 2). La Configuración Triángulo característica principal de estas coreografías es que se ha obtenido la solución analíticamente sin Las simulaciones son elaboradas hacer uso de simulaciones. Sin por el matemático Simó, para embargo gracias a las simulaciones, ver más de las coreografías se recomienda ver sus páginas (http://www.maia.ub.es/dsg/nbody, http://www.maia.ub.es/dsg/3body). El descubrimiento de las coreografías es relativamente nuevo y lo asombroso es que se descubrieron haciendo uso de la mecánica clásica o newtoniana. Figura 2 Esto concluye que aún hay mucho Configuración Chen se han encontrado configuraciones por investigar para entender el reales del Sistema Solar. Esto ha funcionamiento del universo. sido posible gracias a una base de datos de la NASA, donde se usan condiciones iniciales en los métodos numéricos y se hacen las respectivas observaciones con los telescopios. En la (Figura 3) se muestra la configuración para un problema

14

INTEGRAL

Órganos en un Chip

Paloma Vilchis

a)

b)

c)

d)

Desde la invención del transistor, la miniaturización de las cosas ha sido una tendencia, y en la actualidad se han miniaturizado con éxito diferentes sistemas como los micro-electromecánicos, mejor conocidos como MEMS (por sus siglas en inglés), sistemas fluidícos, etc. En la actualidad y gracias a la integración de sistemas microfluidícos a los MEMS, se ha planteado la posibilidad de crear órganos en un chip. En el instituto Wyss de la Universidad de Harvard en Estados Unidos, desde 2010, se ha trabajado arduamente para lograrlo y se ha presentado el pulmón en un chip. Este pulmón es un sistema microfluidíco el cual consiste en tres canales, un canal central y dos canales laterales. El canal central está dividido en dos por una membrana perforada; a esta membrana en la parte superior se ha dejado un cultivo de células pulmonares y en la parte inferior hay un cultivo de células capilares.

Los canales laterales se genera un vacío que permite simular la inhalación y exhalación del pulmón. En la figura mostrada anteriormente se muestra el dispositivo microfluidíco “Pulmón en un chip”. a) muestra como las células pulmonares y capilares se han “adherido” a la membrana perforada. b) en los canales centrales se mantiene un vacío. c) por el canal central empieza a circular aire y sangre. d) el chip del pulmón. Esta tecnología representa grandes ventajas para la investigación y desarrollo de nuevos medicamentos, pues reduciría el tiempo del estudio clínico y además se dejarían de utilizar animales para verificar eficacia de sistemas para combatir la enfermedad; así como los efectos secundarios de los medicamentos. Otra gran consecuencia positiva es que los medicamentos serían únicos para cada caso.

15

DERIVADA

Guillermo Nava

Abandonando el

Abstract El presente trabajo explora si existe y si debería de existir un método científico rígido y universal. Se presenta una brevísima perspectiva histórica, profundizando en la postura de Feyerabend. Desde este punto de vista se exponen los peligros de hacer ciencia siguiendo un único método científico. Como alternativa se introduceuna estructura rizomática àla Deleuzey se evalúan las consecuencias de seguir este modelo. El análisis presentado en este ensayoestá hecho, no desde el ámbito epistemológico, sino social.

Desde la postura del realismo científico podemos decir que la ciencia ha sido una de las empresas humanas más exitosas[ 1, 2, 3]. Incluso para los que cuestionaran la afirmación anterior resultaría interesante conocer los motivos de los otros para darle un valor especial a la ciencia. Una idea recurrente es que los logros de la ciencia se fundamentan en el método usado para obtener conocimiento científico[1]. Bajo esta concepción, resulta de gran importancia identificar las formas y metodología ideales de la ciencia (si es que existen) para conducir nuestras investigaciones a partir de estas guías y así maximizar la calidad y cantidad de resultados científicos logrados. Los padres del método Diversos esquemas para sistematizar el método científico han sido propuestos a lo largo de la historia. Sin pretender abarcar por completo la enorme extensión de metodologías sugeridas para hacer ciencia, a continuación se mencionan cuatro ejemplos clásicos con la intención de ilustrar la pluralidad y evoluciónde estas. En el Órganon, en particular en los Primeros y Segundos Analíticos, Aristóteles identificó a la observación pasiva, al empirismo y al estudio de las causas como características fundamentalesde la ciencia, y a los silogismos como su herramienta principal de análisis. Tanto él como Platón consideraban a la teleología indispensable al estudiar la naturaleza [4]. Los hechos registrados al seguir estas guías debían de ser ordenados y presentados de manera adecuada, pues bajo la definición Aristotélica, la ciencia es “un cuerpo de conocimiento o aprendizaje organizado apropiadamente” [5]. De esta forma, una investigación científica correcta era tal que tenía dentro de sus objetivos el descubrimiento, orden y presentación del conocimiento conseguido. Siglos después Galileo y Kepler incorporaron a las matemáticas en la física; sobre la importancia de las matemáticas en la ciencia Galileo comentó: “la naturaleza está descrita en ese gran libro siempre frente a nuestros ojos (me refiero al universo) [...] escrito en lenguaje matemático”[6]. A partir de este momento una buena teoría científica tenía que estar acompañada por una descripción matemática del fenómeno en cuestión. Al mismo tiempo Bacon acusaba al método aristotélico de ser excesivamente retórico e introducía la noción de experimento (controlado, en contraste con la observación pasiva de la naturaleza, propia de la tradición helénica)en su método científico presentado en el Novum Organum. Influenciado por los autores recién mencionados, poco tiempo después, Newton propone su propio estilo divisible en tres pasos principales: empezar considerando un conjunto de entidades y condiciones

16

DERIVADA

Método Científico físicas más simples que aquellas encontradas en la naturaleza (masa puntual, sistemas de un solo cuerpo, etc.) y traducirlos a un lenguaje matemático para sacar consecuencias a partir de las reglas de esta última disciplina; interpretar físicamente los resultados matemáticos conseguidos y contrastarlos con datos experimentales; finalmente, considerar a las conclusiones llegadas, no como entidades matemáticas simplificadas, sino como un representación aproximada de la naturaleza [7]. En el siglo XIX John Stewart Mill presentó algunos principios básicos de la ciencia experimental en su System of Logic. En esta obra se afirmaba que las reglas del método científico surgen de “inducciones espontáneas acerca del mundo, que hacemos como creaturas encarnadas” [8]. De acuerdo a Mill, mientras investigamos la naturaleza podemos identificar ciertos patrones y si permitimos que estos nos guíen como leyes, seremos capaces realizar predicciones. Mill logró enunciar su metodología en 3 pasos: partir de una serie de hipótesis acerca de una situación física; recolectar información experimental que nos permita eliminar todas las hipótesis excepto una; concluir que la hipótesis sobreviviente es verdadera[1]

particularidades, todos los autores de estas compartían la idea de que existía una forma sistematizada, o una serie de reglas, para producir conocimiento científico. Un siglo después de Mill, los avances de la física moderna permearon en la filosofía de la ciencia y dieron lugar a dudas que los pensadores de métodos científicos previos no tenían. Por ejemplo la idea relativista de que el tiempo y el espacio, conceptos antes absolutos, están sujetos a ser deformados por distribuciones de masa contrasta fuertemente con nuestra intuición y experiencia cotidiana. De la misma forma, la relación de indeterminación de Heisenberg de la mecánica cuántica rompió con nuestras ilusiones de describir por completo, con precisión arbitraria, las propiedades de un cuerpo. Ante estas y otras incertidumbres de la época, algunos filósofos de la ciencia comenzaron a abandonar, parcialmente, la búsqueda de un método científico universal. Popper, por ejemplo, propuso que la ciencia no se caracterizaba por seguir una metodología en particular sino por la capacidad de sus teorías de ser demostradas falsas.

Enfoques contemporáneos presentan propuestas cada vez menos aferradas a la existencia de un método científico único e infalible. Por ejemplo, Hoyningen-Huene sostiene que “el conocimiento Si bien es cierto que cada propuesta científico difiere de otros tipos de método científico descrita en de conocimiento principalmente los párrafos anteriores tiene sus por ser más sistemático” [9]. La

17

noción de sistematización de este autor es explicada en 9 dimensiones (descripciones, explicaciones, predicciones, defensa de afirmaciones del conocimiento, discurso crítico, conexión epistemológica, un ideal de completitud, generación de conocimiento y representación del conocimiento) y coincide, hasta cierto punto, con la idea de valores epistemológicos de Kuhn [10]. Otra postura contemporánea similar es la Haack, quien dice que “la ciencia no es epistemológicamente privilegiada sino epistemológicamente distinguida” [11]. Para esta autora, la investigación científica se distingue porque requiere de profundo conocimiento técnico, del lenguaje y del contexto particular del problema científico en cuestión. El peor enemigo de la ciencia Actualmente en las escuelas, los niños son introducidos a la ciencia mediante el método científico. Variaciones de usualmente no más de una decena de pasos son presentadas en los libros de primaria y secundaria. Es difícil pensar que un sistema condensado en un par de párrafos de un libro de texto de educación básica ha permitido avances tan sofisticados como aquellos logrados en campos tan diversos como la neurociencia, microbiología o física contemporáneas. Por supuesto, han aparecido críticas a este modelo sobre simplificado para la ciencia [12, 13]. Estos cuestionamientos (criticables a su vez por haberse tomado tan en serio la carta de

DERIVADA presentación de la ciencia para los niños) resultan pertinentes al notar que algunos personajes importantes han creído en esta sencilla versión del método científico: de hecho, Dewey propuso un sencillo método de 5 pasos en su libro How we think [14] y Feynman llegó a enseñar algo parecido mientras daba clases en Cornell [15]. Además de presentar la crítica anterior, en [12] se realiza un análisis social interesante sobre la prevalencia del “mito” del método científico. En este artículo se señala que para principios del siglo XX, el término “método científico” se había convertido en un recurso retórico de gran utilidad. La creciente sofisticación técnica y matemática de la ciencia, la había convertido inaccesible al público general, por lo que el “método científico” se convirtió en una herramienta para describir a la comunidad no científica cuál era la labor y relevancia de las actividades científicas. Es justamente en este momento, cuando el sistema educativo adopta el término “método científico” con la intención de familiarizar a los estudiantes, lo antes posible y sin adentrarse en detalles técnicos, con la ciencia. Hacia la mitad del siglo pasado tuvieron lugar observaciones más agudas y radicales sobre la sistematización de la ciencia. Además del falsacionismo de Popper mencionado en la sección anterior, es importante reconocer al trabajo de Kuhn. En The Structure of Scientific Revolutions, Thomas Kuhn explica mediante el concepto de paradigma, que los métodos de la ciencia dependen del tiempo, ubicación y disciplina en cuestión. Sin embargo, el interés de este ensayo, es sobre las ideas presentadas por Feyerabend en su libro Against Method y en general en su obra tardía. Veterano de la segunda guerra mundial y cantante aficionado, Paul Feyerabend comenzó su carrera filosófica participando en el Kraft Circle, plataforma que le permitió conocer a Wittgenstein y posteriormente volverse discípulo de Popper. A pesar de haber defendido gran parte de su vida una postura empirista similar a la de su maestro, en su obra fundamental Against Method, Feyerabend abandona por completo al método científico e incluso advierte los peligros de intentar imponer a la ciencia una estructura rígida que no le corresponde. Discutiendo la práctica de un método científico tradicional, en la introducción de Against Method, Feyerabend acusa a la educación científica contemporánea de simplificar la ciencia al diluir a sus participantes: “En primer lugar, se define un dominio de investigación y se separa del resto de las disciplinas, dándole una “lógica” propia. Un entrenamiento exhaustivo en esta lógica condiciona a los investigadores de este dominio, al uniformizar su comportamiento. Una parte esencial de este entrenamiento consiste en inhibir las intuiciones de los científicos que puedan conducir a una confusión de fronteras de su dominio. La religión de un investigador, su metafísica o su sentido del humor no deben de tener ninguna conexión con su actividad científica. Así, se restringe su imaginación y su lenguaje deja de ser propio.” [16].

18

Feyerabend inmediatamente muestra su desprecio hacia este camino por dos razones principales: en primer lugar, el autor considera inocente pretender analizar algo tan complejo y desconocido como es la naturaleza siguiendo una metodología inamovible y rígida definida a priori. El otro argumento que ofrece Feyerabend, que es el principal interés del presente ensayo, es que la educación científica actual, descrita en el párrafo anterior, viola el carácter humano de sus investigadores; en palabras de Mill “está en conflicto con la cultivación de individualidad que por sí misma produce, o puede producir, seres humanos bien desarrollados” [16]. Con estos motivos, Feyerabend propone dejar a un lado los esquemas rígidos del método científico para así permitir llevar una vida más libre e integra a los profesionales de la ciencia y que de esta misma forma puedan llevar a cabo sus investigaciones. En este “Anarquismo epistemológico” [17] se fomenta la existencia de una pluralidad de metodologías que no constriñan las ideas y recursos que un científico pueda tener. Las cadenas del método científico Juntando este último argumento de Feyerabend para desechar las metodologías estrictas de la ciencia con la interpretación social del término “método científico” presentada en [12] podemos llegar a una conclusión alarmante: las cadenas impuestas en sus practicantes por el método científico permiten a la comunidad no científica (en general a la sociedad) no sólo estar informada de las actividades del primer grupo, sino constreñirlas y guiarlas de acuerdo

DERIVADA a sus intereses propios, y en el camino deshumanizar a los investigadores. Bajo su teoría del New Deal, que explica la relación entre los científicos y el resto de la sociedad, Latour presenta el siguiente ejemplo [18]: en Francia, un grupo de pacientes de distrofia muscular creó una asociación, de nombre AFM, que recaudó 80 millones de dólares en caridad mediante un teletón. Como las causas de esta enfermedad son genéticas, la AFM ha hecho fuertes inversiones en la investigación de biología molecular que han llegado a sobrepasar al presupuesto que el gobierno francés tiene destinado para la investigación del genoma humano. El dinero recaudado fue usado para desarrollar nuevas formas de mapear cromosomas y los científicos involucrados publicaron algunos de los primeros mapas del genoma. Después de este éxito, la AFM se centró en explorar la terapia genética. Lo crucial de este ejemplo, es que ahora los paciente toman muchas de las decisiones del rumbo que sigue la investigación de esta asociación; “ahora, los pacientes generan rutinariamente sus propias políticas científicas” [18]. En este caso el método científico ha trabajado para los pacientes quienes, al estar medianamente informados sobre las actividades que realizan los científicos, pueden decidir el rumbo de la investigación (ciertamente los científicos también se ven beneficiados por el método pues al justificar su trabajo, reciben donaciones para seguirlo haciendo).

La alternativa rizomática

En esta sección se busca complementar el Anarquismo epistemológico de Feyerabend con una estructura de rizoma para las formas de hacer ciencia. En el libro a “A Thousand Plateaus” Deleuze y Guattari introducen al rizoma como un esquema en ciencias de la información, en analogía con la definición botánica del término. Un rizoma es un tallo horizontal subterráneo del que crecen raíces, como el de un lirio o el jengibre [21]. La estructura rizomática de Deleuze y Guattari cumple las siguientes propiedades: los principios de conexión y heterogeneidad (cualquier punto del rizoma puede y debe estar conectado con cualquier otro); el principio de multiplicidad (cualquier cambio en magnitud o dimensiones se traduce en un cambio en la naturaleza del rizoma); el principio ruptura asignificante (si un rizoma se rompe o fragmenta, volverá a crecer en su vieja forma o posiblemente en una nueva); los principios de cartografía y decalcomanía (pensando al rizoma como un mapa, siempre está abierto a ser abordado desde cualquier punto y no hay un lugar preferente para comenzar a leerlo) [22]. Para comprender mejor una estructura rizomática es conveniente contrastarla con esquemas arbóreos, en las cuáles estamos acostumbrados a organizar información. A diferencia de los rizomas, los árboles representan jerarquía pues comienzan en raíces aferradas a cierto terreno firme, El ejemplo anterior ha tenido un desenlace positivo que permiten el crecimiento de un tronco a partir del pues ha permitido el tratamiento de pacientes con cual se deprenden diversas ramas [23]. distrofia muscular y al mismo tiempo a incrementado nuestra comprensión sobre el genoma humano (a pesar La actividad científica practicada de acuerdo al de que, de acuerdo a Feyerabend el humanismo de los método que aborrece Feyerabend se puede estudiar científicos ha sido atacado). Pero ¿el método científico con un modelo arbóreo. Las raíces que sostienen al como cadena siempre traerá beneficios para la sociedad árbol corresponden a las cadenas que la sociedad ha en general, o solo para un subconjunto propio de ella? impuesto a la investigación, para dirigirla de acuerdo En el año 2013, el gobierno americano destinó 821.6 a sus intereses. El tronco, fijo a la tierra por las raíces, billones de dólares para el Departamento de Defensa representa al método científico y las ramas que crecen mientras que únicamente 29.1 billones fueron gastados de este son el conocimiento científico conseguido en el Instituto Nacional de Salud [19]. al aplicar una metodología rígida. Las peligrosas Mediante una estrategia comercial llamada disease consecuencias de seguir un modelo de este tipo ya fueron mongering, las compañías farmacéuticas intentan expuestas en la sección anterior. Afortunadamente, si convencernos de que estamos enfermos; algunas de rechazamos, como Feyerabend, un método que violente ellas gastan más dinero en mercadotecnia que en el humanismo de sus practicantes podemos adoptar investigación [20]. Sin caer en teorías de conspiración una estructura rizomática para nuestra nueva forma podemos ver que el desarrollo científico de algunas áreas de hacer ciencia. En este rizoma no será necesario ciertamente está sujeto a agendas sociales, económicas seguir una serie predeterminada de pasos para generar y políticas que trascienden el interés de la ciencia. conocimiento científico pues los investigadores podrán hacer uso de los recursos que prefieran y se adapten mejor

19

DERIVADA

a su persona. Experimentación, pertinencia social, observación, formalismo matemático, intuición física, formulación de hipótesis y tantos más elementos como los investigadores consideren necesarios, serán posibles puntos de partida y herramientas para hacer ciencia en este rizoma. Es importante reconocer los riesgos de abandonar la estructura del método, tan arraigada en nuestra forma de hacer ciencia. Independientemente de las consecuencias que tenga adoptar al rizoma en la cantidad y calidad de resultados científicos producidos (un análisis rápido sería especulación y uno lo suficientemente completo sale de los alcances de este breve ensayo) 2 riesgos inmediatos nos estarían acechando. En primer lugar, al desaparecer el método científico dejaría de existir el principal canal de comunicación entre los científicos y el resto de la sociedad. El último grupo sería cada vez más ajeno a las actividades del primero y podría olvidar la relevancia de la ciencia. De esta manera, sería imperativo crear nuevas conexiones entre la comunidad no científica y los investigadores con el objetivo de mantener un diálogo abierto entre ambos. Por otro lado, al perder el rastro y el control de las actividades científicas, la sociedad podría intentar imponer medios más dolorosos que los actuales para subyugar nuevamente a la

investigación científica; existe la posibilidad de que la estructura rizomática, al reemplazar al método científico, traiga consigo consecuencias que afecten, más que el mismo método, al humanismo de los investigadores.

Conclusiones Se analizó el Anarquismo epistemológico de Feyerabend junto con la función social que ha tenido el “mito” del método científico. A partir de esto, se determinó que seguir un método científico rígido y único implica libertad limitada en la investigación, sujeta a intereses de la sociedad. Para sustituir este modelo arbóreo se presentó una alternativa rizomática. Brevemente se estudiaron las consecuencias que tendría este cambio, reconociendo sus riesgos.

20

DERIVADA

Alain Chavarri

El logaritmo y sus maravillosas propiedades El logaritmo es una de las funciones más importantes de las matemáticas. Generalmente se presenta como la función inversa de la exponencial f(x)=ax (que usualmente no se define para x irracional), pero este enfoque no refleja la motivación original para su invención. ¡Los logaritmos se inventaron antes que la notación exponencial! Será conveniente explorar la historia de esta maravillosa función y tratar de encontrar una definición moderna. A finales del siglo XVI hubo grandes desarrollos científicos especialmente en ámbitos como la navegación y la astronomía. Se necesitaban con urgencia nuevas técnicas para realizar grandes operaciones, especialmente multiplicar y dividir grandes cantidades (M. Clark 3).

21

DERIVADA Los orígenes

La distancia recorrida por Q después de un tiempo t (es decir, la longitud Con el objetivo de simplificar las operacionesse desarrolló un método del segmento LQ) es definida por llamado prosthaphaeresis, que se basaba en identidades trigonométricas Napier como el logaritmo de la como: distancia entre P y B en ese tiempo 2cos (α) cos (β) =cos (α + β) +cos(α − β) t. (Spivak 358). Si se tienen dos números a multiplicar: a y b entre 1 y -1, se encuentran α y β tal que α =cos(α)y β =cos(β) en una tabla trigonométrica, luego se obtiene cos(α + β) y cos(α − β) de la tabla, después se suman estas cantidades y se divide entre dos. Obtendremos así, de acuerdo a la identidad, una aproximación de α * β. Si a y b no están entre 1 y -1 simplemente se mueve el punto decimal y se ajusta el resultado. (M. Clark 3).

Supongamos t = 0, P y Q se encuentran en A y L respectivamente; empieza a correr el tiempo y P y Q se mueven a la derecha, P con una velocidad decreciente y Q con una velocidad constante; después de algún tiempo arbitrario t, la Con este método la multiplicación se reducía a buscar en una tabla, restar, distancia entre L y Q (llamémosla sumar y dividir entre dos, lo cual es mucho más sencillo. Sin embargo, la y) será el logaritmo de la distancia búsqueda de métodos más poderosos no se detuvo. entre P y B (llamémosla x): Napier y sus logaritmos

NapLog (x) = y

John Napier, matemático y teólogo, nació en 1550 en Edimburgo, Escocia El logaritmo neperiano satisfacía las y murió en 1617(“John Napier” párr. 1-2). En 1594, aislado en el castillo de propiedades que se buscaban en la Merchiston, inició su trabajo mejor conocido. época (Weisstein párr. 3), lograba simplificar tediosas multiplicaciones A Napier se le atribuye la invención de los logaritmos aunque éstos eran y divisiones en sencillas sumas y muy diferentes a los que hoy conocemos. Las primeras tablas de logaritmos restas dada una tabla de logaritmos, de Napier fueron publicadas en 1614 en su obra Mirifici Logarithmorum pues: Canonis Descriptio (Descripción de las maravillosas leyes de los NapLog(10-7xy) = NapLog(x) + NapLog(y) logaritmos) (Edwards 142-143). La definición original de Napier pareceinicialmente muy extraña pues parte de un contexto físico, se basaba en el movimiento continuo de dos partículas. Napier imaginó un segmento de recta AB con una longitud de 10,000,000=107, y una semirecta paralela compunto inicial L que se extiende infinitamente hacia la derecha. El punto P se mueve a lo largo de AB (partiendo de A) con una velocidad igual a la distancia de P a B. Por ejemplo, si el punto P se encuentra en A la velocidad de P será de 107 y cuando el punto P se encuentre a la mitad del segmento AB su velocidad será de 5,000,000. Mientras tanto un punto Q se mueve a lo largo de la semirrecta (partiendo de L) a una velocidad constante de 107.

22

NapLog(107 (x/y)) = NapLog(x) - NapLog(y)

Kepler utilizó las tablas de Napier en 1614 para grandes cálculos que lo llevaron al descubrimiento de su tercera ley de movimiento planetario. (Edwards 143). Nuevas definiciones El logaritmo neperiano difiere mucho de la definición moderna de logaritmos, posteriormente veremos cómo podemos expresarlo en términos del logaritmo natural, pero para llegar a esa definición moderna se necesitaron muchos años más. El desarrollo continuó con Joost Bürgi (1552-1632) quien construyó

DERIVADA una tabla similar a la de Napier pero fue publicada después. Bürgi se basó en el hecho de que hay una correspondencia entre la multiplicación en una sucesión geométrica y la suma en una aritmética (M. Clark 5). Por otro lado, Henry Briggs (profesor inglés de matemáticas) construyó una nueva tabla de logaritmos definida en términos del logaritmo neperiano, en la que el logaritmo de uno es cero y el de 10 es uno:

Este logaritmo es el que pasará a conocerse como el “logaritmo base 10” (Edwards 153). El cual satisface la importante propiedad de “convertir” la multiplicación en una suma: log(xy) = log(x) + log(y) Partiremos ahora de esta propiedad para motivar la definición moderna del logaritmo natural, que formalmente se define como una integral definida. El logaritmo como lo conocemos Intentaremos ahora, utilizando herramientas de cálculo, encontrar una función f que satisfaga la equación funcional: f(xy) = f(x) + f(y) y que sea diferente a la trivial f(x)=0 (Así que x=0 no está en el dominio). Dado esto, si y=1 tenemos que: f(x*1) = f(x) + f(1) -> f(x)=f(x) +f(1) ->0 = f(1), por lo que f(1) =0.

Asumamos que f es diferenciable y procedamos diferenciando (1) respecto a y para obtener:

exigencias, basta comprobar que cumple con la propiedad (1).

Teorema Para todo x,y > 0 ln (xy) =ln (x) +ln(y) Sustituyendo ahora y=1 en (2), Demostración tenemos: Consideremos la función g(x)=ln(xy), por lo que xf ’(x) = f ’(1) g’(x)=yln’(xy)= y 1/xy = 1/x Como supusimos que f era diferenciable y que x = 1 pertenecía Es decir a su dominio entonces f ’(1) existe y es igual a una constante c, de manera que despejando f ’(x) obtenemos: Como g(x) y ln(x) tienen la misma derivada, difieren por una constante c. g(x) =ln(xy) =ln(x) + c Pero ahora nos enfrentamos a un problema pues no conocemos la Para encontrar c sustituimos x=1 antiderivada de 1/x . Todos los intentos para integrar f ’ en términos ln y = ln(1) + c = c de funciones conocidas (como polinomiales, racionales, algebraicas Por lo que c=ln(y), obteniendo así o trigonométricas) fallarán (Hardy que ln(xy) = ln (x) + ln(y) para todo 399-401), así que por qué no definir x,y > 0. una función ln (x) tal que ln’(x) = (Spivak 342) 1/x , es decir, consideraremos el caso más sencillo en que c = 1. Además, Fueron el belga Gregory St. Vincent si queremos que ln (x) satisfaga (1) y su amigo Alphone Antonio de debemos exigir que ln (1) = 0. Sarasa los que notaron en 1647 que una función que arrojara el área bajo Por lo que definimos para todo x > 0 la hipérbola xy=1 en el intervalo [1,x] satisfacía la propiedad característica de los logaritmos. (Edwards 154-156) xf ’(xy) = f ’(y)

Una consecuencia inmediata de esta Observamos que ln(1) = 0 y que, por propiedad es que ln(xn)= nln (x) el teorema fundamental del cálculo, para todo n natural. Por ejemplo, ln’(x)= 1/x. ln(x) no está definida para n = 3 tenemos: para x ≤ 0 pues el integrando no estaría acotado en ese intervalo. ln(x3) = ln(x*x*x) = ln(x) +ln(x*x) =ln(x) +ln(x) +ln(x) =3ln(x) Hemos construido una función continua que satisface nuestras

23

DERIVADA De manera similar es posible probar que ln(xr) = rln (x) para todo r racional1 y que ln (x) crece sin cota superior (Courant 445).

Entonces exp (x+y) = exp (ln (a) + ln(b)) = exp (ln (ab)) = ab = exp(x) exp(y). (Hardy 407).

La función exponencial

Por ejemplo, si x = 3 obtenemos: exp(3)=exp(1+(1+1))=exp(1) exp(1+1)= exp(1) exp(1) exp(1) =[exp(1)]3

a la función exponencial y llegamos a la definición familiar de ln (x). Las aplicaciones actuales del logaritmo son infinitas, tanto en las ciencias como las matemáticas, y su poder se Resolviendo una ecuación Es ahora que podemos observar manifiesta cada día, el poder de esas diferencial podemos expresar al la conexión de exp(x) con la maravillosas propiedades. logaritmo neperiano en términos idea convencional de la función del logaritmo natural (Spivak 358): exponencial. Por la propiedad (3) podemos probar que exp(r) = [exp (1)]r para toda r racional (Courant 447).

Al logaritmo natural usualmente se le llama “logaritmo base e”, el porqué resultará evidente en unos momentos, por ahora empecemos definiendo a esta famosa constante: Definimos e como aquel número tal que ln (e) = 1, e es aproximadamente 2.718.

y como exp (1) = e podemos escribir exp (r) = [exp (1)]r = er para todo r racional. Inspirándonos en esta relación, podemos definir ex como exp(x) , la cual está definida incluso para x irracional. Es hasta este Ahora definimos a la función exp(x) momento que llegamos finalmente a como la función inversa de ln(x). la definición tradicional: el logaritmo Resulta de esta definición que el natural de y es el exponente x al que dominio de exp (x) será todo R hay que elevar e para obtener y. (Spivak 343). Esta es la clave que nos permitirá definir potencias irracionales. Una función poderosa Además por la definición de e, tenemos que exp (1) = e. Hemos explorado la verdadera motivación para la invención Proposición de los logaritmos: simplificar cálculos. Los primeros intentos se La función exponencial satisface la perfeccionaron y Napier introdujo ecuación sus logaritmos en 1614 con una definición muy diferente a la actual exp (x+y) =exp(x) exp(y) pero que revolucionó la ciencia y la matemática. Con la misma Demostración motivación en mente, y utilizando herramientas de cálculo, logramos Tenemos que definir al logaritmo natural que a=exp(x) y b = exp (y) resultó ser antiderivada de f(x)=1/x y ln(a) = x y ln (b) = y. una función completamente nueva. A partir de esto logramos encontrar

24

¡Uy que miedo!

Apología matemática

Francisco González

Las matemáticas como parte de las humanidades

En la actualidad nos encontramos con una paradoja perturbadora: las ciencias matemáticas están ampliamente relacionadas con todos los aspectos de la vida humana y, sin embargo, son tratadas como algo externo a la humanidad por la mayoría de los individuos. No es un secreto que las matemáticas no son la materia favorita de muchos. Se ha escuchado a un sinfín de adultos decir con orgullo que no tenían ninguna habilidad matemática cuando eran estudiantes; pero casi nunca se les escucha hablar con el mismo orgullo sobre deficiencias en materias de otra índole. Edward Frenkel (2014) admite, en concordancia con mayoría de los matemáticos, que esto es así por dos razones: 1. La matemática se percibe como algo sui generis, en lo que solo unos pocos pueden participar de forma exitosa. 2. La matemática se presenta en las escuelas como algo mecánico y aburrido, en lo cual no hay espacio para la creatividad. En primer lugar, la realidad es que todos tienen un matemático dentro de sí. La matemática es la razón en su más pura expresión. ¿Qué es más propio del ser humano que la razón? La mayoría de los filósofos están de acuerdo que no existe respuesta, no hay nada más humano que la razón. La matemática es usar la mente para resolver problemas; no importa si se trata de un simple rompecabezas o de la búsqueda de una respuesta adecuada a un desastre natural, enfrentamos estos problemas después de haber discurrido en un proceso cognitivo muy parecido al matemático sin darnos cuenta. Un ejemplo en el que se aprecia la conexión de la matemática con la solución de problemas en general es el uso por parte de los artistas renacentistas del número Φ como la proporción ideal para crear composiciones bellas, con esté numero resuelven el problema de qué proporción es la más agradable a la vista. En segundo lugar, el proceso de investigación matemático no es de ninguna manera mecánico, se empieza con una pregunta que aparentemente no tiene respuesta y se le ataca por todos los frentes con la esperanza de obtener una solución; no se sabe qué

25

¡UY QUE MIEDO! camino puede llevar al resultado correcto. El proceso es desordenado como curiosidad. Ian Stewart (1995) cualquier otra empresa creativa. expone el proceso de creación La raíz del problema se encuentra en la forma en la que se presenta a las matemática de la siguiente manera: matemáticas en las escuelas. Como muestra de ello, los resultados de la prueba ENLACE aplicada a nivel nacional en alumnos de bachiller por “En primer lugar, el la SEP hace manifiesto el hecho de que el porcentaje de alumnos que se matemático puro juega con desempeñan de forma buena o excelente en matemáticas no supera al un problema simplemente 40%. En la tabla siguiente se muestra una comparación entre los resultados por diversión. En segundo matemáticas y comunicación:

lugar, el teórico formula una teoría aplicando las matemáticas del matemático puro sin intentar probar dicha teoría. En tercer lugar, el científico experimental confirma la teoría, pero no desarrolla ningún uso. En último lugar, el hombre práctico entrega los usos útiles al mundo que estaba a la espera.”

(Datos consultados en el Informe de Resultado de prueba ENLACE 2014 Distrito Federal)

En el comparativo, se puede apreciar la diferencia abismal en el buen desempeño de dichas materias. Esta situación me llevó a escribir este ensayo con el objetivo de cambiar la visión incomprendida que se tiene de estas ciencias, con la esperanza de que al presentarlas en su forma real, con todas sus similitudes con las humanidades se aprecien como les es propio. Según la Real Academia Española, las humanidades son el conjunto de disciplinas que giran en torno al ser humano, como el arte, la literatura, la filosofía o la historia. Además, define arte como manifestación de la actividad humana mediante la cual se interpreta lo real o se plasma lo imaginario. Bien, si se demuestra que las matemáticas son un arte, entonces no se caería en el error al tratarlas como parte de las humanidades. En concordancia con la definición de arte, las matemáticas, como actividad humana, sirven de modelo para interpretar la realidad. ¿Quién puede negar que gracias a ellas el hombre llegó a la luna? ¿Cómo —sin ellas— podríamos predecir cuándo habrá un eclipse? Parecería que la realidad y esta ciencia son una y la misma cosa, pero, curiosamente, rara vez la intención inicial por la que se hacen matemáticas es para describir la realidad. El proceso comienza en un mundo puramente imaginario, donde se trata de responder a una pregunta dentro de las matemáticas, es decir, estudiando a esta ciencia sin salir de ella (que a su vez es producto del intelecto humano) por simple

26

Vemos, entonces, que a pesar de que no es su intención, las matemáticas lidian en el mundo imaginario tanto como en el real (tal como lo solicitaba la definición de arte). Es esta una de las razones por las que el debate sobre si se descubren o se inventan no ha llegado a una conclusión. Otra forma en la que se puede vislumbrar a nuestra ciencia como parte de las humanidades es con la comparación que elaboró G. Hardy (1992) donde afirma que

“El matemático, como el pintor o el poeta, es un creador de patrones. Si sus patrones son más permanentes que los de aquellos, es porque los suyos están hechos con ideas. […] Los patrones del matemático , como los del

¡UY QUE MIEDO! pintor o el poeta, deben ser bellos; Las ideas, como los colores o las palabras, deben encajar juntos de manera armoniosa. La belleza es el primer examen: no hay lugar permanente en el mundo para matemáticas feas.˝ Probablemente los artistas o poetas que se encuentren leyendo este texto no estén de acuerdo con esta comparación dado que, a su parecer, falta un componente intrínseco de sus formas de arte: la libertad. La visión de las matemáticas como rígidas, carentes de libertad, es común; pero como expresó el matemático ruso Georg Cantor su esencia se encuentra en su libertad. Si bien se les ve como rígidas, en realidad no lo son; esta visión incomprendida es producto del énfasis que se da en las escuelas sobre el resultado. A los matemáticos lo que les interesa es el método utilizado para llegar a la verdad, no el resultado como tal. Ahora, el método puede ser de una infinidad de maneras distintas; se precisa mucha creatividad para construir un método elegante y, dependiendo de su composición, se dice que este es bello. De la misma manera en que se toma en cuenta la composición de una pintura, en sus infinitas posibilidades, como norma para calificarla como bella, la composición del método al ser elegida por su cualidad de ser la de mayor elegancia es la definición de belleza en matemáticas. Un claro ejemplo de un método

elegante sería la demostración que dio Euclides que prueba la existencia de infinitos números primos1 . El argumento que utilizó es el siguiente: Se empieza suponiendo que no existen infinitos números primos. Sí esto es así, entonces existe un número “N” que representa a la cantidad de números primos y se puede hacer una lista que los contenga a todos (P1, P2, P3,…, PN). Si tomamos el producto de todos los números en la lista y le sumamos uno (P1P2P3… PN + 1). Este número es primo o compuesto2 , pero ninguno de los de los primos en nuestra lista lo pueden dividir de forma entera, siempre les falta una unidad para poder hacerlo. Esto nos lleva a concluir que si es compuesto, está formado por al menos un primo que no esta en nuestra lista, o bien, que si es primo, tampoco está contenido en nuestra lista. Como este proceso se puede repetir indefinidamente –agregando siempre un primo nuevo a la lista— concluimos que existen infinitos números primos. Este argumento muestra el poder de la creatividad matemática. Existen más de cuatro formas de probar la misma proposición, pero esta es la más intuitiva y la que menos conocimiento matemático requiere. Si esto no es prueba suficiente de que hay libertad en la forma en que se crean matemáticas, entonces dirijo la atención de los lectores al hecho de que existen más de trescientas demostraciones distintas para el teorema de Pitágoras. Ya vimos que las matemáticas son libres en cuanto a su creación, que

Los números primos son aquellos que sólo se pueden dividir de forma entera por uno y por sí mismos. El número uno no se considera como primo por convención. 2 Si un número no es primo, entonces es compuesto. Todos los números compuestos se pueden escribir como producto de números primos. 1

27

interpretan la realidad y plasman la imaginación en concordancia con la definición de arte, y que se puede hablar de belleza y elegancia al referirse a ellas. Es por esto que afirmo que las matemáticas pueden ser consideradas como parte de las humanidades tanto como la literatura y la música. Inclusive, es posible que lo sean en mayor medida, dado que las matemáticas no se pueden patentar. Esto significa que no se les puede cubrir con un cristal para protegerlas de aquel que quiera jugar con ellas, que no se puede cobrar por su uso y que a pesar de su poder y de que se emplean en todos los aspectos de nuestras vidas están al alcance de todos. ¡Son de todos y para todos! No se les puede separar de la humanidad.

¡UY QUE MIEDO!

El miedo a la ciencia Mariana Osorio

Virus mortales, robots autoconscientes que inician guerras en contra del humano y supercomputadoras con inteligencia superior capaz de destruirnos… Y todo esto gracias a la ciencia. ¿Cómo llegamos a esto? La respuesta es fácil, y es gracias a la ficción –y a veces a la ignorancia– , pero el resultado de esto es terrible, y es el miedo. Y este miedo no es ficticio, es un miedo real, muchas veces infundado y con consecuencias graves para algo tan valioso como la ciencia. La ciencia es aquella disciplina que a través de un método sistemático y disciplinado nos lleva a conocimiento y a sabiduría. Y nos lleva a conocer al mundo, a explicar nuestro alrededor y a mejorar nuestra forma de vivir. Pero nada de esto suena atemorizante ni amenazador, entonces, ¿por qué la gente le tiene miedo? El miedo a la ciencia no es un tabú. Es un miedo con el que es fácil toparse, empieza simple, con un terror a las clases de física, química y biología en las escuelas. Estas materias son vistas como extremadamente difíciles, y esta dificultad se refleja en un miedo irracional a los temas que son vistos en ellas. El premio Nobel de Química de 1987, Jean Marie Lehn dijo que este miedo “viene dado por el desconocimiento” ya que “cuando desconocemos algo intentamos protegernos” [2]. Muchos estudiantes, y después adultos, desconocen lo que se trata en la ciencia, por esto, en su intento de protegerse de ella, descalifican algo que los beneficiaria enormemente. ¡Pero esto es sin haberse aventurado a las maravillas que la ciencia tiene por ofrecerles! Porque la ciencia no es algo cuyo lugar está bajo la cama de un niño y lo asecha en la noche, la ciencia es la herramienta que lo va a ayudar a lograr sus sueños, a descubrir lo logrado por la humanidad. Otra de las causas que han encaminado a la sociedad al miedo insensato en contra de la ciencia es el género de la ciencia ficción en la literatura, la televisión y el cine. A pesar de que el término “ficción” está

¡UY QUE MIEDO!

claramente contenido en el nombre, esto no ha evitado que se genere gran discusión alrededor de situaciones distópicas como las planteadas en “2001: Odisea al espacio” o “Matrix”. En la primera, HAL 9000, una supercomputadora a bordo de la nave espacial Discovery, busca eliminar a los humanos que dudan de ella, en escenas que exhiben su comportamiento intensamente afín al de un humano emocional. En la segunda, los humanos han sido esclavizados por las máquinas creadas por ellos mismos y estas los tienen conectados a una simulación que representa el siglo XX. Sin embargo, estas situaciones tienen intrínseco el término ficción porque sin esta no serían posibles, el desarrollo tecnológico no está ni cerca de plantear una situación parecida a la de ambas películas y aún con gran inteligencia artificial, la conciencia es una característica exclusiva del ser humano. David Casacuberta dice que “el miedo a los robots no tiene mucho que ver con el desarrollo de la ciencia y la tecnología. De hecho tiene muy poco que ver con los robots per se. Se trata de un miedo profundamente filosófico, que básicamente tiene que ver con nuestra idea de quién somos realmente.” [3] Pues todos los robots son “metáforas de un miedo ancestral al ser sin alma”[3], y esto va más allá de la tecnología y la ciencia y más con nuestro miedo de enfrentarnos con otro ser consciente pero no humano. No obstante esta gran angustia se puede deber en gran parte a que cada vez la tecnología está más inmersa en nuestras vidas, los seres humanos nos estamos haciendo totalmente dependientes de ella. El ser humano tiene una gran debilidad frente a todo el sector tecnológico del que desconoce. Pero la solución a este gran problema está en la información, y no en la negación o el terror de la ciencia, mientras más nos informemos y conozcamos acerca de los avances tecnológicos de nuestra sociedad, menos debilidades tendremos ante ellos. Otro gran miedo que ha sido influenciado por la ficción, pero a diferencia del área tecnológica, si hay incidentes previos que pudieran exaltar este miedo, es el del riesgo biológico de la ciencia. Esto lo vemos excesivamente en la televisión con el género de los zombis, todo comienza con una plaga mal controlada que el ser humano y la ciencia no puede controlar y

termina con el fin del mundo como lo conocemos. Pero se puede observar en el mundo real con los desastres nucleares, como el ocurrido en Chernóbil en 1986: un reactor nuclear explotó en uno de los mayores desastres medioambientales de la historia [4]. Así que el riesgo biológico de plagas que nos conviertan en zombis tal vez no exista, pero si hay cierto riesgo asociado a la ciencia que puede afectar la salud del ser humano. Pero a raíz de este accidente los lineamientos de seguridad de las plantas nucleares se fortalecieron, y la comunidad científica está estructurada para que el error humano se reduzca lo más posible. Así que la manera de actuar ante el riesgo no es con un miedo insensato, si no con cautela que prevenga futuros errores, a la vez que posibilite el desarrollo de la ciencia. La ciencia es una disciplina necesaria para el progreso del ser humano, sin ella estamos perdidos. Y a pesar de que, como en toda disciplina, se cometen errores, estos sirven como motores para seguir moviendo al mundo hacia adelante. De hecho Julio Verne dijo que “la ciencia se compone de errores, que a su vez, son los pasos hacia la verdad.”. Por esto es necesario vencer el miedo a la ciencia, es necesario vencer la ansiedad que la gente siente cuando escucha conceptos que no entiende, y es necesario vencerla con paciencia, con tolerancia, con información y con divulgación. La ciencia necesita ser parte del acervo general de conocimiento de la humanidad, pues solo así llegaremos al futuro brillante que tanto añoramos.

29

¡UY QUE MIEDO!

Coches autónomos y controversias éticas

Matias T. Alvarado

En el año 2009 fui parte de un sentimiento colectivo de emoción por parte de la comunidad mecatrónica y científica mexicana, la razón de esto fue que un científico mexicano, el Dr. Raúl Rojas junto con su equipo de investigación de la Freie Universität Berlin, logró que un vehículo autónomo transitara, con tripulación humana a bordo, para intervenir sólo en caso de error, por las concurridas calles de la capital alemana.

compañías automotrices grandes (Audi, BMW, Nissan, MercedesBenz), como también compañías de tecnologías diversas (Tesla, Uber, Google, Lockheed Martin, Leonardo Finmeccanica) se encuentran dentro de la carrera hacia la autonomía total en sus vehículos. Ya sean en el sector comercial, militar o civil la competencia es dura ya que todos quieren ser los primeros en implementar de manera eficaz estas tecnologías para el uso común.

Un tema que en el pasado había sido combustible para historias de ciencia ficción ahora se encontraba como un logro tecnológico presente y real, con un científico mexicano como líder del proyecto. Fue un momento de emoción como también de intriga y especulación acerca de qué implicaciones pudiera llegar a tener la implementación de esta tecnología dentro de nuestras vidas cotidianas.

Ventajas y controversias

Hoy en el año 2016, diferentes industrias fabricantes de medios de transporte se han sumado al desarrollo, imparable, de vehículos autónomos. Empresas de los sectores aeronáutico, marítimo y automotriz se encuentran invirtiendo anualmente millones de dólares para el desarrollo y perfeccionamiento de sistemas para el manejo autónomo de vehículos. Pero mientras que en los sectores marítimo y aeronáutico la automatización ha ido enfocada hacia los vehículos no tripulados, en el sector automotriz ha sido completamente lo contrario. Tanto

Son evidentes las ventajas de este tipo de sistemas ante sus contrapartes humanas: los coches autónomos no se cansan, no beben alcohol y manejan, no cuentan con emociones que nublen sus juicios, no “textean” al manejar, ni tampoco se distraen fácilmente con las cosas que ven en el camino. Aproximadamente 1.3 millones de personas mueren en accidentes de tránsito al año, 94% de estos accidentes que resultan en fatalidades se atribuyen a errores humanos. Y de no tomarse acciones drásticas, se estima que para el año 2030 los accidentes de tránsito se conviertan en la quinta causa de

La perspectiva en el mediano y largo plazo es que los coches autónomos se encargarían de eliminar gran parte de los problemas de tránsito actuales. Si los humanos no tuvieran control de los vehículos en los que se transportaran se estima que habría disminuciones drásticas en el tráfico, las emisiones contaminantes y los accidentes fatales.

30

muerte en el mundo. Ante este panorama los coches autónomos se presentan cómo una solución óptima. El problema que presentan es que cuando un ser humano va manejando un vehículo y se ve expuesto a una situación peligrosa, las decisiones que tome en ese momento para evitar o evadir un accidente, independientemente del resultado de estas maniobras, se justifican como reacciones para preservar su integridad física, no como decisiones premeditadas ni maliciosas. Un vehículo autónomo ante la misma situación tendría que contar con protocolos preprogramados que le indicaran que “reacciones” tener ante cada situación específica, por lo cual sus acciones no podrían ser consideradas formalmente como reacciones, sino como decisiones deliberadas. Pongamos como ejemplo un popular caso hipotético para evidenciar la naturaleza del dilema: Se encuentra un coche autónomo, con dos pasajeros a bordo, manejando por una avenida. Una infortunada serie de eventos llevan al coche hacia un grupo de 10 personas cruzando la calle. Debido a su velocidad y las condiciones de la calle no puede frenar a tiempo para evitar una fatalidad. La única manera que encuentra el sistema de salvar a los 10 peatones es chocando el coche intencionalmente hacia una pared que hay al lado, pero con esto matando a sus dos pasajeros.

¡UY QUE MIEDO!

¿Cuál es la mejor solución? Si el sistema autónomo hubiera sido configurado con los principios éticos del utilitarismo su decisión muy probablemente sería matar a sus dos pasajeros para salvar a los 10 peatones. Propiamente una reducción del número de pérdidas humanas. Pero las cosas no son tan simples. ¿Qué pasaría si uno de los pasajeros fuera un niño pequeño? ¿O si los pasajeros del vehículo fueran personas “importantes”? Incluso se puede especular acerca de qué pasaría si la decisión fuera con una relación de uno a uno. ¿Elegiría el coche sacrificar a su único pasajero para salvar la vida del peatón?

camioneta del carril izquierdo ya que está tiene una alta calificación de seguridad aunque hacer esto exponga a 4 personas adicionales a un accidente. ¿Qué es lo que debería decidir el sistema? Los coches de hoy en día cuentan con muchos sistemas de seguridad para prevenir las fatalidades en caso de accidentes. Y a pesar de que la probabilidad de que este tipo de escenarios se presenten es muy baja, los vehículos autónomos deben estar preparados para saber cómo actuar ante estas situaciones.

Pero quién debe ser el que establezca estos protocolos sigue en debate. ¿el gobierno los debería decidir? ¿las empresas fabricantes de vehículos autónomos? ¿Ó los Bajo cuáles criterios se debería basar esta decisión es lo usuarios deberían poder decidir cuál configuración controversial. ¿Acaso los coches del futuro deberán tener elegir? en cuenta los perfiles y características únicas de cada persona para poder decidir en tiempo real a cuál es más Si llegaran a ocurrir accidentes de esta naturaleza relevante salvar? Y de ser en coches de alta autonomía ¿quién tendría la así ¿Quién o quienes serían responsabilidad legal sobre la vida de las personas los encargados de decidir afectadas? ¿El gobierno por establecer las reglas o la cuáles características vale empresa fabricante por crear el algoritmo que terminó más la pena salvar? Y bajo decidiendo cómo actuar? cuáles criterios se deberían Un reciente estudio publicado en la revista Science tomar estas decisiones. muestra la preferencia de los usuarios por vehículos ¿Edad?, ¿estudios?, ¿condición médica?, ¿logros profecon programación ética basada en el utilitarismo: el sionales? Si la relación uno a uno fuera entre un viejo y 75% de los entrevistados del estudio respondieron que un niño ¿se debería salvar al niño porque le quedan más preferirían un vehículo que sacrificara a su pasajero años por vivir o al viejo por todo lo que ha aportado al para así salvar a 10 peatones. Aunque el mismo estudio mundo durante su vida? El debate moral cada vez se mostró que los entrevistados no se encontraban de vuelve más complejo. acuerdo con que los vehículos autónomos sacrificaran a su pasajero para salvar a un solo peatón en la relación Planteemos una segunda situación, similar a la que se uno a uno. No obstante, el estudió también mostró que, planteó anteriormente, pero con sujetos diferentes: aunque los participantes estaban de acuerdo en que la programación basada en utilitarismo eran la más moral, Un coche autónomo con 2 pasajeros a bordo va seguirían prefiriendo viajar en un vehículo autónomo manejando en carretera. En el carril de su izquierda va que protegiera al pasajero a cualquier costo. Y es que una camioneta con 4 pasajeros a bordo y en el carril esto propicia la pregunta: ¿Quién estaría dispuesto de su derecha va una motocicleta con una sola persona. a comprar un coche que potencialmente decidiera Inesperadamente cae un objeto que invade todo su matarlo? carril, sin suficiente distancia para frenar, el sistema autónomo tiene que tomar una decisión: impactar el A pesar de que todo esto suene como un asunto de objeto para no involucrar a nadie más en el accidente a ficción ya existen precedentes reales en el tema: pesar de que esto signifique sacrificar a sus 2 ocupantes, evadir el objeto al chocar con la motocicleta y así salvar Joshua D. Brown era un ciudadano estadounidense a sus 2 pasajeros a pesar de que esto signifique sacrificar dueño de un Tesla Model S: un coche eléctrico con un al motociclista o evadir el objeto al chocar con la sistema autónomo de nivel 2 (el conductor debe estar

31

¡UY QUE MIEDO! listo para actuar ante cualquier imprevisto). El 7 de mayo del 2016 mientras se transportaba en su coche por una carretera de Williston, Florida se vio involucrado en un accidente fatal. Las investigaciones indican que al momento del choque el automóvil iba siendo manejado por el sistema autónomo, el cual falló en reconocer el remolque de un tráiler confundiéndolo con el brillo del sol, con esto impactando y matando involuntariamente a su único pasajero. La justicia estadounidense no ha determinado aún si la responsabilidad es de Tesla ya que su sistema falló o si la responsabilidad del choque fue culpa de Brown por no ir prestando atención al camino sabiendo que el sistema autónomo de su coche era nivel 2. Este lamentable suceso, que llamó mucho la atención de la prensa norteamericana, reabrió el debate y controversia acerca de este tipo de sistemas. Aunque como en todo, nada es completamente bueno ni completamente malo. Hay otro caso que llamó la atención de la prensa también: Joshua Neally es dueño de un Tesla Model X. Al igual que el Model S este coche también tiene un sistema autónomo de nivel 2. A finales de julio del 2016, Neally salió de su trabajo con dirección a su casa. El camino a su hogar incluía una parte de autopista, así que al incorporarse activó el sistema autónomo de su coche para que manejara ese tramo del camino. Durante el trayecto, Neally sufrió una embolia pulmonar, un padecimiento médico que puede llegar a ser mortal. En vista de la situación, decidió dejar que el sistema autónomo de su coche siguiera manejando durante 32 kilómetros hasta que se encontró cerca de un hospital a donde pudo ingresar de manera urgente. El sistema autónomo del coche potencialmente salvó su vida ya que al momento de la embolia pulmonar el dolor lo había incapacitado para seguir manejando. Estadísticamente se ha calculado que los coches autónomos reducirían en un 90% los accidentes viales, salvando muchas vidas con esto.

El factor psicológico Se ha observado que un porcentaje de la población muestra aversión hacia los coches manejados por sistemas autónomos. En el año 2015 un estudio publicado por Harris Poll mostro que 1 de cada 3 estadounidenses jamás consideraría comprar un coche autónomo debido a que no los consideran seguros y fiables. Algunos usuarios de Twitter incluso han llegado

a expresar que les provocaría emociones como miedo y preocupación el saber que su vehículo estuviera siendo controlado por un tipo de inteligencia artificial, comentarios posiblemente motivados por la noticia de la muerte de Joshua D. Brown a bordo de un Tesla. La popular compañía de tecnología y transporte Uber, ha estado haciendo pruebas de coches con sistemas autónomos en su plataforma por la ciudad de Pittsburg desde septiembre del 2016, sin embargo, ha declinado reportar el progreso de sus pruebas. Los únicos comentarios de usuario respecto a este sistema surgieron durante el evento de presentación del sistema de Uber, donde varios periodistas calificaron la experiencia de ser transportados autónomamente como “enervante” y “emocionante”. Brandon Schoettle y Michael Sivak del Instituto de investigación en transportes de la Universidad de Michigan publicaron en mayo del 2016 los resultados de una encuesta realizada a 500 conductores. Únicamente el 15.5% de todos los que respondieron la encuesta estaban a favor de vehículos completamente autónomos, mientras que el 45.8% se mostraban sin interés por ese tipo de sistemas en sus automóviles personales.

¿Cuándo y cómo? Frente a la resistencia cultural a los vehículos autónomos y la dificultad técnica que presenta el desarrollo de sistemas autónomos fiables, el Dr. Rojas esboza su uso popularizado para el año 2030. Sin embargo, la industria quiere fijar fechas anticipadas a la década del 2030. Recientemente la compañía automotriz Ford comunicó que quiere poner vehículos 100% autónomos en las calles para el año 2021. Y el magnate Elon Musk mencionó que Tesla Motors va a tener, para finales del 2017, un coche autónomo que pueda manejar de Los Angeles a Nueva York sin necesidad de asistencia humana. La controversia no se encuentra limitada por la velocidad en los avances tecnológicos, sólo es cuestión de tiempo para que los coches completamente autónomos formen parte de la nuestra cotidianidad. Las legislaciones y decisiones deberán ser tomadas antes de que esto ocurra ya que de lo contrario se podría llegar a un periodo de experimentación en la que no se conociera previamente como sería la interacción entre

32

¡UY QUE MIEDO! las diferentes configuraciones éticas de los sistemas. Paradójicamente ante la complejidad para enfrentar estos dilemas éticos se podría llegar a soluciones que traicionaran principios básicos de la inteligencia artificial cómo las tres leyes de la robótica. Aunque claro, todo esto siguen siendo especulaciones. A largo plazo se estima que la mayoría de los coches van a contar con sistemas de alta autonomía, además de una intercomunicación entre estos mismos a tiempo real, esto conllevaría cambios drásticos en la movilidad y diseño de las calles, como por ejemplo la eliminación de los semáforos. Asuntos que por ahora parecen irrelevantes dentro de la industria automotriz en unos años van a ser fundamentales, cómo bajo qué sistema operativo corra cada coche. Aunque las dificultades éticas probablemente sigan siendo las mismas independientemente de los relevantes avances tecnológicos. Mientras que probablemente sean políticos los que terminen decidiendo que configuraciones morales se les implementen a los vehículos autónomos, el verdadero desafío reside en encontrar soluciones incluyentes e imparciales, tomando en cuenta a todo momento los derechos humanos. Sea cual sea el resultado de esta carrera hacia la autonomía vehicular, las decisiones y dificultades a las que se enfrenten este tipo de máquinas van a seguir siendo las mismas y solo el tiempo dictará cuáles serán las políticas morales que prevalezcan.

33

ATRÉVETE

Atrévete

Humberto Mondragón

Tengo una caja con base cuadrada de 80 cm de lado y 20 cm de espesor. Se me ocurre que puedo usarla como mesa flotante en la alberca, ya que tiene una etiqueta que indica que su densidad es de 0.8 veces la densidad del agua (la densidad del agua es de 1000Kg/m3). ¿Será posible que me reúna con mis amigos alrededor de ella y ponga una cubeta llena de bebidas refrescantes sin que se hunda? (suponga que la cubeta contiene 4 kg de hielo y 3 paquetes que contienen 6 bebidas de 355 ml; la densidad de cada bebida es prácticamente idéntica a la del agua) c) ¿Sería la mesa capaz de sostenerme con todo y cubeta, o me hundiría al fondo? .... Yo peso 63 kg.

En el año 2112, los robots exploradores de Próxima B descubren mantos subterráneos de agua que hacen posible la colonización de ese planeta. Dado que la Tierra se encuentra súper poblada, resulta urgente enviar la buena noticia a la ONU, ¿en cuánto tiempo llegará la transmisión desde Próxima B a la Tierra? Si en 2112 los humanos poseemos la tecnología apropiada para viajar con aceleración uniforme con valor igual al de la gravedad terrestre durante un año, y la nave continua viajando a velocidad constante, ¿en cuánto tiempo llegarán los valientes colonizadores a ese planeta? ¿Medirán el mismo tiempo de viaje los colonizadores que sus familiares en la Tierra?

34

SUMÉRGETE

Sumérgete El experimento de doble rendija

Mecánica Celeste

De Gortari, Eli. Casualidad Y Determinismo. Diánoia 6.6 (1960): 22-43. Web. 21 Ago. 2016. PDF.

1] A. Chenciner and R. Montgomery (2000), A remarkable periodic solution of the three body problem in the case of equal masses, Annals of Math. 152, pp. 881-901 [2] Simó, Dynamical properties of the figure eight solution of the three-body problema, in Proceedings of the Celestial Mechanics Conference dedicated to D. Saari for his 60th birthday, Evanston, 1999, ed. A. Chenciner et al, pp. 209-228, Contemporary Mathematics 292, AMS, 2000. [3] K.C. Chen, (2008), Existence and minimizing properties of retrograde orbits to the three-body problema with various choices of masses. Annals of Math. 167, 325-348.

Feynman, Richard, Robert B. Leighton, and Mathew Sands. Vol. III Ch. 1: Quantum Behavior. The Feynman Lectures on Physics. 1964. The Feynman Lectures on Physics. Caltech, 2013. Web. 21 Ago. 2016.

Espintrónica: un nuevo giro en la electrónica contemporanea [1] http://www.muyinteresante.es/ curiosidades/preguntas-respuestas/ ique-es-la-ley-de-moore [2]http://www.mooreslaw.org/[3] http://www.nature.com/nnano/journal/v4/n12/full/nnano.2009.356.html [4]https://physics.aps.org/articles/ v2/50 [5]http://plato.stanford.edu/entries/ physics-experiment/app5.html [6]http://encyclopedia2.thefreedictionary.com/Spin-Orbit+Coupling [6]http://www.research.ibm.com/research/gmr.html [7]https://www.mpi-halle.mpg.de/ NISE/director

Las celdas fotovoltaicas [1] Nave, Olmo R. “El Dopado De Semiconductores.” HyperPhysics.. Web. 23 Oct. 2016.

El miedo a la ciencia [1] RAE. “Ciencia.” Real Academia Española. Web. 23 Oct. 2016. [2] Gabinete De Comunicación. “El “miedo” a los avances científicos”. Universidad Internacional Menéndez Pelayo. 23 Jul 2008. Web. 23 Oct. 2016. [3] Casacuberta, David. “¿Por Qué Nos Dan Miedo Los Robots?” Mètode (2010): 141-47. Mètode. 2010. Web. 23 Oct. 2016. [4] “Accidente Nuclearde Chernobyl.” Energía Nuclear. Web. 23 Oct. 2016.

Órganos en un chip BHATIA, Sangeeta N.; INGBER, Donald E. Microfluidic organs-onchips. Nature, 2014, vol. 201, p. 4. .http://wyss.harvard.edu/

35

El logaritmo y sus maravillosas propiedades Courant, Richard, and Herbert Robbins. What Is Mathematics? An Elementary Approach to Ideas and Methods. 2nd ed. London: Oxford UP, 1996. Impreso. Edwards, C. Henry. The Historical Development of the Calculus. New York: Springer-Verlag, 1979. Impreso. Hardy, G. H. A Course in Pure Mathematics. 10th ed. Cambridge: Cambridge UP, 1975. Impreso. “John Napier.” EcuRed.cu. s.p., s.f. Web. 23 Oct. 2016. M. Clark, Kathleen, and Clemency Montelle. “Logarithms: The Early History of a Familiar Function ...” Maa.org. Mathematical Association of America, s.f. Web. 23 Oct. 2016.

Camó. Reverté, Impreso.

Spivak, Michael. Calculus. Trad. José María Oller Salla y Luis Sierra 4ta ed. Barcelona: 2015.

Weisstein, Eric W. “Napierian Logarithm.” Math World. Wolfram Alpha, s.f. Web. 23 Oct. 2016.

SUMÉRGETE

Apología matemática Diccionario en línea de la lengua española, http://dle.rae. es/?id=KnPZIuF (Consultado el 7 de mayo del 2016) Diccionario en línea de la lengua española, http://dle.rae.es/?id=3q9w3lk (Consultado el 7 de mayo del 2016) Atala, B. (2008). Las matemáticas y la Mona Lisa. [Córdoba]: Almazara Frenkel, Edward. (2014). Love and Math. Graham, L. y Kantor, J. (2009). Naming infinity. Cambridge, Mass.: Belknap Press of Hardvard University Press. Hardy, G. y Snow, C. (1992). A mathematician´s apology. London: Cambridge University Press. Stewart, I (1995). Concepts of Modern Mathematics. New York: Dover Publications, Inc. Stewart, I.(2006). Letters to a young mathematician. New York: Basic Books, a member of the Perseus Book Group. Resultado de prueba ENLACE 2014 Distrito Federal, http://enlace.sep. gob.mx/content/ms/docs/2014/ historico/09_EMedia_2014.pdf (Consultado el 7 de mayo del 2016)

Coches autónomos y controversias éticas

Abandonando el método científico

Society of Automotive Engineers International. “Levels of Driving Automation Are Defined in New SAE International Standard J3016”. (Documento). SAE International. 2014. http://www.sae.org/misc/pdfs/ automated_driving.pdf/ 26 de octubre del 2016.

Scientific Method; Stanford Encyclopedia of Philosophy; Fecha de consulta: 8/05/16. URL: http://plato.stanford. edu/entries/scientific-method/

Bonnefon, Jean-François. Shariff, Azim. Rahwan, Iyad. “The social dilemma of autonomous vehicles”. (Artículo). Science Magazine. 2016. http://science. sciencemag.org/content/352/6293/1573 26 de octubre del 2016. Lee, Rebecca. “The ethical dilemmas facing self-driving cars”. (Artículo). CBS News. 2016. http://www.cbsnews.com/news/canself-driving-cars-be-programmed-tomake-ethical-decisions/ 26 de octubre del 2016. Knight, Will. “How to Help SelfDriving Cars Make Ethical Decisions.” (Articulo). MIT Technology Review. 2015. https://www.technologyreview. com/s/539731/how-to-help-selfdriving-cars-make-ethical-decisions/ 26 de octubre del 2016. Emerging Technology from the arXiv. “Why Self-Driving Cars Must Be Programmed to Kill”. (Artículo). MIT Technology Review. 2015. https:// www.technologyreview.com/s/542626/ why-self-driving-cars-must-beprogrammed-to-kill/ 26 de octubre del 2016.

TheIntelligibilityofNature:HowScience MakesSenseoftheWorld.Peter Dear. xii + 242 pp. University of Chicago Press, 2006. Brown, J. R. (1985). Explaining the success of science. Ratio Bristol, (1), 49-66. Plato’s Natural Philosophy; Notre Dame Philosophical Reviews. Fecha de consulta: 08/05/16. URL: https://ndpr. nd.edu/news/24382-plato-s-naturalphilosophy-a-study-of-the-timaeuscritias/ Aristotle; Stanford Encyclopedia of Philosophy; Fecha de consulta: 8/05/16. URL: http://plato.stanford. edu/entries/aristotle/ Quote by Galileo Galilei; Good reads; Fecha de consulta: 8/05/16. URL: http://www.goodreads.com/ quotes/28019-philosophy-nature-iswritten-inthat-great-book-which-ever Ducheyne, S. (2005). Mathematical models in Newton’s Principia: A new view of the ‘Newtonian Style’. International Studies in the Philosophy of Science, 19(1), 1-19. John Stewart Mill; Stanford Encyclopedia of Philosophy; Fecha de consulta: 8/05/16. URL: http://plato.stanford. edu/entries/mill/#SciMet Hoyningen-Huene, Paul. Systematicity: The nature of science. Oxford University Press, 2013.

36

SUMÉRGETE

Ruse, M. (2014). Book review of P. Hoyningen-Huene, Systematicity: The nature of science. Philosophy of Science, 81(2), 284–288. Haack, S., 1995, “Science is neither sacred nor a confidence trick”, Foundations of Science, 1(3): 323–335.

Dewey, John. How we think. Courier Corporation, 1997. Feynman on Scientific Mehtod; Fecha de consulta: 8/05/16. URL: https://www.youtube.com/ watch?v=EYPapE-3FRw Feyerabend, Paul. Against method. Verso, 1993.

The Scientific Method is a Myth; Discover; Fecha de consulta: 8/05/16. URL: http://blogs.discovermagazine. com/crux/2015/10/28/scientific-method- myth/#.VzA4pmMnVEQ

Paul Feyerabend; Storage, Bill; Fecha de consulta: 8/05/16. URL: https://themultidisciplinarian. com/2012/08/07/the-worst-enemy-ofscience/

The Scientific Method is a Myth; Forbes; Fecha de consulta: 8/05/16. URL: http://www.forbes.com/sites/chadorzel/2015/11/03/the-scientific-methodis-a-myth-long-live-the-scientific method/#3aed9a7b14eb

From the world of science to the world of research?; Latour, Bruno; Fecha de consulta: 8/05/16. URL: http://science. sciencemag.org/content/280/5361/208 Which is more important: Military drones or a cure for cancer?; Forbes; Fecha de consulta: 8/05/16. URL: http://www.forbes.com/sites/stevensalzberg/2013/12/29/which-is-moreimportant-military-drones-or-a-curefor-cancer/#51652377316e Big pharmaceutical companies are spending far more on marketing than research; The Washington Post; Fecha de consulta: 8/05/16. URL: https:// www.washingtonpost.com/news/ wonk/wp/2015/02/11/big- pharmaceutical-companies-are-spending-farmore-on-marketing-than- research/ 21.Rizoma; RAE; Fecha de consulta: 8/05/16. URL: http://dle.rae.es/?id=WX0RW2W 22.Deleuze, Gilles, and Félix Guattari. A thousand plateaus: Capitalism and schizophrenia. Bloomsbury Publishing, 1988. 23.Rhizome; The University of Chicago; Fecha de consulta: 8/05/16. URL: http://csmt.uchicago.edu/glossary2004/rhizome.htm

37

El gato en la caja es una publicación semestral de la Universidad Iberoamericana, A. C. , Ciudad de México, Prol. Paseo de la Reforma 880, Col. Lomas de Santa Fe. C. P. 01219, Ciudad de México. Tel. 59 50 40 71. www.uia.mx, Editor Responsable: Alfredo Sandoval Villalbazo. No. de Certi cado de Reserva al Uso Exclusivo otorgado por la Dirección de Reservas de Derechos por la Secretaría de Cultura: 04-2016- 021715592700-102. Certi cado de Licitud de Título, Certi cado de licitud de contenido: En Trámite. Domicilio de la publicación: Departamento de Física y Matemáticas, Universidad Iberoamericana, A. C. , Ciudad de México, Prol. Paseo de la Reforma 880, Col. Lomas de Santa Fe. C. P. 01219, Ciudad de México. Tel. 59 50 40 71. Impresión: Sandoval Impresores, Tizapan 172 Int. Local 1, México, Col. Metropolitana 3a. Sección, Nezahualcóyotl, México, C.P. 57750. Distribución: Universidad Iberoamericana, A. C. , Ciudad de México, Prol. Paseo de la Reforma 880, Col. Lomas de Santa Fe. C. P. 01219, Ciudad de México. Tel. 59 50 40 71. Se prohíbe la reproducción de los artículos sin consentimiento del editor. El gato en la caja No. 3, se terminó de imprimir el mes de diciembre de 2016 con un tiraje de 50 ejemplares.

38