Estamos en pleno renacimiento de la investigación en ...

de Internet en el mundo. Ahora las ... las universidades del mundo se han unido a este objetivo. ¿Quién ganará? ..... a los campeones del programa de concurso Jeopardy! “La apa- rición en ese .... vence al campeón mundial de ajedrez.
716KB Größe 4 Downloads 111 vistas
EN PORTADA

Estamos en pleno renacimiento de la investigación en inteligencia artificial (IA), con software más eficiente, mayor poder de cómputo y vastas cantidades de datos generadas a diario por miles de millones de usuarios de Internet en el mundo. Ahora las máquinas son más listas y se preparan para entrar en nuestras vidas. Por Gerardo Sifuentes

46 muyinteresante.com.mx

FOTOARTE: JOSÉ ANTONIO DÍAZ DE LEÓN

INTELIGENCIA ARTIFICIAL

EN PORTADA

E

SISTEMAS INTELIGENTES Los motores de búsqueda y asistentes personales son ejemplos de aplicaciones de inteligencia artificial.

Después de algunos ‘inviernos’ muy duros, es decir épocas en la historia de la tecnología moderna donde el interés por el desarrollo de la inteligencia artificial fue casi nulo, hoy vivimos un nuevo auge, otro renacimiento de la especialidad, con la diferencia de que esta vez se cuenta con un notable incremento en la capacidad de cómputo, lo que ha permitido que las máquinas puedan husmear en grandes bases de datos y encontrar tendencias y 48 muyinteresante.com.mx

élite, entre ellos nada menos que al aclamado inventor y futurista Ray Kurzweil, a quien nombraran su jefe de ingeniería. Facebook, Yahoo, Intel, hasta Pinterest y Twitter, son también algunos de los competidores más reconocidos, además de una larga lista de consorcios independientes que en los siguientes años serán absorbidos por grandes empresas. Se estima que la inversión privada en el sector aumentó 60% en el último año, y las universidades del mundo se han unido a este objetivo. ¿Quién ganará? ¿Qué beneficios obtendremos como sociedad? En el escenario comercial, en un futuro que luce inmediato, Google tendría una aplicación en nuestro teléfono que escuche nuestras conversaciones y tome dictado, que lea nuestros correos, nos recuerde cualquier compromiso o deadline, y que se anticipe y nos brinde consejos o alertas para manejar nuestra atribulada existencia. En áreas como la salud, por poner otro ejemplo, tendremos programas de diagnóstico desarrollados por Watson que ayuden a combatir enfermedades o a descubrir nuevos fármacos para erradicarlas según el segmento de la población. Pero si las IA tienen tal capacidad, también podrían ser infectadas por un virus y presentar graves fallos, o revelar nuestros datos a bandas de delincuentes informáticos que sepan cómo engañarlas y ejecutar transacciones ilegales, crear corporaciones fantasma y llevar a cabo fraudes, por mencionar sólo algunos de los riesgos que han sido analizados por expertos.

ESCÉPTICOS Y CREYENTES. (Arriba) El profesor Douglas Hofstadter. (Aquí) Ray Kurzweil, jefe de ingeniería de Google.

Ha iniciado la carrera por obtener una computadora ‘inteligente’; con la capacidad de comprender nuestro lenguaje, hacer inferencias, aprender y tomar decisiones propias.

FOTOS: EFE/ ZUMA PRESS; GETTY IMAGES

Temporada de IA

Fuentes: Popular Mechanics. servicios.elpais.com/diccionarios/castellano

FOTOS: EFE/ ZUMA PRESS; GETTY IMAGES

I

maginen el orgullo de una madre al escuchar a su hijo decir sus primeras palabras; cuando el infante reconoce los colores, o aprende a distinguir las letras del alfabeto. Después, el día en que pudo atarse las agujetas de los zapatos tras unos cuantos intentos. O cuando aprendió a andar en bicicleta sin haber requerido la ayuda de las pequeñas ruedas entrenadoras; la primera página completa que leyó de un libro, o cuando supo cómo navegar por Internet. Todo esto lo ha logrado gracias a la capacidad del cerebro humano, que permite traducir y codificar la información y estímulos que percibimos por los sentidos, e interactuar con el ambiente que nos rodea. Nuestra vida es sentir, ver, escuchar, oler; tener experiencias personales o colectivas, hacer amistades, discutir con otros, aprender de otros, enseñar a otros. Dado que la sociedad moderna ha alcanzado cierto nivel de capacidad tecnológica, ¿podremos algún día construir un cerebro electrónico que pueda de cierta manera tener la habilidad de pensar, recordar y resolver problemas por sí mismo? Suena ambicioso, pero actualmente es el objetivo de una carrera en la que compiten los gigantes tecnológicos y centros de investigación del planeta: obtener una computadora ‘inteligente’; con la capacidad de comprender nuestro lenguaje y a partir de la información obtenida hacer inferencias, aprender, mejorar su desempeño y tomar decisiones por su cuenta. Quien lo consiga, indudablemente, sentirá ese proverbial orgullo maternal.

hacer predicciones; hacer traducciones en tiempo real o reconocer objetos: se han vuelto más listas, por decirlo de algún modo; ahora saben más cosas y pueden tomar ciertas decisiones, incluso recomendarnos qué tipo de cosas nos gustan o seguramente nos gustarán según nuestros hábitos de consumo. Aunque están poco a poco interactuando con la gente, recomendándole qué películas ver en Netflix, o encontrando amigos perdidos en Facebook, esto apenas es un atisbo de su verdadero potencial en áreas como conectividad móvil, redes sociales, big data y el llamado Internet de las cosas. A mediados de la década de 1980, con el auge de las PC, la empresa IBM gobernaba al mundo, y el ‘primer invierno’ de la IA terminaba. Hoy, en términos de mercado, el mundo pertenece a Apple, y la industria tecnológica resurge del ‘segundo invierno’. Google, el motor de búsqueda obligado, tiene quizá la aplicación basada en inteligencia artificial más desarrollada en términos de alcance público; su algoritmo ‘aprende’ a diario con las cerca de 4 millones de búsquedas solicitadas por minuto, nutriéndose de las necesidades de los 1,200 millones de usuarios que cada día acceden a él. Una compañía que empezó su negocio de venta en línea, Amazon, ahora se ha diversificado y ofrece servicios de computación en nube a empresas de gran alcance y popularidad como Netflix e Instagram, e incluso obtuvo, tras 18 meses de negociaciones, un contrato con la CIA, dejando atrás a IBM en la competencia. Sin embargo, esta compañía tiene todas sus esperanzas puestas en Watson, la supercomputadora más famosa del mundo, que puede ofrecer todo el espectro de servicios que sus competidores abarcan. Entre todas estas empresas existe una carrera por crear la IA más eficiente, y ofrecer este servicio al mayor número de compañías y particulares. Según datos de The New York Times, se estima que a la fecha se han invertido 2 mil millones de dólares en alrededor de 300 empresas que desarrollan tecnología de este tipo. Tan sólo Google ha comprado 14 empresas dedicadas a esta especialidad y reclutado equipos de investigadores de

l tema de la conciencia es uno de los debates entre la comunidad científica al momento de calificar como ‘inteligente’ a un sistema informático. Douglas Hofstadter, científico cognitivo de la Universidad de Indiana, EUA, y autor del libro Gödel, Escher, Bach: un eterno y grácil bucle, argumenta que sistemas como Watson y el motor de búsqueda de Google no pueden ser considerados a toda regla como ‘inteligencias’, esto con base en la comprensión de sus propias acciones, tomando en cuenta la estricta definición de la palabra ‘inteligencia’, que es “La capacidad para comprender y conocer las cosas y formar nuevas ideas”. El tema de la conciencia en las máquinas es un dilema tecnofilosófico que lleva años discutiéndose. Al respecto Hofstadter ha llegado a declarar “ [Watson] No entiende lo que está leyendo. De hecho, ‘leer’ no es la palabra adecuada. No lee nada porque no comprende nada. Watson encuentra el texto sin tener la menor idea de lo que significa. En ese sentido, no hay inteligencia allí. Es listo, es impresionante, pero es absolutamente vacuo... Google Translate se desarrolla y avanza porque los programadores inventan nuevas maneras para ‘ordeñar’ de la rapidez de las computadoras y la inmensidad de su base de datos. Pero avanza en el sentido absoluto de comprender el texto.”

Pienso, luego existo

Nuestro cerebro es una supercomputadora, la mejor. La inteligencia que de él surge es lo que ha permitido al hombre dominar el planeta. Con ella ha creado los programas o algoritmos informáticos –el conjunto de operaciones sistemáticas que permiten realizar cálculos y solucionar problemas– con los que controla el comportamiento de una máquina. Así, el cerebro humano es el sistema de cálculo más complejo que conocemos, y hacer analogías con las computadoras es comprensible, aunque ambos realizan diferentes clases de tareas. Para nosotros reconocer el rostro de una amiga, la letra de otra persona o identificar al autor de una pintura famosa es automático, un acto que lleva millonésimas de segundo en procesarse. En cambio, analizar una base de datos nos podría llevar mucho, mucho tiempo si lo hiciéramos de manera manual; pero cualquier computadora debidamente programada puede solucionarlo en segundos. muyinteresante.com.mx 49

EN PORTADA

realizó una traducción en tiempo real del inglés al chino mandarín durante una conferencia dictada por su jefe de ingeniería. Pero el valor agregado fue que los vocablos chinos fueron escuchados con la voz del propio Rick Rashid.

Memoria a la inversa

PROCESOS. Unidad procesadora de gráficos, GPU, de Nvidia. (Derecha) Patrones del comportamiento dinámico de una red neuronal artificial.

E stos son algunos de los momentos más importantes en la investigación y práctica de la inteligencia artificial.

50 muyinteresante.com.mx

La Máquina Experimental de Pequeña Escala de Manchester es la primera computadora en ejecutar un algoritmo almacenado en su memoria.

Alan Turing publica su ensayo “Maquinaria computacional e inteligencia”, en el que plantea la llamada ‘Prueba de Turing’ bajo la pregunta: ¿las máquinas pueden pensar?

La Ferranti Mark 1 se convierte en la primera computadora electrónica comercial. El doctor Dietrich Prinz crea uno de los primeros programas de ajedrez que podía correr en esta máquina.

FOTOS: EFE/ ZUMA PRESS; GETTY IMAGES; GOOGLE LAB

La memoria de las máquinas podría diseñarse siguiendo el patrón fisiológico del aprendizaje humano.

FOTOS: EFE/ ZUMA PRESS; GETTY IMAGES; DEPARTMENT OF PHYSICS/ UNIVERSITY OF WISCONSIN-MADISON

En la lógica de la ingeniería computacional, la memoria de las máquinas podría diseñarse siguiendo el patrón fisiológico del aprendizaje humano; y no es que sea el único modelo a seguir, o que sea necesario imitarlo para construir una reproducción fiel, sino es básicamente porque se trata del camino que mejor se conoce –aunque el mismo cerebro, desde POTENCIA. Aspecto de una computadora D-Wave que intenta experimentar con el nivel fisiológico y de conciencia, sigue entrañando las posibilidades del cálculo cuántico. muchos misterios–. Para ello se aplica la ingeniería inversa: analizar el funcionamiento de un sistema en En años pasados Google experimentó con una red neuronal arti- detalle para intentar crear un dispositivo o programa que haga ficial, una rama de la IA que inició en 1940 y que usa algoritmos la misma o similar tarea sin copiar la original. Es por ello que se le ha dado prioridad al desarrollo del Aprende aprendizaje inspirados en la forma en que nuestro cerebro memoriza las cosas, o al menos como entendemos que tal proceso dizaje Profundo (AP), Deep Learning en inglés, rama de la IA que ocurre. Este arreglo de alrededor de 16,000 procesadores con mil busca imitar la red neural de la corteza cerebral. En este sentido, el modelo a ‘desarmar’ es la corteza millones de conexiones que y recrearla por medio de algorithurgaron entre millones de mos y capacidad de cómputo. imágenes capturadas de You Las células del cerebro, las Tube, pudo reconocer con un 100,000 millones de neuronas gran porcentaje de aciertos con las que nacemos, cuentan imágenes de gatos, el animal con unas fibras ramificadas omnipresente de Internet. Podría parecer mundano, pero es un paso excepcional en la carrera llamadas dendritas que crecen a medida que aprendemos a por la IA. La última hazaña que logró esta empresa fue un al- caminar, hablar, escribir o practicar alguna habilidad. Como si goritmo con la capacidad de aprender desde cero a jugar varios fueran ramas de un árbol, cada dendrita crecerá a medida que videojuegos de Atari, quizá los más elementales del repertorio aprendemos –y serán tan largas como las ‘cultivemos’ conforme gamer; no sólo aprendió a jugarlos sin que se le explicara de qué reforcemos nuestro aprendizaje–. Cada neurona es una simple trataban, es decir aprendió por sí mismo, sino que en algunos unidad procesadora que recibe y combina señales desde y hacia casos mejoró su desempeño y encontró la manera de ejecutar otras neuronas. Si la combinación de entradas es suficientemente fuerte la salida de la neurona se activa. Cuando dos dendritas trucos mejor que cualquier experto. En otros campos, Microsoft le apuesta al mejoramiento de un entran en contacto, se forma un punto de unión e intercambio software de reconocimiento de lenguaje. En 2012 su software de información por medio de señales eléctricas llamado sinapsis;

cada neurona puede establecer hasta 10,000 sinapsis, quizá un poco más, no se tiene la cantidad exacta. Las sinapsis pueden variar en número a cada segundo, algunas son fuertes y otras débiles, tanto que ni siquiera envían señales. Es sólo a través del aprendizaje que las sinapsis débiles pueden ser reforzadas; no importa cuántas sinapsis tenga una neurona, siempre tendrá el potencial para crecer más. En promedio, según se calcula, podrían existir hasta 50 trillones de sinapsis. ¿Qué máquina sería capaz de reproducirlas?

Hardware a la medida Como mencionamos líneas atrás, las Redes Neuronales Artificiales (RNA) son sistemas que aprenden de la experiencia, pueden cambiar su comportamiento en función del entorno en el que se encuentren, generalizan de ejemplos previos a ejemplos nuevos y abstraen las características principales de una serie de datos. La construcción de estas RNA requeriría en todo caso procesadores que pudieran emular precisamente las funciones de una neurona, especialmente en su capacidad de interconexión con otras, y la búsqueda ha sido intensa.

“Logic Theorist”, el primer programa de inteligencia artificial diseñado por Allen Newell, Herbert A. Simon y Cliff Shaw, resuelve 38 de los primeros 52 teoremas del libro Principia Matematica.

En 1999 la compañía de microprocesadores Nvidia creó la primera unidad procesadora de gráficos, o GPU por sus siglas en inglés. Esta clase de chip permitió realizar varias operaciones en paralelo que los videojuegos requerían. Fue diez años más tarde que un equipo de la Universidad de Stanford descubrió que podían incorporarse al desarrollo de las redes neurales, y el uso de esta clase de chips es el que sustenta las aplicaciones de IA utilizadas en Facebook o Netflix. En 1971 el ingeniero Leon Chua pensó que debía existir un elemento que complementara los tres dispositivos electrónicos que se conocían entonces para armar circuitos: resistor, capacitor e inductor. El cuarto elemento faltante lo bautizó como memristor, siglas que refieren a un ‘resistor de memoria’. Sin embargo éste se mantuvo por décadas en el plano teórico, y no fue sino hasta 2008 que investigadores de los laboratorios de la empresa estadounidense Hewlett Packard demostraron que era posible a escala nanométrica, y sería hasta este año que un equipo de la Universidad de California y la Universidad Stony Brook, en EUA, consiguiera armar un circuito que emula en la forma más sencilla las sinapsis de un cerebro biológico. Este esfuerzo, sumado al ‘simulador electrónico’ de un cerebro realizado en laboratorios de IBM, dio como resultado un procesador que imitó la actuación de mil millones de neuronas y 10,000 billones de conexiones o sinapsis. Estos chips inspirados en la arquitectura fisiológica del cerebro, o ‘neuromórficos’, buscarán abrirse paso en el mercado durante los siguientes años. De la misma manera, los memristores serían en todo caso el caballo de batalla de Hewlett Packard, compañía que ha perdido negocio en los últimos años pero que ahora apuesta a un ambicioso proyecto secreto conocido como The Machine (La máquina).

Durante la Conferencia de Dartmouth, en el Dartmouth College, EUA, propuesta por Marvin L. Minsky, Nathaniel Rochester, de IBM, y Claude E. Shannon, de Bell Telephone Laboratories, se establecen las bases para la inteligencia artificial moderna, término que es hecho público por primera vez en la historia, acuñado por el organizador del evento, John McCarthy.

Arthur Samuel, de la empresa IBM, crea el primer programa para juego de damas inglesas, convertido en prueba estándar para evaluar las capacidades de las inteligencias artificiales.

muyinteresante.com.mx 51

EN PORTADA

“Watson no es simplemente una inteligencia artificial”, asegura en entrevista Selene Orozco, directora de Tecnología de IBM México. Ella se refiere a la famosa computadora que en 2011 derrotara a los campeones del programa de concurso Jeopardy! “La aparición en ese concurso fue su presentación en sociedad, ahora es 24 veces más rápido… es un servicio, un sistema, que capta información en lenguaje natural, lo procesa y te puede ayudar a inferir soluciones o alternativas ante un problema, basado en evidencias.” La irrupción del poder de procesamiento de las máquinas creadas por IBM en los medios ha contrastado con su desempeño financiero en los últimos años; sin embargo, el historial de investigación y desarrollo que le precede –es de las pocas compañías de tecnología que han dado al mundo varios Premios Nobel– no puede pasarse por alto. Es por ello que las aplicaciones potenciales de Watson se encuentran en etapa experimental, con problemas reales, y poco a poco acumula experiencia para sus programas de sistemas cognitivos, el término que emplean para referirse a la IA. “Cuando vas al doctor –explica Orozco– le dices cuáCAPACIDADES. ( Arriba) Un niño juega les son tus síntomas, y basado Minecraft. (Aquí) Chris Welty (izq.), en éstos, y en la experiencia de IBM, discute con Naveen Sundar sobre los usos que pueden darse con que tiene el doctor, él dirá un la computadora Watson. diagnóstico y recomendará un tratamiento. Watson hace lo mismo: ante una serie de hechos e información, infiere cuál es probablemente la enfermedad que tengas, basado en el historial y casos similares, y dirá el tratamiento más adecuado basado en resultados que se tengan identificados anteriormente. Sin embargo, y esto es muy importante,

Herbert A. Simon, J.C. Shaw y Allen Newell crean el programa General Solver Problem, base de la llamada arquitectura computacional cognitiva.

La película 2001: Odisea del espacio, del director Stanley Kubrick, basada en una historia de Arthur C. Clarke, populariza el concepto de inteligencia artificial a través del siniestro personaje de la computadora HAL 9000.

52 muyinteresante.com.mx

ELIZA se convierte en el primer programa de procesamiento de lenguaje natural, creado por Joseph Weizenbaum.

Ocurre el ‘primer invierno’ de la inteligencia artificial: los fondos para la investigación sobre el tema se reducen de manera drástica, además el interés científico se ve menguado por los escasos resultados obtenidos.

no te dirá qué es lo que debes hacer; será el doctor, el humano, el que va a decidir, con base en las evidencias y hechos que Watson mostrará por orden de resultados, cuáles son los que te recomienda. Watson integrará la opinión de infinidad de médicos, basado en evidencia científica, resultados, estudios, literatura, ahorrando una curva de aprendizaje, de investigación. Esto tendrá impacto en la industria de una manera nunca vista”. Aunque cambiar cualquier paradigma dentro de la industria no es un proceso que pueda realizarse de la noche a la mañana, la perspectiva de llevarlo a cabo sólo puede conseguirse con un acercamiento multidisciplinario, una convergencia de distintas especialidades que ataquen problemas comunes desde distintos ángulos. Es por ello que quizá VERSIÓN ANTERIOR. Aspecto de Watson en 2011. Ahora ha reducido su tamaño IBM, a diferencia de algunas compañías de tecnología y es 24 veces más rápido e inteligente. como Google, tenga una mayor diversidad de inversión en temas estratégicos como la máquinas, la pregunta sería: ¿cómo nube, telefonía móvil, análisis puede un programa de computadora de datos, comercio electrónico aprender de los datos observados? y seguridad, para integrar todos Esto me llevó al área de ‘aprendizaje estos servicios en una solución automatizado’, y he pasado toda mi completa. “Lo que IBM está carrera desarrollando algoritmos que haciendo es reconocer áreas permiten a las computadoras aprendonde se necesitan expertos en der de datos.” El objetivo de su línea otras áreas y realizar alianzas, de investigación es plenamente ciencomo con Apple, por ejemplo. tífico, y es un ejemplo de aplicación La gran ventaja competitiva es que puede proveer soluciones, está migrando adonde no se han no comercial de las IA. “Uno de mis proyectos se llama BirdCast. ofrecido servicios, abriendo puertas a otros mercados, nichos, a El objetivo es comprender la migración de aves en América del compañías más pequeñas, un ecosistema de desarrolladores.” Norte y producir pronósticos de migración con 24 y 48 horas de Orozco se refiere a herramientas gratuitas como Bluemix, con antelación. El modelo utiliza datos de observadores voluntarios la que estudiantes universitarios y empresas pueden crear apli- de aves, que completan una lista de verificación cada vez que las encuentran, y luego va la información a www.ebird.org (o, en el caciones en nube para Watson. “Mi interés por la inteligencia artificial fue el resultado de caso de México, aVerAves http://ebird.org/contenido/averaves/). estudiar filosofía de la ciencia”, comenta en entrevista el doctor El modelo de la migración ayudará a los científicos a comprender Thomas G. Dietterich, director de Sistemas Inteligentes en la cómo es que los pájaros deciden migrar (cuándo, dónde, qué tan Universidad Estatal de Oregon, EUA. “Me sentí fascinado por rápido, hasta adónde llegan, etc.) para que podamos ayudar a las maneras que tenemos de aprender sobre el mundo. Para las las especies que están amenazadas y en peligro de extinción.”

Las redes neuronales artificiales son sistemas que aprenden de la experiencia y cambian su comportamiento en función del entorno en el que se encuentren.

FOTOS: IBM/ ARCHIVE; EFE/ ZUMA PRESS; GETTY IMAGES

Aprender del mundo

Existe una gran variedad de IA que podemos encontrar en los mundos virtuales de los videojuegos. Esta rama de la informática podría ser el mejor sitio para probar las nuevas IA, en ambientes relativamente controlados con los que pueden aprender de los usuarios humanos. Desde el popular Minecraft, donde cada uno de los jugadores tiene su propio ‘mundo’ en el que las rocas, minas, árboles y montañas se generan al azar cada vez que se comienza un nuevo juego, hasta No Man’s Sky, donde cada planeta de los millones que lo conforman es único, generándose al momento de ser descubierto por el jugador; ajustándose a sus propias leyes físicas, cuyos habitantes, plantas o animales, crecerán y evolucionarán de manera diferente a cualquier otro. En esta clase de ambientes las IA más simples pueden formar ejércitos de robots o ‘bots’ que se mueven por el mundo virtual, a menudo en grandes grupos, formando auténticas turbas; objetos que pueden ser ejércitos o monstruos, cuya programación les puede pedir que ‘maten’ a los avatares humanos que encuentren en su camino; que su prioridad sea ‘matar’ o ser ‘matado’. Otros bots son los personajes non-players, no jugadores, aquellos que no buscan ‘matar’ sino interactuar con el jugador. Un ejemplo sería un comerciante, quien puede tener un objeto valioso, ofrecerlo y regatear con el interesado. O quizá este bot pueda formar parte de una red o ‘facción’ dentro del universo del juego, y por medio de las acciones del jugador convertirlo en aliado o enemigo, y con él al resto de sus compañeros de facción. Por supuesto que pueden existir IA más sofisticadas que interactúen con los participantes en maneras más complejas, como el caso de No Man’s Sky. De este modo, pensemos en un videojuego masivo, con participantes de todo el mundo, quienes serían los ‘maestros’ de los cuales una incipiente IA pueda aprender a comportarse para que en algún momento pudiera dar el salto del juego a la vida real.

FOTOS: EFE/ ZUMA PRESS; GETTY IMAGES

Campo de entrenamiento

Kunihiko Fukushima crea el Neocognitron, propuesta de red neural artificial para reconocimiento de escritura manual, primera de aprendizaje profundo con bases fisiológicas.

John Laird, Allen Newell y Paul Rosenbloom, de la Universidad Carnegie Mellon, EUA, crean el sistema de arquitectura cognitiva Soar, que pretende simular el comportamiento humano.

Ante la falta de mayor capacidad de cómputo, sobreviene el llamado ‘segundo invierno’ de la inteligencia artificial, suspendiéndose la mayoría de las investigaciones sobre el tema.

El automóvil S-class, de Ernst Dickmanns, recorre 1,678 km de ida y vuelta en autopistas alemanas, desde Munich a Dinamarca, a una velocidad promedio de 158 km/h, sin intervención humana.

muyinteresante.com.mx 53

EN PORTADA

E

54 muyinteresante.com.mx

Junior, automóvil robot de la Universidad de Stanford, gana el concurso DARPA Grand Challenge, tras recorrer de manera autónoma 200 kilómetros a través del desierto.

El inventor Ray Kurzweil menciona que la ‘singularidad’, evento donde la inteligencia artificial se mostraría superior a la inteligencia humana, podría ocurrir a mediados del siglo XXI.

Sale a la venta el sensor de videojuego Kinect, de Microsoft, desarrollado con algoritmos obtenidos en la investigación en inteligencia artificial.

En las películas de ficción por lo general se habla de un riesgo fatal al momento de emplear IA en la vida ordinaria, y quizá sea la idea que permea en el inconsciente colectivo debido a una gran cantidad de blockbusters de acción y thrillers. Aunque la realidad no sería tan espectacular, en definitiva los problemas que podrían enfrentarse, como toda tecnología novedosa, no son menos preocupantes. Diettrich confirma: “Sí, hay riesgos. Hay tres problemas potenciales. En primer lugar, los programas de IA pueden contener errores de programación o bugs. En algunos problemas, como la búsqueda en Internet, esto es sólo una pequeña molestia. Pero en otros casos, como en los coches de autoconducción o el diagnóstico médico, un error podría causar lesiones o la muerte. Los programas de IA son complejos, lo que los hace difíciles de probar y certificar que no contienen errores. De modo que si bien es cierto que todos los programas de computadora pueden contener errores, los programas de IA pueden ser más propensos a ellos. Por otro lado, los programas de IA también pueden ser capaces de controlar su propio comportamiento mejor que los programas tradicionales. Así que pueden ser capaces de detectar sus propios errores”. El segundo riesgo que advierte Diettrich, son los ciberataques; cualquier sistema informático es propenso a uno. Si estamos dispuestos a que tomen trabajos peligrosos como conducir automóviles o manejar los residuos radiactivos, un ciberataque en este tipo de sistemas podría ser muy peligroso. Sin embargo,

los sistemas de IA puede ser capaces de controlarse a sí mismos y reconocer los ciberataques. No obstante, y esto es tema de mucho material de ficción, podría llegar el caso de que una IA sea demasiado buena para defenderse, tanto que podría impedir que sus propios ingenieros le hagan cambios y corregir errores, y esto constituye el tercer riesgo. Pero los sistemas de IA no son como los robots de las películas o la televisión, no tienen voluntad ni sentimientos, y si COMPARTIDO. El software para se programan adecuadamente nube Bluemix de IBM está no tomarán cualquier acción diseñado para crear aplicaciones para el sistema Watson. si no se les ha instruido para ello. “Muchos investigadores han comenzado a trabajar en estos problemas de seguridad”, dice Diettrich, “así que estoy optimista en que vamos a encontrar buenas maneras de controlar estos riesgos”. Pero no hay de qué preocuparse por el momento. A pesar de la impresionante capacidad que las supercomputadoras tienen y el software que les brinda la inteligencia, los sistemas de IA son una rama tecnológica que se encuentra en expansión, y el proceso de prueba y error apenas comienza. Ya están presentes, y hasta ahora los resultados han sido positivos. “Watson está aprendiendo, está en la primaria por decirlo de alguna manera”, menciona Orozco, cuyas palabras podrían aplicar a casi cualquier otro proyecto que en estos momentos se encuentre en desarrollo.“El potencial que tiene es muy grande, y será tan grande como queramos que sea.” Quizá lo que en el fondo deseamos para las IA, y en general para toda tecnología disruptiva, sea la misma visión PARA SABER MÁS que se tiene de este sistema: “lo que se busca es revolucio03.ibm.com/marketing/mx/watson/ what-is-watson Sitio en español de nar las diversas industrias, la la computadora Watson de IBM manera en la que se mueve la s.google.com/+QuantumAILab/posts sociedad y mejorar la calidad Sitio web del equipo Google Quantum A.I. Lab Team de vida de las personas”.

La computadora Watson de IBM es el ganador absoluto del programa estadounidense de trivia Jeopardy!, venciendo a dos de los mejores participantes de todos los tiempos.

Una computadora del Google X Lab logra identificar, por medio de un algoritmo de aprendizaje profundo, rostros de gatos en una muestra de 10 millones de imágenes de video de YouTube.

Terminator no, por favor

FOTOS: EFE/ ZUMA PRESS; GETTY IMAGES

EXAMINADOR. Mark Riedl, quien mejoró la prueba de Lovelace propuesta por Selmer Bringsjord en 2001.

La computadora Deep Blue de IBM vence al campeón mundial de ajedrez Garry Kasparov en una ronda de seis juegos. El mismo Kasparov había vencido a otras computadoras de IBM.

Otro de sus proyectos utiliza algoritmos con el propósito de encontrar prácticas para la gestión de incendios forestales y el control de especies invasoras. Ahora pensemos en un algortimo de gestión ecológica que combine la IA científica de Diettrich con el poder de los algoritmos de Watson con la ayuda de una aplicación realizada en Bluemix. ¿Podríamos mejorar las condiciones de los escosistemas?

FOTOS: EFE/ ZUMA PRESS; GETTY IMAGES

l matemático inglés Alan Turing propuso en su famoso ensayo Maquinaria computacional e inteligencia (1950), una prueba que podría aplicarse a cualquier computadora para saber si tiene la suficiente capacidad de raciocinio y de comprender lo que hace, lo cual demostraría que tiene la inteligencia necesaria para discernir su condición. En el llamado ‘Juego de imitación’, también conocido como ‘Prueba de Turing’, el ente artificial tendría que esforzarse en convencer a jueces humanos de que están conversando con un ‘humano’ y no con una computadora. Sin embargo, las reglas de esta prueba tienen limitaciones, y aunque a la fecha ninguna computadora ha pasado el examen, se han desarrollado ciertos trucos para evadir las preguntas que los programadores han incluido en sus modelos informáticos. Pensando en ello, el profesor del Tecnológico de Georgia, EUA, Mark Riedl, en su ensayo Beyond the Turing Test (2014), propone la Prueba Lovelace 2.0 de Creatividad e Inteligencia Artificial, que mejora al modelo original de 2001 diseñado por Selmer Bringsjord. Este examen, bautizado en honor a Ada Lovelace, la primera programadora de la historia, propone que el sistema de IA sea capaz de realizar un producto de su creatividad, como un dibujo o un cuento, y pueda explicar el significado o simbolismo.

Apple lanza al mercado Siri, el primer asistente personal inteligente para su teléfono iPhone 4S.

Selmer Bringsjord crea la ‘Prueba de Lovelace’, diseñada para sustituir a la ‘Prueba de Turing’. A su vez, ha sido mejorada por Mark Riedl, bautizándola como ‘Prueba de Lovelace 2.0’.

muyinteresante.com.mx 55