Inteligencia Artificial: pasado, presente y futuro
El 9 de marzo tuve el placer de asistir a una conferencia organizada por mi instituto sobre inteligencia artificial. El ponente era Ramón López de Mantarás, director del centro de investigación IIA-CSIC (vecino de mi propio centro), y su ponencia llevaba por título “From Turing to humanoid robots: Past, Present, and Future of Artificial Intelligence”.
López de Mantarás dio una interesante conferencia en la que presentó trabajos realizados en su instituto. Comenzó hablando de los precedentes en el campo de la Inteligencia Artificial. Señaló que aunque hay algunos que consideran a Ramón Llull o ¡hasta Aristóteles! como precursores, eso es remontarse demasiado en la historia porque obviamente siempre hay un precedente del precedente. En realidad y en su opinión quién realmente sentó las bases en inteligencia artificial (IA) fue Alan Turing. Turing escribió un ensayo llamado “Intelligent machines” que no aceptaron en el National Physical Laboratory, y que a ojos del ponente es, incluso, más importante que el publicado en Mind en 1950. En este último, se describe el test de Turing, conocido en inglés como The Imitation Game. En realidad y metiéndonos ya en harina acerca de la inteligencia artificial llamada “débil” (weak) y “fuerte” (hard), pasar el test de Turing sería solo un efecto colateral si la IA fuera realmente inteligente (hard). Para más información sobre el test de Turing, quizá te interese leer Qué significa que un chatbox haya superado el test de Turing por @emulenews.
La primera vez que se emplea el término de “inteligencia artificial” fue en una conferencia en Darmouth en 1956, donde se encontraban los considerados “padres” de la IA: Minsky, Newell y Simon. Aunque desde 1956 ha habido avances muy importantes en IA lo cierto es que estamos lejos de conseguir los objetivos enunciados durante dicha conferencia; ya que los avances se reducen a IA débil, y no estamos más cerca de lograr la IA fuerte. Muy pocos especialistas en IA (por no decir ninguno) consideran factible la “singularidad”, es decir, conseguir que una inteligencia artificial sea superior a la humana, algo que sí es tema común en novelas y películas de ciencia ficción.
Aunque no lo parezca, usamos IA para los algoritmos de seguridad de los bancos en Internet, para simular el tráfico, e incluso tenemos robots que pueden componer música [1] o jugar al fútbol [2]. En definitiva, somos buenos en hacer robots que son excelentes para una única tarea exclusiva. Hay robots que nos ganan al ajedrez, o que ganan incluso en concursos de preguntas, pero el problema es que para contestar buscan en Wikipedia o en bases de datos, detectando patrones de palabras que aparecen juntas y de esa manera son capaces, a veces, de acertar las preguntas. Pero lo que realmente se está buscando es una inteligencia que no se base en una mayor velocidad de búsqueda datos, sino en la comprensión de la pregunta.
¿Por qué es tan larga la carrera hacia una IA fuerte? Si aún no comprendemos la complejidad de la mente humana, ¿cómo podremos imitarla artificialmente? Sin embargo, que no cunda el desánimo, porque la naturaleza tiene su camino (con siglos de evolución biológica) y el hombre otros: por ejemplo, los pájaros y los aviones vuelan pero basados cada uno en principios distintos. En este camino, tienen mucha importancia los estudios interdisciplinares de integración de sistemas como la piel artificial o músculos artificiales (que consiguen no generar ruido mecánico desagradable) en robots humanoides; y también sistemas capaces de aprender, razonar, comunicar y actuar.
Escogí al elemento 114 para ser blogger porque tengo energías radiactivas 🙂 Actualmente soy redactora científica, antes química y doctora en Ciencia de Materiales (aplicada a la nanomedicina). También soy una superviviente supercrítica. Colaboro en Naukas y organizo el evento BCNspiracy
Sin comentarios