Archivo del Autor: admin

Una inteligencia artificial de «verdad»

¿Cómo sería un sistema nervioso artificial? Normalmente pensamos en desarrollar una inteligencia artificial, igual a la inteligencia que podemos exhibir los seres humanos, es decir, contenida en algún objeto antropomorfo, donde todos los elementos están presentes en un mismo cuerpo. Nosotros, por ejemplo, tenemos un cerebro que se encarga de tomar decisiones y analizar la información que le proporcionan nuestros sentidos. Actuamos en nuestro entorno a través de nuestro sistema motor y utilizamos la voz para relacionarnos con otras personas.

Sistema nervioso artificial

Una inteligencia artificial que contenga todos estos elementos integrados en un solo objeto y que no tenga conexión con ningún sistema exterior de apoyo es, por ahora, ciencia ficción. Lo que sí podría ser más fácil de conseguir, es lo que podríamos llamar un sistema de IA globalizado. Este ente sería la agregación de multitud de sistemas repartidos por todo el planeta donde la capacidad de computación equivalente al sistema nervioso central estaría en grandes servidores que consumen además una gran energía. Cómo sentidos podríamos hablar de cualquier dispositivo IoT o interfaz con el mundo físico que permita la captura de información.

Internet actuaría como los nervios que conectan los sentidos con la capacidad cognitiva. Sería el vertebrador de esa IA global.

Ya disponemos de algunos servicios y aplicaciones que actúan de forma similar, como por ejemplo los servicios cognitivos de Microsoft, la plataforma de IBM o algunas de las aplicaciones de Google. Podemos analizar una imagen, un texto o la voz para extraer información y tomar alguna decisión de clasificación o de actuación.

De forma aislada hemos conseguido empaquetar muchas funciones cognitivas que en actividades puntuales mejoran con creces la eficiencia que podemos adquirir las personas. Aplicando fuerza bruta y los redescubiertos algoritmos de aprendizaje automático somos capaces de clasificar imágenes con un nivel de precisión impensable para un humano. Podemos analizar la voz y transcribirla a texto para después traducir el texto a otro idioma y somos capaces de generar una cantidad de información difícil de imaginar.

Sin embargo un niño de 3 años ve unas cuantas imágenes de un gato y es capaz de reconocer en poco tiempo y sin costosos procesos de entrenamiento cualquier otro gato y quizás hasta dibujar alguno. En cambio, una máquina necesita ser entrenado con miles o millones de imágenes para conseguir el mismo resultado. Obviamente una vez superada está fase de entrenamiento la máquina podrá clasificar mucho más rápido y mejor cualquier imagen. El símil sería como si un humano antes de reconocer un objeto tuviera que ser enseñado visualizando millones de imágenes. ¿Qué mecanismos entran en juego en el cerebro de un niño para poder aprender tanto en tan poco tiempo? Parece que la estrategia pasa por sacrificar precisión y rapidez por flexibilidad y adaptación.

Las últimas grandes fronteras del conocimiento que nos quedan por explorar son a nivel macroscópico, el cosmos y su origen y a nivel infinitesimal el mundo de la física cuántica y la descripción de la materia y la energía con las que se construye el mundo en el que vivimos. Resulta paradójico que el conocimiento de algo tan íntimo y ligado a nosotros como es nuestro cerebro, albergue todavía tantas lagunas de conocimiento. Posiblemente derivado del conocimiento de nuestro cerebro se descubra algún nuevo enfoque o heurística para llegar a recrear un estado de consciencia artificial o llegar a producir hilos discursivos de pensamiento. Hasta ahora almacenamos y procesamos información haciendo un uso de recursos brutal en comparación con lo que hace nuestro cerebro con unos pocos gramos de materia gris y usando solo la energía que somos capaces de extraer de los alimentos que ingerimos.

Los próximos avances tendrán que venir como consecuencia de la inversión en investigación fundacional sobre el funcionamiento de nuestro cerebro, con la que poder, una vez más, emular a la naturaleza. Esperamos ansiosos a ver cuál será el siguiente gran salto en nuestro camino de descubrimiento y en nuestro voraz apetito por conocer.

Hace ya algunos años, en la Universidad de Granada pude aprender sobre los algoritmos genéticos, una técnica algorítmica inspirada en las leyes de la evolución y que reproduce el mecanismo genético para resolver problemas de optimización y búsqueda en espacios de soluciones que por su complejidad no son calculables por otras soluciones algorítmicas.

Imaginemos ahora un sinfín de capacidades cognitivas aplicadas a contextos muy limitados . En esta situación, ¿qué es lo que determina el éxito o la bondad de las respuestas o soluciones de cada una de esas capacidades? Actualmente ese criterio se obtiene de forma externa a la propia capacidad cognitiva a través de la voluntad del programador que la ha implementado. No hay voluntad, criterio o digámoslo de otro modo, conciencia o motor vital para actuar o dirigir acción alguna.

¿Podríamos llegar a aplicar el mecanismo de la evolución usando las mismas técnicas usadas en los algoritmos genéticos? Para ello tendríamos que comprender que función objetivo gobierna la propia evolución de la vida. En problemas sencillos es fácil buscar la formulación matemática para calcular como de bueno es el código genético que representa cada solución. Pero si tratamos de explicar si existe algún patrón que explique la aparición de la vida, solo llegamos a justificaciones probabilísticas en las que no llegamos a comprender o a tener evidencias de si existe alguna propiedad o ley universal que facilite la formación de vida.

Si vamos un poco más atrás, ¿qué es exactamente la vida? En la definición que nos dieron en la escuela, es todo aquello que nace, crece, se reproduce y muere. Con esa definición, ¿no están acaso las ideas vivas? Con el pensamiento clásico diríamos, que no pueden ser vida, puesto que para poder vivir, las ideas, necesitan de otros organismos para poder vivir y reproducirse, y eso se acerca más a la definición de parásito o virus.

Darwin estableció que la función objetivo de la vida y por lo tanto su motor dinamizador, no es más que la capacidad de perdurar en el tiempo. A eso lo conocemos como las leyes de la evolución.

Si queremos hablar de vida artificial y no solo de meros artificios o herramientas creadas por  el hombre, tendríamos que dotar a esa vida artificial de libertad y la capacidad de implementar la función objetivo equivalente a las leyes de la evolución. En cambio las leyes de la robótica de Isaac Asimov hacen justo lo contrario, limitan esa libertad subyugándola a los intereses de los humanos. Esto nos lleva a decir que con este enfoque lo que estamos haciendo es limitando la capacidad de que surja una verdadera vida artificial. Quizás sea lo más sensato para todos que siga siendo así.

La Inteligencia Artificial a través del cine

La Inteligencia Artificial a través del cine

¿Cómo se muestra la I.A. en el cine?

Cuando hablamos de Inteligencia Artificial estamos hablando de una rama de las ciencias de la computación compuesta por muchas otras áreas.

Entre las más conocidas, tenemos el aprendizaje automático, la visión por computador o el procesamiento de lenguaje natural.

Pero, adicionalmente a las definiciones técnicas o académicas, todos tenemos en nuestro subconsciente una idea sobre lo que entendemos como máquinas inteligentes. Sin darnos cuenta, a través de la ciencia ficción y del cine nos hemos creado unas expectativas sobre la Inteligencia Artificial basadas en lo que vemos en las pantallas y lo que leemos en los libros.

Terminator
Terminator, si Isaac Asimov levantara la cabeza…

En este artículo veremos una pequeña definición de la Inteligencia Artificial a través del cine y cómo ha evolucionado ésta a lo largo del tiempo.

Algunos hitos

Es muy curioso ver como durante el Invierno de la I.A. el interés del cine por esta temática no decae, al contrario, se hicieron cosas tan reseñables como Blade Runner o Terminator. Mientras tanto, los científicos de la época veían cómo se detenía la investigación a nivel académico y empresarial.

Blade Runner

Vemos además, como con el cambio de siglo, la imagen que se muestra de la I.A. es más humana y en estos primeros años del siglo XXI, se centra en reflexionar sobre si las máquinas pueden llegar a desarrollar cualidades humanas, sentimientos, autoconciencia,…

Deberíamos preguntarnos como van a impactar estas cuestiones en la moral de las sociedades del futuro.

Un largo recorrido

En la siguiente imagen se muestran algunas de las películas más icónicas junto con su año de estreno, donde se trata de una u otra forma la Inteligencia Artificial y la robótica:

I.A. en el cine
I.A. en el cine

Siglo XX

En la película de Metrópolis estrenada en 1927, se presenta un robot antropomorfo que es capaz de suplantar la apariencia y comportamientos humanos.

Metrópolis

Usando estas capacidades alienta una revuelta violenta en un plan de venganza contra los habitantes de la ciudad. Finalmente su malvado plan se descubre y terminan quemando al robot por su conspiración.

Como veis empezamos bien.

El resto de películas que encontramos hasta la década de los 80′ hacen alusiones a los peligros de los robots y de la Inteligencia Artificial en general: El misterioso doctor Satán, Cyborg 2087, 2011, Odisea en el espacio, Star Trek, Juegos de Guerra, Terminator, Matrix…

El misterioso doctor satán

En estas películas se ve como los seres humanos fabrican robots con intenciones bélicas o no, pero que en cualquier caso se rebelan ante sus creadores y evolucionan fuera de control.

Desgraciadamente esta forma de mostrar la I.A. nos induce dos cosas. Por un lado una natural desconfianza, por las consecuencias nefastas que podría tener para la raza humana. Por otro lado, se generan unas expectativas muy por encima de la situación real actual.

Un cambio de tendencia

Ante esta imagen terrible que nos plantea el cine, encontramos algunas excepciones con películas como D.A.R.Y.L. o Cortocircuito, donde se muestra una imagen muy diferente.

D.A.R.Y.L.

Se habla de la capacidad potencial que podrían tener las máquinas para experimentar el «despertar» de su conciencia. Poder tener sentimientos y ser conocedores de su propia existencia.

En estos casos, los robots se alejan de la utilidad para la que fueron creadas (casi siempre fines militares). Son las máquinas las que parecen decirnos que podrían llegar a ser mejor que nosotros mismos.

Empezamos a humanizar a las máquinas y a imaginar que quizás podrían llegar a desarrollar comportamientos humanos.

Curiosamente con el cambio de milenio, el cine deja de centrarse en situaciones catastróficas para abordar la humanización de las máquinas.

Se convierte casi en la temática central de las películas, tratando cuestiones sociales y morales, que se podrían plantear con la introducción de estos robots tan sofisticados entre nosotros.

El hombre bicentenario, por ejemplo, describe la evolución de una máquina que desempeña sus funciones en una familia como si fuera un electrodoméstico más. Pero a medida que gana en experiencia empieza a desarrollar conciencia de si mismo, a añorar a sus seres queridos y a sentir la ausencia de estos a medida que la muerte se los va llevando. No sigo para no hacer spoiler.

Siglo XXI

Antes de llegar a algo parecido a la inteligencia artificial mostrada en la película “Chappie”, (un robot que desarrolla sentimientos y aprende como si fuera un niño pequeño) tenemos un largo camino por recorrer que pasa por explotar las áreas que son prometedoras en el corto plazo y en paralelo  seguir apostando por la investigación básica que explique más y mejor el funcionamiento de la mente (neurociencia).

Chappie
Wall-e
Wall-e

Hay dos películas que recomiendo para reflexionar sobre aspectos morales de la Inteligencia Artificial: Ex Machina y Her.

Ex machina
Her

Mientras tanto, la ciencia sigue avanzando buscando algo que nos permita alcanzar los niveles de inteligencia que se muestran en las películas. La Inteligencia Artificial a través del cine sigue mostrando todavía un largo camino

Para saber más

La naturaleza como modelo

La naturaleza como modelo

Inteligencia Artificial. ​Pasado, Presente y Futuro (V)

Muchos de los éxitos de la inteligencia artificial de hoy día se deben a un conjunto de herramientas, heurísticas y modelos definidos o inspirados principalmente en la naturaleza y algunos de los descubrimientos conceptuales a los que se refería John McCarthy se empezaron a producir en la década de los 90. Avances en neurociencia, nuevos modelos de computación, heurísticas,…

La inteligencia artificial se empieza a plantear como una emulación del comportamiento humano. Pero en lugar de programar a las máquinas para que realicen expresamente una tarea se utiliza un enfoque diferente. El machine learning se empezó explotar en cada vez más ámbitos.

A partir del año 91 con la creación de Internet y en adelante con la explosión de datos disponibles se ha reactivado el interés por las técnicas de IA. Se parte de la experiencia entendida como datos, para imitar el funcionamiento del sistema nervioso. Se definen modelos de aprendizaje automático que utilizando las grandes cantidades de información disponibles consiguen aprender y ofrecer soluciones que no son abordables con un enfoque clásico.

Algoritmos genéticos

Un algoritmo es, en términos generales, una serie de pasos organizados que describen el proceso que se debe seguir para dar solución a un problema específico. En lugar de eso los algoritmos genéticos proponen usar las leyes que rigen la evolución natural para dar esa solución al problema planteado. En los años 70, de la mano de John Henry Holland, surgió una de las líneas más prometedoras de la inteligencia artificial, la de los algoritmos genéticos. ¡Esta línea de soluciones partió en el siglo XIX con Charles Darwin!

Algoritmos Genéticos
Algoritmos Genéticos

Redes neuronales

Otro ejemplo de soluciones basadas en la naturaleza lo encontramos en nuestro cerebro. Es el modelo natural que mejores resultados está obteniendo en el desarrollo de la I.A. Hoy, conceptos como “Machine Learning” están muy extendidos y se pueden implementar usando varias técnicas, pero una de las más comunes son las redes neuronales, recientemente evolucionadas y renombradas con el concepto de Deep Learning. Es justo esa modalidad de aprendizaje automático la que está revolucionando las expectativas de la I.A.

Redes Neuronales
Redes Neuronales

Ejemplos de algoritmos genéticos y redes neuronales

Vamos a ver una serie de videos donde se muestra el proceso de aprendizaje usando técnicas de AGs y Redes neuronales.

En el siguiente video podréis ver una representación gráfica de una red neuronal que es capaz de reconocer números. Se muestra una capa de entrada como un conjunto de pixeles que representan a la imagen (equivalente a nuestra retina) y una capa de neuronas de salida. Hay un conjunto de capas ocultas en las que las neuronas se reconfiguran durante la fase de entrenamiento para dar una solución correcta.


Simulación 3D de redes neuronales

En el siguiente video se muestra una recreación de un ecosistema con diversas formas de vida creadas de forma aleatoria. Las que se adaptan peor desaparecen. Empiezan a desarrollar comportamientos más inteligentes, y crean un verdadero ecosistema.

Ecosistema con diversas formas de “vida”

Un algoritmo genético aprende como disparar y se automejora para ser más efectivo. En las primeras generaciones disparan aleatoriamente, pero a medida que pasa el tiempo desarrollan estrategias de disparo más avanzadas.

Un algoritmo genético aprendiendo a disparar en un juego

Algoritmo genético aprendiendo a saltar un objeto. Se definen unas reglas de movimiento y partir de ahí el sistema aprende como debe saltar el objeto.

Algoritmo genético aprendiendo a esquivar un objeto


A modern Approach is coming

El nuevo enfoque de la Inteligencia Artificial

Inteligencia Artificial. ​Pasado, Presente y Futuro (IV)

En el post anterior vimos como las expectativas de la Inteligencia Artificial y sus logros se vieron bruscamente frenados en la década de los 70 con el denominado Invierno de la Inteligencia Artificial.

Los investigadores tuvieron muchos más problemas para lograr financiación y quizás fue solo a través del cine de ciencia ficción y de la imaginación colectiva, donde perduró el interés. Un nuevo enfoque estaba por llegar, el despertar de la nueva era de la Inteligencia Artificial llegó en la década de los 90. Veamos como se produjo.

Lo que ocurrió es que se rebajaron las expectativas y se abandonó el objetivo pretencioso de lograr una I.A. de propósito general. Se desarrollaron en cambio, grandes avances en temas concretos, como la visión artificial, los sistemas expertos o las redes neuronales.

Inteligencia Artificial un enfoque moderno.

Se profundizó también en la clasificación de los sistemas de Inteligencia Artificial utilizando como modelo la Inteligencia Humana. El libro publicado por Stuart Russell y Peter Norving en 1994, titulado «Inteligencia Artificial. Un enfoque moderno» ayudó a reflotar el interés académico y de investigación fundacional obre la materia. A veces, vuelvo a abrir el ejemplar que conservo para recordar mi época universitaria.

Artificial Intelligence. A modern approach
«Inteligencia Artificial. Un enfoque moderno» Stuart Russell y Peter Norving

El reto del ajedrez

El juego del ajedrez también ayudó a dinamizar el interés del público general por la I.A. a través de las competiciones de ajedrez entre Hombre y Máquina. Seguro que recordáis las noticias en los telediarios o multitud de artículos, hablando de la derrota de Garry Kaspárov «a manos» de Deep Blue.

El reto del ajedrez ha inspirado siempre a grandes pensadores y de hecho la pretensión de conseguir que una máquina sea capaz de jugar al ajedrez, no es algo nuevo inventado en el Silicon Valley. Ya en 1910, ¡hace más de un siglo!, el gran Leonardo Torres Quevedo, si un español, desarrolló una máquina capaz de jugar de forma autónoma en las fases finales de una partida.

El reto del ajedrez
El reto del ajedrez

Torres Quevedo abordó el reto desde el punto de vista de la automática, de hecho se considera uno de las personas más influyentes en su desarrollo.

Placa conmemorativa del IEEE del trabajo de Torres Quevedo en el desarrollo del Telekino y el control a distancia

Deep blue derrotó a Kaspárov en 1997 utilizando nuevos enfoques algorítmicos. Algoritmos que aprovechaban la fuerza bruta computacional disponible en la época, analizando a gran velocidad un gran número de jugadas, de modo que la máquina pudiera escoger la mejor jugada posible según los cálculos realizados.

Pero este enfoque tiene poco de inteligente, no es más que una demostración de fuerza bruta (unos 200 millones de posiciones por segundo) y no exhibe ninguna característica de las que podemos relacionar con algún tipo de inteligencia.

Mucho más interesante fue el enfoque implementado en 2006 por Deep Fritz derrotando a Vladímir Krámnik. En esta ocasión se usaron heurísticas para optimizar la potencia de la máquina capaz de calcular unos 6 millones de posiciones por segundo, dos ordenes de magnitud por debajo de Deep blue. Fijaros a que nivel de cálculo hay que llevar a la máquina para que pueda ganar al campeón Humano. 6 millones de posiciones por segundo frente a la creatividad e inteligencia de Krámnik.

Así que a pesar de que Krámnik perdió 4 a 2, queda mucho todavía para que una máquina sea capaz de exhibir un comportamiento inteligente equivalente al de los Humanos.

En el próximo post veremos algunos casos más que ayudaron a reflotar la Inteligencia Artificial para llevarla a los niveles de desarrollo de la actualidad…


El invierno de la Inteligencia Artificial

Inteligencia Artificial. ​Pasado, Presente y Futuro (III)

Durante la década de los 50 y de los 60, la Inteligencia Artificial tuvo un auge muy importante, a tal nivel que muchos pensaban que en cuestión de poco tiempo, se lograría fabricar una inteligencia equiparable a la humana. En la Conferencia de Dartmouth, donde se acuñó el término de Inteligencia Artificial, es cuando se despertó una mayor expectación.

Ya algunas décadas antes, algunos otros como el gran Leonardo Torres Quevedo, se plantearon la posibilidad de construir máquinas con comportamientos inteligentes, pero no es hasta esta conferencia cuando se sumaron a esta causa muchos científicos e investigadores.

En 1965, en la Universidad de Stanford se desarrollaron los Sistemas Expertos y justo un año después, 1966, se creó el primer Chatbot llamado ELIZA, que usaba lenguaje natural. Fijaos que es justo ahora cuando estamos democratizando los asistentes virtuales que se idearon a mitad de los años 60. En 1968, se estrenó «2001: Una odisea en el espacio»

Todo iba bien, pero llegó el conocido como invierno de la Inteligencia Artificial.

The general purpose robot is a mirage
https://www.youtube.com/watch?v=yReDbeY7ZMU

The Lighthill Debate (1973)

A partir de este debate celebrado en el Parlamento Británico, en el que se cuestionaron los avances y los logros realizados, se redujo toda la inversión y el interés en la Inteligencia Artificial.

Se llegó a deliberar que de hecho alcanzar una verdadera I.A. era una quimera y que no tenía sentido seguir desperdiciando recursos y esfuerzos en algo que no se alcanzaría jamás.

“Para crear una verdadera I.A. se necesitaría el trabajo de 1,7 Einsteins, 2 Maxwells, 5 Faradays y la financiación de 0,3 Proyectos Manhattan, siempre y cuando ese proyecto viniera después de los necesarios descubrimientos conceptuales”


(Palabras de John McCarthy en 1978)

Durante la década de los 80 se activó levemente el interés, pero todavía con pobres resultados, si los comparemos con los que estaba por llegar al principio de la década de los 90.

En el próximo post veremos que es lo que cambió la desafección a la Inteligencia Artificial y lo que provocó su resurgimiento.

Inteligencia Artificial. ​ Pasado, Presente y Futuro (II)

En el post anterior, terminamos hablado sobre la prueba de Turing en la que los humanos tratamos de evaluar el comportamiento inteligente de una máquina, hasta el punto de que la prueba se considera por superada cuando no somos capaces de distinguir su comportamiento del de un humano real.

Las máquinas tienen su versión inversa de la prueba de Turing. Se trata de los CAPTCHA. Las siglas significan: Completely Automated Public Turing test to tell Computers and Humans Apart (prueba de Turing completamente automática y pública para diferenciar ordenadores de humanos).

Este test lo realiza una máquina y lo que trata de averiguar es si el ente que está interactuando con una página o un servicio, es en realidad otra máquina o se trata de un humano.

CAPTCHA

Esta máquina nos realiza preguntas tan complicadas como hacer algunas operaciones matemáticas, identificar objetos en un conjunto de fotografías o a veces simplemente nos pide amablemente que confirmemos que no somos un robot. Esto se podría considerar como una medida de la capacidad actual de una IA que quisiera explotar de forma incorrecta un servicio web. Los CAPTCHA consideran que una máquina sería incapaz de responder adecuadamente a preguntas formuladas con elementos visuales o que requieren de un mínimo de razonamiento.

Por lo tanto, estamos todavía muy lejos de lo que vimos en la película 2001: Odisea en el espacio estrenada en 1968. HAL, la IA que gobernaba la nave espacial, exhibía un comportamiento bastante más avanzado de lo que tenemos hoy día, incluso en un ya avanzado siglo XXI.

HAL 9000
HAL 9000

¿Qué se propone hacer, Dave? Dave de verdad creo que me debe una respuesta a la pregunta. Sé que no va bien todo conmigo pero ahora le puedo asegurar con toda seguridad que todo volverá a la normalidad…

HAL 9000 en la película 2001: Odisea en el espacio cuando lo trataban de desconectar

¿Quizás veamos en el futuro pruebas inversas de Turing mejoradas que usarán las máquinas para saber si están delante de un humano o de una máquina?

Inteligencia Artificial. ​ Pasado, Presente y Futuro (I)

Con toda la humildad del mundo y movido sobre todo por la fascinación por un tema apasionante como es la Inteligencia Artificial, me gustaría escribir una serie de artículos sobre el pasado, el presente y el futuro de esta rama del conocimiento.

Según los expertos, el año el 2017 fue el año de la IA. Es una temática cada vez más presente en más situaciones. Se habla mucho sobre su impacto en la industria e incluso en nuestras vidas, sobre qué consecuencias tendrá sobre el mercado de trabajo.  

Vamos a hacer primero un recorrido por el pasado. Veremos después algunas tendencias actuales y finalmente miraremos un poco al futuro.  

Empecemos por el principio, veamos primero quienes son los padres de la Inteligencia Artificial.


Foto del 2006 con algunos de los participantes en la conferencia denominada “The next 50 Years (AI@50) para celebrar el 50 aniversario de la conferencia de Dartmouth 

Oficialmente se considera que la Inteligencia Artificial como disciplina nació en los años 50. Concretamente en la conferencia de Dartmouth en 1956 fue cuando se acuñó por primera vez el término de “Inteligencia Artificial”. John McCarthy fue el primero que se refirió a Inteligencia Artificial a la ciencia que estudia cómo hacer máquinas inteligentes. 

  • John McCarthy: será el creador del lenguaje de programación LISP (el más antiguo lenguaje de alto nivel después de Fortran), cofundador del laboratorio de inteligencia artificial del MIT y de la Universidad de Stanford, Premio Alan Turing en 1971 
  • Marvin Minsky: matemático inspirador que creía que la mente humana no era muy diferente de un ordenador. Creó en 1951 SNARC (el primer simulador de redes neuronales). 
  • Claude Shannon: El padre del bit y de la teoría de la información. 
  • Ray Solomonoff: Fundador de la rama de la IA para el aprendizaje automático  
  • Newell y Simon: inventaron el GPS (General Problem Solver). Un programa diseñado para solucionar problemas de carácter general. Capaz de resolver problemas que estuvieran convenientemente definidos como por ejemplo las torres de Hanoi. Era como un planificador de tareas para alcanzar un objetivo bien definido. 
  • Arthur Samuel: Pionero en el campo de los juegos de ordenador y la computación simbólica. 
Asistentes a la conferencia de Dartmouth en 1956

Una mención especial Marvin Minsky. Consideraba que el cerebro es una máquina y que como tal sus funciones podían ser estudiadas y simuladas por un ordenador.  

Colaboró en la creación de la red ARPAnet que después se convirtió en lo que es hoy día Internet. 

Se convirtió en defensor del transhumanismo. Un movimiento intelectual que sostiene que debemos utilizar la tecnología para potenciar nuestras capacidades, evitar el sufrimiento y alcanzar la inmortalidad. Discurso que hoy mantiene la Singularity University. 

Las siguientes reflexiones muestran como era su pensamiento sobre la IA. 

Cuando los ordenadores tomen el control, puede que no lo recuperemos. Sobreviviremos según su capricho. Con suerte coma decidirán mantenernos como mascotas.


En la revista Life noviembre de 1970

¿Heredarán los robots la Tierra? Sí, pero serán nuestros hijos

Las máquinas podrán hacer cualquier cosa que hagan las personas, porque las personas no son más que máquinas

En la revista Scientific American (octubre de 1994)

Las máquinas podrán hacer cualquier cosa que hagan las personas, porque las personas no son más que máquinas

En la revista Muy Interesante (octubre de 1996)

Algún día seremos capaces de alcanzar la inmortalidad. Haremos copias de nuestros cerebros. Puede que los creemos en un laboratorio o que, simplemente, descarguemos su contenido en un ordenador.

Damos un salto atrás en el tiempo. 

En 1950 Turing presentó su obra llamada “Computing Machinery and Intelligence”. Empezó su obra planteando esta pregunta, pero debido a que el propio concepto de “pensar” es muy ambiguo propuso formular la pregunta de la siguiente forma: “¿Existirán computadoras digitales imaginables que tengan un buen desempeño en el juego de imitación?” 

Sorprendente que en esa época se plantearan este tipo de preguntas. 

 

Os dejo un enlace con el texto original por si queréis leerlo.

Hay dos películas que abordan la contribución de Turing durante la II Guerra Mundial para descifrar enigma. “The Imitation Game” que es más reciente se titula con las palabras con las que empezaba su texto.

Breaking the code es una biografía de la vida de Turing.

Breaking the Code
The Imitation Game

 

Os dejo también estos dos documentales: 

Codebreaker

Decoding Alan Turing

El evaluador trataría de averiguar a través de una conversación escrita con dos interlocutores, cuál de ellos es una máquina y cual no. 

Comentar que el propio concepto de inteligencia está cambiando por lo que es difícil seguir utilizando el test de Turing tal y como fue formulado para medir la inteligencia. 

Todos los años se celebra en un lugar emblemático como Bletchley Park, donde Alan Turing trabajó durante la Segunda Guerra Mundial descifrando los códigos de la máquina Enigma, un evento en el que compiten distintas inteligencias artificiales para demostrar cual está más cercada a superar el test de Turing. Los premios se llaman Loebner Prize.

En la edición del 2018, el jurado estimó que los participantes superan, sobre un 100%, apenas un 30% de la prueba. Mitsuku ha ganado algunas ediciones y siempre suele estar en los primeros puestos. Hubo otro participante, Tutor, que tuvo muy buenos resultados.

https://www.aisb.org.uk/events/loebner-prize
http://www.mitsuku.com

Data-Focused Way of Working

Big&Fast Data para un negocio dirigido por el conocimiento profundo de los datos

Debemos ser conscientes de que, en un mundo cambiante, complejo con una cantidad creciente de cosas y personas conectadas que generan una cantidad ingente de datos, tenemos que adaptarnos para usar de forma ágil la ventaja competitiva que supone la toma de decisiones basada en un conocimiento profundo de los datos.

  • La Transformación digital utiliza las nuevas tecnologías para mejorar la experiencia de usuario, los activos y los procesos, así como para crear nuevos modelos de negocio.
  • Las empresas estarán basadas en plataformas, dirigidas algoritmos y un conocimiento profundo de los datos y apoyadas en una experiencia de usuario irresistible.

4 MODELOS PARA EL APROVECHAMIENTO DEL CONOCIMIENTO PROFUNDO DE LOS DATOS

CENTRADO EN EFICIENCIA Y REDUCCIÓN DE COSTES

Identificando eficiencias potenciales en las operaciones de negocio para reducir los costes (análisis de la cadena de proveedores, Cost To Serve, rotación de clientes, análisis de fraude, reducción de riesgos, mantenimiento preventivo,…)

CENTRADO EN MEJORAR EL NEGOCIO EXISTENTE

Conociendo mejor a los clientes y la eficacia de las actividades de marketing o la actividad de ventas. Consiguiendo una visión 360º del cliente para crear servicios innovadores y relevantes para los clientes a través de una experiencia digital irresistible.

CENTRADO EN CREAR NUEVOS MODELOS DISRUPTIVOS

Ampliando los límites del negocio actual para crear nuevos modelos de negocio que creen nuevas fuentes de ingresos.

CENTRADO EN LA MONETIZACIÓN DE LOS DATOS

Analizando profundamente los datos disponibles, provenientes de fuentes tanto internas como externas para interpretar y reconocer su valor.

¿EN QUÉ ÁMBITOS PODRÍAS 

DESARROLLAR LOS 

MODELOS3 Y 4?

 

¿CÓMO LO HACEMOS?

ELIMINANDO BARRERAS

Evitar los silos de información aislados para crear ecosistemas de datos

AUMENTANDO LA AGILIDAD

Facilitar el acceso a la información con el nivel de agregación requerido en cada parte de la organización 

MEJORANDO LA TECNOLOGÍA

Avanzar en la creación de una plataforma de Analytics-as-a-Service para gestionar de forma ágil la información y facilitar su acceso

CREANDO UN MODELO

Crea un modelo de gobierno del dato con liderazgo que fomente la colaboración y la coordinación entre los ecosistemas de datos

DEFINIENDO OBJETIVOS

Tener objetivos de negocio claros es fundamental para enfocar el análisis de los datos para convertirlos en información y conocimiento útiles para conseguirlos

MEJORANDO LAS COMPETENCIAS

Contar con personas con conocimentos en el análisis de los datos pero también con conocimiento del negocio

 

ITINERARIO

1. COMENZAR TENIENDO EN CUENTA EL CONTEXTO TECNOLÓGICO Y DE NEGOCIO

2. APROVISIONAMIENTO DE DATOS A PARTIR DE FUENTES CONECTADAS CON PERSONAS Y ACTIVOS

3. CREAR UNA CULTURA DE DATA SCIENCE Y ANALYTICS

4. FACILITAR EL ACCESO RÁPIDO DE LA INFORMACIÓN

5. MEDIR EL VALOR DE LOS DATOS CON INDICADORES

6. CONTROLAR LA SEGURIDAD Y LA PRIVACIDAD DE LOS DATOS

TOMA DE DECISIONES A DISTINTOS NIVELES DENTRO DE LA ORGANIZACIÓN BASADA EN EL CONOCIMIENTO PROFUNDO DE LOS DATOS

Os dejo a continuación dos infografías con el contenido de este artículo:

El Alan Turing español

Casi todo el mundo sabe quién es Alan Turing, considerado uno de los padres de la ciencia de la computación por su gran contribución para sentar las bases de la informática moderna. Otro de los logros por los que es muy conocido es por su trabajo para descifrar los códigos alemanes de la máquina Enigna durante la II Guerra Mundial . Esa época de su vida se muestra en la película «The imitation game» o con su nombre en español, «Descifrando Enigma».

En el área de la Inteligencia Artificial es conocido por formular en 1950 el famoso Test de Turing. Esta prueba establece un criterio por el cual una máquina se puede decir que es inteligente si sus respuestas no se pueden diferenciar de las que daría un ser humano.

Pero hay otro gran personaje en la historia que hizo grandes contribuciones a la Inteligencia Artificial y que no es tan conocido. Resulta además que es español, nacido en 1852 en una pequeña localidad del municipio de Molledo en Cantabria que se llama Santa Cruz de Iguña. Nos referimos a Leonardo Torres Quevedo.

Leonardo Torres Quevedo

Leonardo Torres Quevedo

Telekino

Este invento que hoy nos resulta tan cotidiano, es sin duda por el que ha recibido mayor reconocimiento y si nos trasladamos a principios del siglo XX, resulta algo revolucionario. Se trataba de un sistema de control remoto que enviaba señales de radio usando una codificación digital para manejar aparatos a distancia. Sus trabajos empezaron ya en 1901 pero fue en 1903 cuando presentó en la Academia de Ciencias de París este ingenio aplicado al control remoto de un globo aerostático. Este sistema de control remoto despertó mucho interés ya que permitía realizar pruebas de vuelo sin poner en peligro vidas humanas .Os podéis imaginar que no era demasiado fácil encontrar pilotos voluntarios para hacer pruebas de vuelo en estos nuevos aparatos voladores.

Ya en 1904, y tras cierto interés por las autoridades españolas, Leonardo Torres consiguió una subvención de 200.000 pesetas (Real Orden del Ministro de Agricultura, Industria, Comercio y Obras Públicas del 9 de enero) para perfeccionar sus inventos y estuvo trabajando en un laboratorio ubicado en la calle Marqués de Riscal de Madrid. El texto completo del nombramiento lo podemos consultar a través del siguiente enlace: https://www.boe.es/datos/pdfs/BOE//1904/009/A00100-00101.pdf

Mostramos un extracto del contenido:

«Real orden creando un Centro de Ensayos de Aerostación y un Laboratorio, destinado al estudio técnico y experimental del problema de la navegación aérea y de la dirección
de la maniobra de motores á distancia.»

«Ilmo. Sr.: Incluida la cantidad de doscientas mil pesetas en el presupuesto de gastos’de este Ministerio para la realización de los ensayos de los aparatos de navegación aérea y para dirigir la maniobra de motores á distancia, inventados por el Ingeniero de Caminos, Canales y Puertos D. Leonardo Torres yQuevedo, procede organizar dicho servicio por el Estado en la forma y manera que corresponde á su importancia…»

Fue en esta fase cuando evolucionó el sistema y decidió aplicarlo a embarcaciones a motor. Lo instaló en una barcaza y empezó a realizar pruebas en el estanque de la Real Casa de Campo de Madrid. Durante uno de estos ensayos, el alcalde de Bilbao quedó maravillado con el invento de forma que organizó una demostración pública en la ría de Bilbao a la que asistió incluso el rey Alfonso XIII. Tras esta demostración, que tuvo mucha repercusión, se pretendía instalar este sistema para el control de proyectiles y torpedos, pero la idea se vio truncada por no encontrar financiación ni apoyo institucional. Este fue el último ensayo conocido de este gran invento.

El Telekino fue reconocido en el año 2007 por el IEEE (Institute of Electrical and Electronics Engineers) como uno de los  «grandes hitos de la ingeniería a nivel mundial».

El ajedrecista

Hubo muchos intentos anteriores por crear máquinas para jugar al ajedrez, pero la máquina creada por Leonardo Torres Quevedo en 1910 fue realmente el primer automatismo creado para jugar al ajedrez. El Baron Wolfgang von Kempelen ya en 1769 construyó ya una máquina para esto, pero demostró ser un fraude, ya que los movimientos los realizaba una persona de pequeño tamaño escondida en una cabina debajo del tablero.

Bastantes de los inventos originales del ingeniero cántabro podemos encontrarlos hoy en el museo de Torres Quevedo ubicado en la Universidad Politécnica de Madrid.

Precursor de la Inteligencia Artificial

Es justo poner de relieve el papel pionero que Leonardo Torres Quevedo tuvo en materias como la Informática, la Inteligencia Artificial, la Robótica y la Automática. Por su contribución a estas materias es por todos conocida la relevancia de otro gran científico, Alan Turing. Conceptos cómo la Máquina de Turing, algoritmo o calculabilidad o el Test de Turing son buenos ejemplos de ello pero resulta que antes de que naciera el señor Alan Mathison Turing en 1912, había un ingeniero cántabro que ya hablaba de conceptos como máquinas algebráicas o de computación usando dispositivos mecánicos.

Fue a finales del siglo XIX, en 1893 cuando presentó en la Academia de Ciencias Exactas, Físicas y Naturales la Memoria sobre las máquinas algebraicas, explicando las equivalencias matemáticas y físicas que son el fundamento para el cálculo analógico o de cantidades continuas además de definir mecánicamente las relaciones entre ellas, expresadas en fórmulas matemáticas.

En sus Ensayos sobre automática publicados por primera vez en 1914, Torres Quevedo sentó las bases de lo que será en adelante una nueva rama de la ingeniería, la automática. Citamos a continuación un breve extracto de dicha publicación:

«Se encuentran en las descripciones de máquinas ejemplos muy numerosos de estas intervenciones bruscas; pero es evidente que el estudio de esta forma de la automatización no pertenece a la cinemática. Así es que nunca se ha estudiado sistemáticamente, que yo sepa. . Esa deficiencia debería corregirse agregando a la teoría de las máquinas una sección especial, la automática, que examinara los procedimientos que pueden aplicarse a la construcción de autómatas dotados de una vida de relación más o menos complicada.»

Torres desarrolló la teoría del aritmómetro, una máquina electromecánica para realizar cálculos de forma autónoma compuesta de:

  • un dispositivo de entrada de comandos implementado con una máquina de escribir.
  • una unidad de procesamiento y registros de valores  implementado con un sistema de listones, poleas, agujas, escobillas, electroimanes y conmutadores.
  • un dispositivo de salida también implementada con una máquina de escribir.

Según esta descripción estamos ante el inventor del primer ordenador de la historia.

En este mismo trabajo Leonardo Torres Quevedo sienta las bases de lo que posteriormente será la inteligencia artificial explicando cómo las máquinas pueden realizar más tareas que únicamente aquellas para las que no es necesario pensar. El siguiente extracto es sencillamente genial:

«se cree que las operaciones que exigen la intervención de las facultades mentales nunca se podrán ejecutar mecánicamente. Intentaré demostrar en esta nota -desde un punto de vista puramente teórico- que siempre es posible construir un autómata cuyos actos, todos, dependan de ciertas circunstancias más o menos numerosas, obedeciendo a reglas que se pueden imponer arbitrariamente en el momento de la construcción. Evidentemente, estas reglas deberán ser tales que basten para determinar en cualquier momento, sin ninguna incertidumbre, la conducta del autómata.»

La revista Scientific American en 1915 hizo una entrevista a Torres Quevedo en la que afirmó que en teoría casi todas las operaciones podrían ser realizadas por una máquina, incluyendo  las que requieren de capacidad intelectual.

También se adelantó a la formulación del experimento de la ‘habitación china’ de John Searle y ya se planteó cuestiones acerca de la afirmación de Descartes de que un autómata jamás sería capaz de mantener un diálogo razonable:

No hay entre los dos casos la diferencia que veía Descartes. Pensó sin duda que el autómata, para responder razonablemente, tendría necesidad de hacer él mismo un razonamiento, mientras que en este caso, como en todos los otros, sería su constructor quien pensara por él de antemano. . Creo haber mostrado, con todo lo que precede, que se puede concebir fácilmente para un autómata la posibilidad teórica de determinar su acción en un momento dado, pesando todas las circunstancias que debe tomar en consideración para realizar el trabajo que se le ha encomendado.

Os dejo algunos videos muy interesantes para completar el conocimiento sobre este gran inventor:

Blade Runner

Los replicantes

El mundo de la ciencia ficción en general y la cinematografía en particular tienden a mostrar una imagen apocalíptica de la inteligencia artificial que si bien puede ser exagerada no está de más tener en cuenta en algunas situaciones.

En la novela original de Philip K. Dick, ¿Sueñan los androides con ovejas eléctricas?, ya se muestra una situación en la que androides renegados escapan de las condiciones extremas de trabajo que les imponen. De factura casi idéntica a los humanos, estos androides contribuyen a desdibujar los límites entre lo natural y lo artificial.

Blade Runner

Blade Runner

Ya con Blade Runner, la adaptación cinematográfica dirigida por Ridley Scott, vemos que los modelos Nexus-6 son prácticamente iguales a los seres humanos, salvo por una pequeña particularidad, no son capaces de dar respuesta emocional alguna ni empatía.

Estos límites que diferencian lo natural de lo artificial, aunque hoy estén claros, podrían llegar a difuminarse en algunos contextos, veamos algunos.

Lo más parecido a una prueba que detecte si estamos ante una inteligencia natural o artificial es el Test de Turing. Actualmente se realiza un concurso anual (premios Loebner) que según la definición original de Alan Turing se limita solo al ámbito de una conversación escrita.

Multitud de desarrolladores de chatbots tratan de crear modelos de conversación que simulen un comportamiento humano y que transmitan una personalidad determinada. Mitsuku, el ganador de la edición 2016 de los premios Loebner Prize es un buen ejemplo.

Otro área que es necesario desarrollar para acercarnos a la idea de replicante, es la de la sintetización automática de la voz. Cuando escuchamos una reproducción artificial de un texto, el resultado robotizado y carente de matices, hace que sea muy difícil atribuirle alguna característica natural o humana a dicha alocución. En este sentido la startup canadiense Lyrebird consigue replicar cualquier voz usando como entrenamiento solo 60 segundos de audio. Los resultados que todavía dejan claro que se trata de una reproducción artificial, dejan la puerta abierta a una nueva explosión de fakes usando voces de personalidades conocidas. Puedes escuchar las imitaciones de Donald Trump, Barak Obama y Hillary Clinton en la demo oficial.

Por otro lado tenemos la utilización de parámetros biométricos como la voz para verificar la identidad de las personas y securizar los accesos a recursos o instalaciones. Por ejemplo la empresa Nuance utiliza las características únicas de la voz de cada individuo para eliminar la necesidad de contraseñas, PINs y preguntas de seguridad.

¿Qué ocurrirá cuando se consiga imitar la voz de cualquiera con solo una pequeña muestra de audio? En este caso estaremos de nuevo desdibujando los límites entre lo natural y lo artificial para uno de los parámetros o atributos que hoy distinguen a las personas entre si. Tu propia voz podrá ser replicada!!!

Las imágenes de vídeo también pueden ser replicadas como podemos ver en el proyecto conocido como Face2Face: Real-time Face Capture and Reenactment of RGB Videos. Es una iniciativa compartida entre la universidad de Erlangen en Nuremberg, el Instituto de Informática Max-Planck  y la universidad de Stanford en el que se realiza la recombinación en tiempo real de secuencias de vídeo, mezclando las imágenes reales de una persona con  con las expresiones de un actor. De esta forma se genera en tiempo real un vídeo de dicha persona manipulado con los gestos y los movimientos de la boca que son interpretados por un actor.