20 jun 2016

VOLVER AL FUTURO

El cerebro artificial de Google que aterra (y fascina) a ingenieros y científicos
'Software' que imita el funcionamiento del cerebro. Google está más cerca que nadie de crear inteligencia artificial compleja. Una posible revolución que puede acabar (muy) mal

20.06.2016 

Imagen de un escáner cerebral tras ser analizada por una red neuronal 'Deep Dream' creada por Google. (Foto: Juan Sánchez Ramos)

A las pocas horas de comenzar la segunda partida, el surcoreano Lee Sedol, héroe nacional y campeón mundial del juego Go, se levantó de la silla desesperado. El programa informático al que se enfrentaba, AlphaGo,una inteligencia artificial creada por Google, había hecho un movimiento incomprensible. A primera vista no tenía sentido, Sedol no se lo esperaba. Pero fue un golpe magistral. Desencajado, necesitó 15 minutos para improvisar una respuesta. No sirvió de nada. Cuatro horas más tarde perdió la partida. La máquina volvería a ganarle en otras dos ocasiones. Fue histórico e inquietante a la vez, nunca antes un programa había ganado al campeón mundial de Go, y nunca lo había hecho mostrando una chispa de algo que define a los humanos: la creatividad.

"Yo lo llamaría... creatividad computacional", dice con media sonrisa Thore Graepel mientras recuerda lo ocurrido el pasado marzo con el famoso movimiento 37 (puedes ver aquí en vídeo cómo los comentaristas se quedaron sin palabras tras la jugada). Graepel, investigador científico de DeepMind, empresa británica adquirida por Google en el 2014 por 500 millones de dólares, es uno de los creadores de AlphaGo y experto mundial en 'machine learning', un campo de la inteligencia artificial. Si esta última crea programas inteligentes, el 'machine learning' va un paso más allá: desarrolla ordenadores capaces de aprender por sí mismos. Es decir, programas que imitan el funcionamiento del cerebro humano. "Estamos muy cerca de conseguirlo", asegura.
De la potencia a la inteligencia

Hasta ahora la inteligencia artificial era una cuestión de simple potencia de cálculo. La famosa derrota de Gary Kasparov ante el Deep Blue de IBM en 1997 fue histórica, pero en realidad la tecnología detrás era bastante limitada. El ajedrez es pura lógica, puro cálculo matemático. Basta emplear un ordenador como Deep Blue, capaz de analizar más de 200 millones de movimientos por segundo, y programarlo para que se convierta en un fenómeno imbatible del ajedrez. Pero solo sabrá hacer eso, nada más. Perdería a la primera jugando con un niño de cuatro años a resolver un problema de lógica elemental.

El campeón mundial de Go, Lee Sedol, durante una de sus partidas contra AlphaGo.
"Un niño sabe, por ejemplo, que los coches no vuelan. Nadie se lo ha dicho ni se lo ha enseñado. Lo ha aprendido de forma indirecta en el día a día, viéndolo en la calle, estando en contacto con el entorno a través de sus sentidos. Eso lo que llamamos "percepción" y es lo que estamos desarrollando ahora en 'software' mediante la creación de redes neuronales artificiales y el 'deep learning'", explica a Teknautas Emmanuel Mogenet, responsable de un nuevo centro de investigación que Google acaba de inaugurar en Zúrich destinado solo a esta rama de la ingeniería.

El buscador no es el único que apuesta por esta tecnología. Cientos de empresas, desde Facebook, IBM, Apple o Microsoft, hasta 'startup's pasando por centros académicos como el MIT, llevan años trabajando en crear diferentes niveles de inteligencia artificial, pero Google cuenta con una ventaja sobre todos los demás: tiene infinitas cantidades de datos (miles de millones de búsquedas, emails, datos geográficos de mapas, fotos...) y una infraestructura tecnológica capaz de procesar esa información al instante. Y es gracias a ese mayor poder de computación que se están comenzando a crear redes neuronales artificiales complejas como AlphaGo, capaz de derrotar a los humanos en lo que sabemos hacer mejor.

En el cerebro humano millones de neuronas trabajan en conjunto. Las redes neuronales artificiales imitan esa estructura

"En el cerebro humano hay miles de millones de neuronas individuales. Por sí solas no son muy listas, es el conjunto de neuronas trabajando entre sí lo que las hace tan poderosas. Las redes neuronales artificiales tratan de imitar esa estructura", explica Greg Corrado, neurocientífico e investigador de Google que lidera desde Mountain View, California, buena parte del trabajo del buscador en este área.

¿Cómo funciona una red neuronal artificial? Al igual que cada parte del cerebro humano se encarga de diferentes tareas (procesado del habla, colores, olores, formas...), una red neuronal artificial se compone de diferentes capas de cálculo. Por un lado entra la información, el 'input', por ejemplo, la foto de un gato. ¿Puede un ordenador por sí solo saber si se trata de la foto de un gato, un lince, un perro u otro animal? Mediante funciones matemáticas predefinidas, el sistema comienza a analizar la imagen en diferentes capas: formas, colores, trazos, comparativa con otras fotos de animales... Así hasta 20 o 30 capas diferentes de análisis hasta llegar a una conclusión. Sí, es la foto de un gato.

Una manera de entender cómo funcionan estas redes neuronales artificiales es con el experimento que puso en marcha Google con Deep Dream. Consistía en introducir una foto aleatoria en el sistema y pedirle identificar qué contiene, sin darle ninguna instrucción adicional. Cada píxel de la foto es analizado y reintroducido de nuevo en la red neuronal en un bucle infinito, por lo que al final se obtienen imágenes "artísticas" que más bien parecen salidas de un experimento con LSD. Es, en esencia, la representación del "pensamiento" de una red neuronal computacional. Puedes ver una recopilación en el vídeo debajo.

En el caso de AlphaGo la complejidad sube unos cuantos peldaños, ya que se crearon varias redes neuronales trabajando en paralelo. Primero, los ingenieros de DeepMind enviaron al sistema más de 30 millones de movimientos realizados por los mayores expertos del juego Go. Luego, con una segunda red neuronal conocida como 'aprendizaje de refuerzo', hicieron que el sistema jugara contra sí mismo miles de veces. A cada partida, el 'software' iba aprendiendo, se hacía más y más inteligente en tiempo real. Los creadores del programa hicieron que el sistema además analizara los resultados de las partidas contra sí mismo para predecir futuros resultados y planificar nuevas estrategias. Es decir, inventaron un sistema capaz de analizar el presente e intuir el futuro, un programa que toma decisiones de forma muy parecida a como lo hacemos los humanos.

"La victoria de AlphaGo es solo el comienzo, pero creemos que ha sido un punto de inflexión. El juego Go se basa en la intuición, no es puro cálculo como el ajedrez. A la vez es complejísimo, hay más posibilidades de posiciones que átomos existen en el Universo. Esa combinación de intuición humana y capacidad de cálculo es algo que hasta ahora no se había logrado descifrar de forma artificial. Los expertos creían que una máquina no podría batir a un campeón mundial de Go hasta dentro de 10 años, pero ha ocurrido ahora", explica Graepel.

Otra imagen vista tal y como la interpreta la red neuronal artificial de Google Deep Dream.

Google sabe que tiene algo potencialmente revolucionario entre manos y ha pisado el acelerador. Su nuevo centro en Zúrich, donde ya emplea a 1.800 ingenieros (el mayor número de cualquier sede fuera de EEUU), dedicará cientos de investigadores a inteligencia artificial y 'deep learning' con un doble objetivo. Primero, aplicar estos sistemas a sus propios productos (búscador, Google Photos, voice search, Gmail...). Es algo que de hecho ya hace: los emails automáticos del "smart reply" de Gmail se componen utilizando esta tecnología, que también interviene cuando realizamos búsquedas por voz o buceamos en Google Photos.

Pero el verdadero interés a largo plazo está en su segundo objetivo: ser los primeros en crear 'software' tan inteligente o más que el cerebro humano para, en teoría, ayudar en tareas complejas: investigación médica, genética, sistemas financieros, astronomía...

¿Cómo asegurar que las máquinas no tomarán decisiones erróneas o, peor aún, contra nosotros, sus propios creadores?

"Imagina tener en un hospital una máquina a la que le envías una imagen en alta definición de lo que podría ser un tumor cancerígeno. El sistema no solo la compararía en segundos con una base de millones de fotos, diagnosticaría además de una forma similar a como lo hace un oncólogo, añadiendo un componente de "intuición" basado en la experiencia profesional", explica Tom Ruerig, ingeniero de Google. "Pero no estaría pensado para sustituir a los médicos, sino justo para ayudarles en su diagnóstico", añade para tranquilizar. El problema es que no lo consigue.
"Someterse al diablo"

Máquinas ('hardware' y' software') capaces de analizar una situación, tomar decisiones por sí mismas y mejorar cada vez que lo hacen hasta superar en inteligencia al ser humano. Es el escenario del que estamos cada vez más cerca. "Hemos creado un 'software' inteligente que funciona, pero no sabemos por qué funciona tan bien", reconoce Emmanuel Mogenet. Imposible estar tranquilos. ¿Cómo evitar que la inteligencia artificial no se vaya un día de las manos? ¿Cómo asegurar que las máquinas no tomarán decisiones erróneas o, peor aún, contra nosotros, sus propios creadores?

"Con la inteligenica artificial nos estamos sometiendo al diablo", avisó Elon Musk, fundador de Tesla y SpaceX, en una conferencia hace ya dos años. Él y cientos de científicos e investigadores, entre ellos Stephen Hawking, Bill Gates, Jaan Tallinn o Nick Bostrom, están alertando sobre la creación de inteligencia artificial compleja. ¿Qué ocurrirá, por ejemplo, si empresas de armamento, como el gigante Lockheed Martin, comienzan a desarrollar armas con esta tecnología (si es que no lo están haciendo ya)?

Elon Musk, fundador de Tesla y SpaceX y una de las principales voces críticas contra la inteligencia artificial. (Reuters)

Greg Corrado, de Google, se encoge de hombros antes de responder. Su gesto parece implicar que algo así es inevitable, incontrolable, aunque sus palabras se desmarcan de escenarios apocalípticos. "Sabemos que hay un debate ético sobre el desarrollo de la inteligencia artificial y nuestra respuesta al mismo es ser transparentes, abrir el código de la tecnología y hacer 'software' libre para que todo el sector pueda contribuir", explica.

Parte de ese esfuerzo resultó en la firma el año pasado de una carta por parte de 1.000 investigadores, emprendedores, millonarios y científicos (con Musk entre ellos, y también el fundador de DeepMind, Demis Hassabis), para evitar que la inteligencia artificial caiga en manos de la industria armamentística. A juzgar por el pesimismo de algunos de sus firmantes, como Stephen Hawking, vamos por mal camino. En sus propias palabras: "El éxito en crear inteligencia artificial será el mayor evento en la historia de la humanidad. Desafortunadamente, puede que sea también el último".