26 de marzo de 2022

IA. La última frontera. Inteligencia Artificial frente a Redes neuronales. ¿Puede aprender la IA algo de su propia historia?

 El superordenador de ajedrez Deep Blue fue eclipsado por la revolución de las redes neuronales, pero, 25 años después, quizá no haya dicho su última palabra.

Para los interesados en la inteligencia artificial (IA), la derrota en 1997 del gran maestro, Garri Kasparov, sonó como una campana. Newsweek lo describió como "La última batalla del cerebro", otro titular se refirió a Kasparov como "el defensor de la humanidad". Si la IA lograba vencer al ajedrecista con la mejor mente del mundo, los ordenadores, con IBM a la cabeza, podrían derrotarnos en todo.

Eso no sucedió, por supuesto. De hecho, 25 años después, cuando miramos hacia atrás podemos contemplar que la victoria de Deep Blue no fue tanto un triunfo de la IA sino una especie de sentencia de muerte. Fue un punto culminante para la inteligencia informática de la vieja escuela, la ardua elaboración manual de interminables líneas de código, que pronto iba a ser eclipsada por una forma rival de IA: la red neuronal, y en especial, la técnica conocida como "aprendizaje profundo".

Cuando IBM empezó a trabajar para crear Deep Blue en 1989, la IA no estaba en su mejor momento. Esta disciplina había pasado por varios ciclos de altibajos: del ascenso vertiginoso al colapso humillante.

La razón por la que fallaban, lo sabemos ahora, es que los creadores de IA intentaban manejar el desorden de la vida cotidiana utilizando la lógica pura.  Se imaginaban que así lo hacían los seres humanos. Y por eso, los ingenieros escribían con suma paciencia una regla para cada decisión que su IA tenía que tomar.

La IA construida a través de las reglas hechas a mano era "frágil". Cuando se encontraba en una situación extraña, se rompía. A principios de la década de 1990, los problemas con los sistemas expertos provocaron otro invierno de la IA.

La victoria de Deep Blue fue el momento que mostró lo limitados que pueden ser los sistemas codificados a mano. IBM había gastado años y millones de euros desarrollando un ordenador para jugar al ajedrez. Pero que no podía hacer otra cosa.

"Esta IA no trajo avances que tuvieran un gran impacto en el mundo", señala Campbell. Realmente no descubrieron ningún principio de inteligencia, porque el mundo real no se parece al ajedrez. "Hay muy pocos problemas en los que, como en el ajedrez, toda la información necesaria para tomar la decisión correcta esté disponible. La mayoría de las veces hay incógnitas y aleatoriedad", añade Campbell.

Pero mientras Deep Blue hacía morder el polvo a Kasparov, un puñado de  brillantes investigadores rudimentarios jugaban en sus garajes con una forma de IA mucho más prometedora: la red neuronal.

En el caso de las redes neuronales, la idea no era, como con los sistemas expertos, escribir con suma paciencia las reglas para cada decisión que una IA tenía que tomar, sino que el entrenamiento y el refuerzo establecieran conexiones internas, en una aproximación a cómo se cree que aprende el cerebro humano.

La idea existía desde la década de 1950. Pero entrenar una gran red neuronal requería ordenadores ultrarrápidos, mucha memoria y una enorme cantidad de datos. Nada de eso estaba disponible entonces. Incluso en la década de 1990, las redes neuronales se consideraban una pérdida de tiempo.

"En esa época, la mayoría de las personas involucradas en la IA pensaban que las redes neuronales eran una tontería", afirma el profesor emérito de Ciencias de la Computación de la Universidad de Toronto (Canadá) y pionero en el campo Geoff Hinton. "Me decían que yo era un verdadero creyente y no como un halago”, añade.

Pero en la década de 2000, la industria informática evolucionó e hizo que las redes neuronales fueran viables. El deseo de los jugadores de videojuegos de tener gráficos cada vez mejores creó una enorme industria de unidades de procesamiento de gráficos ultrarrápidas, que resultaron ser perfectamente adecuadas para las redes neuronales. Al mismo tiempo, se producía la gran explosión de Internet que generó un torrente de imágenes y texto que se podían aprovechar para entrenar los sistemas.

A principios de la década de 2010, estos avances técnicos permitieron que Hinton y su equipo de verdaderos creyentes llevaran las redes neuronales a nuevas alturas. Ya podían crear redes con muchas capas de neuronas (que es a lo que se refiere "profundo" en "aprendizaje profundo"). En 2012, su equipo ganó cómodamente la competición anual Imagenet, donde las IA compiten para reconocer elementos en imágenes, y asombró al mundo de la informática. Las máquinas de autoaprendizaje por fin eran viables.

Diez años después de la revolución del aprendizaje profundo, las redes neuronales y sus habilidades de reconocimiento de patrones han conquistado todos los rincones de la vida cotidiana. Ayudan a Gmail a autocompletar las frases, a los bancos a detectar los fraudes, permiten que las apps de fotos reconozcan automáticamente los rostros y, en el caso de GPT-3 de OpenAI y Gopher de DeepMind, escriben largos ensayos que parecen escritos por personas y resumen textos. Incluso están cambiando la forma en la que se hace ciencia: en 2020, DeepMind presentó su IA AlphaFold2, que puede predecir cómo se plegarán las proteínas, una habilidad sobrehumana que puede ayudar a guiar a los investigadores a desarrollar nuevos medicamentos y tratamientos.

Mientras tanto, Deep Blue desapareció, sin dejar inventos útiles a su paso. Resultó que jugar al ajedrez no era una habilidad informática necesaria en la vida cotidiana. "Lo que al final mostró Deep Blue fueron los límites de intentar hacer todo manualmente", señala el fundador de DeepMind, Hassabis.

IBM intentó remediar la situación con Watson, otro sistema especializado diseñado para abordar un problema más práctico: hacer que una máquina responda a las preguntas. Usaba el análisis estadístico de inmensas cantidades de texto para lograr una comprensión del lenguaje que era, para su época, de vanguardia. Era más que un simple sistema si A, entonces B. Pero Watson apareció en un momento desafortunado: fue eclipsado por la revolución en el aprendizaje profundo, que trajo una generación de modelos de procesamiento de lenguaje mucho más matizados que las técnicas estadísticas de Watson.

El aprendizaje profundo ha derrotado a la IA de la vieja escuela precisamente porque, según indica la exprofesora de la Universidad de Stanford (EE UU) Daphne Koller, "el reconocimiento de patrones es increíblemente poderoso". Koller fundó y dirige Insitro, que utiliza las redes neuronales y otras formas de aprendizaje automático para investigar nuevos tratamientos farmacológicos. La flexibilidad de las redes neuronales, la amplia variedad de maneras en las que se puede usar el reconocimiento de patrones, es la razón por la que todavía no ha habido otro invierno de la IA. "El aprendizaje automático realmente ha aportado valor", según Koller, algo que las anteriores oleadas de auge de la IA nunca habían logrado, en su opinión.

Las fortunas invertidas en Deep Blue y en las redes neuronales muestran que durante mucho tiempo fuimos muy torpes a la hora de juzgar qué era lo difícil y qué era lo valioso en la IA. Durante décadas, se pensó que dominar el ajedrez sería importante porque es verdad que jugar al ajedrez a un alto nivel es complicado para los humanos. Pero el ajedrez resultó ser bastante fácil para los ordenadores, porque es muy lógico.

Lo que para los ordenadores era mucho más difícil de aprender fue el trabajo mental casual e inconsciente que hacen los humanos, como mantener una conversación animada, conducir un coche con mucho tráfico o descubrir el estado emocional de un amigo. Nosotros hacemos estas cosas con tanta facilidad que rara vez nos damos cuenta de lo complicado que es y de la cantidad de criterios confusos y en escala de grises que requieren. La gran utilidad del aprendizaje profundo consiste en captar los pequeños fragmentos de esta inteligencia humana sutil y única.

Aun así, no hay una victoria final en la inteligencia artificial. El aprendizaje profundo puede estar en lo más alto actualmente, pero también va acumulando duras críticas.

"Durante mucho tiempo, existió un entusiasmo tecno-chovinista con la IA y la idea de que resolvería todos los problemas", asegura Meredith Broussard, programadora, profesora de Periodismo de la Universidad de Nueva York y autora de Artificial Unintelligence. Pero, tal como ella y otros críticos han señalado, los sistemas de aprendizaje profundo a menudo se entrenan con datos sesgados y absorben esos sesgos. Las investigadoras Joy Buolamwini y Timnit Gebru descubrieron que tres sistemas de IA visual disponibles comercialmente eran terribles en analizar los rostros de mujeres de piel más oscura. Amazon entrenó una IA para examinar los currículums, para luego descubrir que clasificaba peor a las mujeres.

Aunque los científicos informáticos y muchos ingenieros de IA son conscientes de estos problemas de sesgo en la actualidad, no siempre están seguros de cómo lidiar con ellos. Además, las redes neuronales también son "enormes cajas negras", afirma Daniela Rus, una veterana de IA que actualmente dirige el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT. Después de entrenar una red neuronal, su mecánica no es fácil de comprender ni siquiera por su propio creador. No está claro cómo llega a sus conclusiones, o cómo podría fallar.

"Durante mucho tiempo, existió un entusiasmo tecno-chovinista con la IA y la idea de que resolvería todos los problemas"

Rus cree que puede que no sea un problema confiar en una caja negra para una tarea “que no sea crítica para la seguridad”. Pero, ¿qué pasa con un trabajo de mayor riesgo, como la conducción autónoma? "Es bastante sorprendente que hayamos depositado tanta confianza y fe en ellos", opina Rus.

Aquí es donde Deep Blue tenía una ventaja. El estilo de la vieja escuela de reglas hechas a mano pudo haber sido frágil, pero era comprensible. La máquina era compleja, pero no era un misterio.

Irónicamente, ese viejo estilo de programación podría presenciar una especie de regreso, ya que los ingenieros y los científicos informáticos empiezan a enfrentarse ya a los límites de la coincidencia de patrones.

Los generadores de lenguaje, como GPT-3 de OpenAI o Gopher de DeepMind, pueden tomar algunas frases escritas y continuar escribiendo páginas de prosa convincente. Pero a pesar de esa imitación impresionante, Gopher "todavía no entiende realmente lo que escribe", señala Hassabis. "No en un sentido real".

De manera similar, la IA visual puede cometer terribles errores cuando se encuentra con un caso extremo. Algunos coches sin conductor se han estrellado contra los camiones de bomberos estacionados en las carreteras, porque en los millones de horas de vídeo en los que habían sido entrenados, nunca se habían encontrado con esa situación. Las redes neuronales tienen otra versión del mismo problema de "fragilidad".

Lo que la IA realmente necesita para avanzar, como muchos científicos informáticos indican, es la capacidad de conocer los hechos sobre el mundo y razonar sobre ellos. Un coche autónomo no puede basarse únicamente en la coincidencia de patrones. También debe tener el sentido común: saber qué es un camión de bomberos y por qué ver uno estacionado en una carretera significa peligro.

El problema es que nadie sabe muy bien cómo construir las redes neuronales capaces de razonar o usar el sentido común. El científico cognitivo y coautor de Rebooting AI, Gari Marcus, considera que el futuro de la IA requerirá un enfoque "híbrido": las redes neuronales para aprender los patrones, pero guiadas por una lógica previa codificada manualmente. En cierto sentido, esto fusionaría los aportes de Deep Blue con los del aprendizaje profundo.

Los defensores incondicionales del aprendizaje profundo no están de acuerdo. Hinton cree que las redes neuronales deberían, a largo plazo, ser perfectamente capaces de razonar. Al fin y al cabo, los seres humanos lo hacen, "y el cerebro es una red neuronal". Usar lógica codificada a mano le parece una locura; se encontraría con el problema de todos los sistemas expertos, que es que nunca se puede anticipar todo el sentido común que le queremos dar a una máquina. El camino a seguir, según Hinton, es continuar innovando en las redes neuronales, para explorar nuevas estructuras y nuevos algoritmos de aprendizaje que imiten con mayor precisión cómo funciona el cerebro humano.

Los informáticos están abordando el problema desde distintos enfoques. En IBM, el desarrollador de Deep Blue, Campbell, está trabajando en una IA "neuro-simbólica" que funciona un poco como propone Marcus. El laboratorio de Etzioni está comenzando a intentar desarrollar módulos de sentido común para IA que incluyan tanto las redes neuronales entrenadas como la lógica informática tradicional. El futuro se puede parecer menos a una victoria de uno de los dos modelos (Deep Blue o las redes neuronales), y más a un enfoque Frankenstein: los dos métodos unidos.

Debido a que resulta probable que la IA esté aquí para quedarse, ¿cómo viviremos con ella? ¿Acabaremos derrotados al final, como Kasparov contra Deep Blue, por unas IA mucho mejores en las tareas de pensamiento con las que no podremos competir?

El propio Kasparov no lo cree. Poco después de su derrota ante Deep Blue, decidió que luchar contra una IA no tenía sentido. La máquina "pensaba" de una manera fundamentalmente inhumana, utilizando matemáticas de fuerza bruta. Siempre tendría mejor poder táctico a corto plazo.

Entonces, ¿por qué competir? ¿Por qué no colaborar?

Después de jugar contra Deep Blue, Kasparov inventó el "ajedrez avanzado", donde las personas y el silicio trabajan juntos. Una persona juega contra otra, pero cada una también maneja un ordenador portátil que ejecuta un software de ajedrez, para ayudar en los posibles movimientos del juego.

Cuando Kasparov comenzó a organizar las partidas de ajedrez avanzadas en 1998, descubrió rápidamente algunas diferencias fascinantes en el juego. Curiosamente, los aficionados no profesionales superaban las expectativas con su clasificación. En una partida de jugadores con ordenadores portátiles en 2005, dos de ellos ganaron el primer premio, superando a varios grandes maestros.

¿Cómo pudieron vencer a las mentes superiores del ajedrez? Porque entendieron mejor cómo colaborar con los ordenadores. Sabían cómo explorar opciones rápidamente y cuándo aceptar o no una sugerencia del sistema. Algunas ligas aún organizan estos torneos de ajedrez avanzado.

Kasparov argumenta que así es precisamente cómo debemos abordar el mundo emergente de las redes neuronales.

"El futuro consiste en encontrar las formas de combinar las inteligencias humana y artificial para alcanzar nuevas alturas y lograr cosas que ninguno podría conseguir solo por su cuenta", señala el gran maestro de ajedrez en un correo electrónico.

Las redes neuronales se comportan de manera diferente a los motores de ajedrez, por supuesto, pero muchos expertos están totalmente de acuerdo con la visión de Kasparov de la colaboración entre los humanos y la IA. Hassabis de DeepMind ve a la IA como un camino a seguir para la ciencia, que guiará a las personas hacia nuevos avances. "Creo que vamos a notar un gran florecimiento", asegura. "Empezaremos a ver cómo desafíos científicos a la altura de Premios Nobel caen uno tras otro". La empresa de Koller, Insitro, utiliza la IA de manera similar, como una herramienta de colaboración para los investigadores. "Estamos jugando un juego híbrido entre humanos y máquinas", señala Koller.

¿Llegará el momento en el que podamos construir una IA tan similar a la inteligencia humana en su razonamiento que las personas realmente tendrían menos que ofrecer, y la IA se haría cargo de todo el pensamiento? Quizá. Pero ni siquiera los científicos consultados, en la vanguardia de este campo, se atreven a predecir cuándo ocurrirá eso, si es que sucede.

Así que pensemos en el regalo final de Deep Blue, 25 años después de su famosa partida. Tras su derrota, Kasparov vislumbró cuál será el fin del juego entre la IA y los humanos. "Nos convertiremos en gestores de algoritmos y los utilizaremos cada vez más para impulsar nuestra producción creativa y nuestras almas aventureras", asegura.

Fuente: MIT