El superordenador de ajedrez Deep Blue fue eclipsado por la revolución de las redes neuronales, pero, 25 años después, quizá no haya dicho su última palabra.
Para los interesados
en la inteligencia artificial (IA), la derrota en 1997 del gran maestro, Garri Kasparov, sonó como una
campana. Newsweek lo describió como "La última batalla del cerebro",
otro titular se refirió a Kasparov como "el defensor de la
humanidad". Si la IA lograba vencer al ajedrecista con la mejor mente del
mundo, los ordenadores, con IBM a la cabeza, podrían derrotarnos en todo.
Eso no sucedió, por
supuesto. De hecho, 25 años después, cuando miramos hacia atrás podemos
contemplar que la victoria de Deep Blue no fue tanto un triunfo de la IA sino
una especie de sentencia de muerte. Fue un punto culminante para la
inteligencia informática de la vieja escuela, la ardua elaboración manual de
interminables líneas de código, que pronto iba a ser eclipsada por una forma
rival de IA: la red neuronal, y en especial, la técnica conocida como
"aprendizaje profundo".
Cuando IBM empezó a
trabajar para crear Deep Blue en 1989, la IA no estaba en su mejor momento.
Esta disciplina había pasado por varios ciclos de altibajos: del ascenso
vertiginoso al colapso humillante.
La razón por la que
fallaban, lo sabemos ahora, es que los creadores de IA intentaban manejar el
desorden de la vida cotidiana utilizando la lógica pura. Se imaginaban que así lo hacían los seres
humanos. Y por eso, los ingenieros escribían con suma paciencia una regla para
cada decisión que su IA tenía que tomar.
La IA construida a
través de las reglas hechas a mano era "frágil". Cuando se encontraba
en una situación extraña, se rompía. A principios de la década de 1990, los
problemas con los sistemas expertos provocaron otro invierno de la IA.
La victoria de Deep
Blue fue el momento que mostró lo limitados que pueden ser los sistemas
codificados a mano. IBM había gastado años y millones de euros desarrollando un
ordenador para jugar al ajedrez. Pero que no podía hacer otra cosa.
"Esta IA no
trajo avances que tuvieran un gran impacto en el mundo", señala Campbell.
Realmente no descubrieron ningún principio de inteligencia, porque el mundo
real no se parece al ajedrez. "Hay muy pocos problemas en los que, como en
el ajedrez, toda la información necesaria para tomar la decisión correcta esté
disponible. La mayoría de las veces hay incógnitas y aleatoriedad", añade
Campbell.
Pero mientras Deep
Blue hacía morder el polvo a Kasparov, un puñado de brillantes investigadores rudimentarios
jugaban en sus garajes con una forma de IA mucho más prometedora: la red
neuronal.
En el caso de las
redes neuronales, la idea no era, como con los sistemas expertos, escribir con
suma paciencia las reglas para cada decisión que una IA tenía que tomar, sino
que el entrenamiento y el refuerzo establecieran conexiones internas, en una
aproximación a cómo se cree que aprende el cerebro humano.
La idea existía desde
la década de 1950. Pero entrenar una gran red neuronal requería ordenadores
ultrarrápidos, mucha memoria y una enorme cantidad de datos. Nada de eso estaba
disponible entonces. Incluso en la década de 1990, las redes neuronales se
consideraban una pérdida de tiempo.
"En esa época,
la mayoría de las personas involucradas en la IA pensaban que las redes
neuronales eran una tontería", afirma el profesor emérito de Ciencias de
la Computación de la Universidad de Toronto (Canadá) y pionero en el campo
Geoff Hinton. "Me decían que yo era un verdadero creyente y no como un
halago”, añade.
Pero en la década de
2000, la industria informática evolucionó e hizo que las redes neuronales
fueran viables. El deseo de los jugadores de videojuegos de tener gráficos cada
vez mejores creó una enorme industria de unidades de procesamiento de gráficos
ultrarrápidas, que resultaron ser perfectamente adecuadas para las redes
neuronales. Al mismo tiempo, se producía la gran explosión de Internet que
generó un torrente de imágenes y texto que se podían aprovechar para entrenar
los sistemas.
A principios de la
década de 2010, estos avances técnicos permitieron que Hinton y su equipo de
verdaderos creyentes llevaran las redes neuronales a nuevas alturas. Ya podían
crear redes con muchas capas de neuronas (que es a lo que se refiere
"profundo" en "aprendizaje profundo"). En 2012, su equipo
ganó cómodamente la competición anual Imagenet, donde las IA compiten para
reconocer elementos en imágenes, y asombró al mundo de la informática. Las
máquinas de autoaprendizaje por fin eran viables.
Diez años después de
la revolución del aprendizaje profundo, las redes neuronales y sus habilidades
de reconocimiento de patrones han conquistado todos los rincones de la vida
cotidiana. Ayudan a Gmail a autocompletar las frases, a los bancos a detectar
los fraudes, permiten que las apps de fotos reconozcan automáticamente los
rostros y, en el caso de GPT-3 de OpenAI y Gopher de DeepMind, escriben largos
ensayos que parecen escritos por personas y resumen textos. Incluso están
cambiando la forma en la que se hace ciencia: en 2020, DeepMind presentó su IA
AlphaFold2, que puede predecir cómo se plegarán las proteínas, una habilidad
sobrehumana que puede ayudar a guiar a los investigadores a desarrollar nuevos
medicamentos y tratamientos.
Mientras tanto, Deep
Blue desapareció, sin dejar inventos útiles a su paso. Resultó que jugar al
ajedrez no era una habilidad informática necesaria en la vida cotidiana.
"Lo que al final mostró Deep Blue fueron los límites de intentar hacer
todo manualmente", señala el fundador de DeepMind, Hassabis.
IBM intentó remediar
la situación con Watson, otro sistema especializado diseñado para abordar un
problema más práctico: hacer que una máquina responda a las preguntas. Usaba el
análisis estadístico de inmensas cantidades de texto para lograr una
comprensión del lenguaje que era, para su época, de vanguardia. Era más que un
simple sistema si A, entonces B. Pero Watson apareció en un momento desafortunado:
fue eclipsado por la revolución en el aprendizaje profundo, que trajo una
generación de modelos de procesamiento de lenguaje mucho más matizados que las
técnicas estadísticas de Watson.
El aprendizaje
profundo ha derrotado a la IA de la vieja escuela precisamente porque, según
indica la exprofesora de la Universidad de Stanford (EE UU) Daphne Koller,
"el reconocimiento de patrones es increíblemente poderoso". Koller
fundó y dirige Insitro, que utiliza las redes neuronales y otras formas de
aprendizaje automático para investigar nuevos tratamientos farmacológicos. La
flexibilidad de las redes neuronales, la amplia variedad de maneras en las que
se puede usar el reconocimiento de patrones, es la razón por la que todavía no
ha habido otro invierno de la IA. "El aprendizaje automático realmente ha
aportado valor", según Koller, algo que las anteriores oleadas de auge de
la IA nunca habían logrado, en su opinión.
Las fortunas
invertidas en Deep Blue y en las redes neuronales muestran que durante mucho
tiempo fuimos muy torpes a la hora de juzgar qué era lo difícil y qué era lo
valioso en la IA. Durante décadas, se pensó que dominar el ajedrez sería
importante porque es verdad que jugar al ajedrez a un alto nivel es complicado
para los humanos. Pero el ajedrez resultó ser bastante fácil para los
ordenadores, porque es muy lógico.
Lo que para los
ordenadores era mucho más difícil de aprender fue el trabajo mental casual e
inconsciente que hacen los humanos, como mantener una conversación animada,
conducir un coche con mucho tráfico o descubrir el estado emocional de un
amigo. Nosotros hacemos estas cosas con tanta facilidad que rara vez nos damos
cuenta de lo complicado que es y de la cantidad de criterios confusos y en
escala de grises que requieren. La gran utilidad del aprendizaje profundo
consiste en captar los pequeños fragmentos de esta inteligencia humana sutil y
única.
Aun así, no hay una
victoria final en la inteligencia artificial. El aprendizaje profundo puede
estar en lo más alto actualmente, pero también va acumulando duras críticas.
"Durante mucho
tiempo, existió un entusiasmo tecno-chovinista con la IA y la idea de que
resolvería todos los problemas", asegura Meredith Broussard, programadora,
profesora de Periodismo de la Universidad de Nueva York y autora de Artificial
Unintelligence. Pero, tal como ella y otros críticos han señalado, los sistemas
de aprendizaje profundo a menudo se entrenan con datos sesgados y absorben esos
sesgos. Las investigadoras Joy Buolamwini y Timnit Gebru descubrieron que tres
sistemas de IA visual disponibles comercialmente eran terribles en analizar los
rostros de mujeres de piel más oscura. Amazon entrenó una IA para examinar los
currículums, para luego descubrir que clasificaba peor a las mujeres.
Aunque los
científicos informáticos y muchos ingenieros de IA son conscientes de estos
problemas de sesgo en la actualidad, no siempre están seguros de cómo lidiar
con ellos. Además, las redes neuronales también son "enormes cajas
negras", afirma Daniela Rus, una veterana de IA que actualmente dirige el
Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT.
Después de entrenar una red neuronal, su mecánica no es fácil de comprender ni
siquiera por su propio creador. No está claro cómo llega a sus conclusiones, o
cómo podría fallar.
"Durante mucho
tiempo, existió un entusiasmo tecno-chovinista con la IA y la idea de que
resolvería todos los problemas"
Rus cree que puede
que no sea un problema confiar en una caja negra para una tarea “que no sea
crítica para la seguridad”. Pero, ¿qué pasa con un trabajo de mayor riesgo,
como la conducción autónoma? "Es bastante sorprendente que hayamos
depositado tanta confianza y fe en ellos", opina Rus.
Aquí es donde Deep
Blue tenía una ventaja. El estilo de la vieja escuela de reglas hechas a mano
pudo haber sido frágil, pero era comprensible. La máquina era compleja, pero no
era un misterio.
Irónicamente, ese
viejo estilo de programación podría presenciar una especie de regreso, ya que
los ingenieros y los científicos informáticos empiezan a enfrentarse ya a los
límites de la coincidencia de patrones.
Los generadores de
lenguaje, como GPT-3 de OpenAI o Gopher de DeepMind, pueden tomar algunas
frases escritas y continuar escribiendo páginas de prosa convincente. Pero a pesar
de esa imitación impresionante, Gopher "todavía no entiende realmente lo
que escribe", señala Hassabis. "No en un sentido real".
De manera similar, la
IA visual puede cometer terribles errores cuando se encuentra con un caso
extremo. Algunos coches sin conductor se han estrellado contra los camiones de
bomberos estacionados en las carreteras, porque en los millones de horas de
vídeo en los que habían sido entrenados, nunca se habían encontrado con esa
situación. Las redes neuronales tienen otra versión del mismo problema de
"fragilidad".
Lo que la IA
realmente necesita para avanzar, como muchos científicos informáticos indican,
es la capacidad de conocer los hechos sobre el mundo y razonar sobre ellos. Un
coche autónomo no puede basarse únicamente en la coincidencia de patrones.
También debe tener el sentido común: saber qué es un camión de bomberos y por
qué ver uno estacionado en una carretera significa peligro.
El problema es que
nadie sabe muy bien cómo construir las redes neuronales capaces de razonar o
usar el sentido común. El científico cognitivo y coautor de Rebooting AI, Gari
Marcus, considera que el futuro de la IA requerirá un enfoque
"híbrido": las redes neuronales para aprender los patrones, pero
guiadas por una lógica previa codificada manualmente. En cierto sentido, esto
fusionaría los aportes de Deep Blue con los del aprendizaje profundo.
Los defensores
incondicionales del aprendizaje profundo no están de acuerdo. Hinton cree que
las redes neuronales deberían, a largo plazo, ser perfectamente capaces de
razonar. Al fin y al cabo, los seres humanos lo hacen, "y el cerebro es
una red neuronal". Usar lógica codificada a mano le parece una locura; se
encontraría con el problema de todos los sistemas expertos, que es que nunca se
puede anticipar todo el sentido común que le queremos dar a una máquina. El
camino a seguir, según Hinton, es continuar innovando en las redes neuronales,
para explorar nuevas estructuras y nuevos algoritmos de aprendizaje que imiten
con mayor precisión cómo funciona el cerebro humano.
Los informáticos
están abordando el problema desde distintos enfoques. En IBM, el desarrollador
de Deep Blue, Campbell, está trabajando en una IA "neuro-simbólica"
que funciona un poco como propone Marcus. El laboratorio de Etzioni está comenzando
a intentar desarrollar módulos de sentido común para IA que incluyan tanto las
redes neuronales entrenadas como la lógica informática tradicional. El futuro
se puede parecer menos a una victoria de uno de los dos modelos (Deep Blue o
las redes neuronales), y más a un enfoque Frankenstein: los dos métodos unidos.
Debido a que resulta
probable que la IA esté aquí para quedarse, ¿cómo viviremos con ella?
¿Acabaremos derrotados al final, como Kasparov contra Deep Blue, por unas IA
mucho mejores en las tareas de pensamiento con las que no podremos competir?
El propio Kasparov no
lo cree. Poco después de su derrota ante Deep Blue, decidió que luchar contra
una IA no tenía sentido. La máquina "pensaba" de una manera
fundamentalmente inhumana, utilizando matemáticas de fuerza bruta. Siempre
tendría mejor poder táctico a corto plazo.
Entonces, ¿por qué
competir? ¿Por qué no colaborar?
Después de jugar
contra Deep Blue, Kasparov inventó el "ajedrez avanzado", donde las
personas y el silicio trabajan juntos. Una persona juega contra otra, pero cada
una también maneja un ordenador portátil que ejecuta un software de ajedrez,
para ayudar en los posibles movimientos del juego.
Cuando Kasparov
comenzó a organizar las partidas de ajedrez avanzadas en 1998, descubrió rápidamente
algunas diferencias fascinantes en el juego. Curiosamente, los aficionados no
profesionales superaban las expectativas con su clasificación. En una partida
de jugadores con ordenadores portátiles en 2005, dos de ellos ganaron el primer
premio, superando a varios grandes maestros.
¿Cómo pudieron vencer
a las mentes superiores del ajedrez? Porque entendieron mejor cómo colaborar
con los ordenadores. Sabían cómo explorar opciones rápidamente y cuándo aceptar
o no una sugerencia del sistema. Algunas ligas aún organizan estos torneos de
ajedrez avanzado.
Kasparov argumenta
que así es precisamente cómo debemos abordar el mundo emergente de las redes
neuronales.
"El futuro
consiste en encontrar las formas de combinar las inteligencias humana y
artificial para alcanzar nuevas alturas y lograr cosas que ninguno podría
conseguir solo por su cuenta", señala el gran maestro de ajedrez en un
correo electrónico.
Las redes neuronales
se comportan de manera diferente a los motores de ajedrez, por supuesto, pero
muchos expertos están totalmente de acuerdo con la visión de Kasparov de la
colaboración entre los humanos y la IA. Hassabis de DeepMind ve a la IA como un
camino a seguir para la ciencia, que guiará a las personas hacia nuevos
avances. "Creo que vamos a notar un gran florecimiento", asegura.
"Empezaremos a ver cómo desafíos científicos a la altura de Premios Nobel
caen uno tras otro". La empresa de Koller, Insitro, utiliza la IA de
manera similar, como una herramienta de colaboración para los investigadores.
"Estamos jugando un juego híbrido entre humanos y máquinas", señala
Koller.
¿Llegará el momento
en el que podamos construir una IA tan similar a la inteligencia humana en su
razonamiento que las personas realmente tendrían menos que ofrecer, y la IA se
haría cargo de todo el pensamiento? Quizá. Pero ni siquiera los científicos
consultados, en la vanguardia de este campo, se atreven a predecir cuándo
ocurrirá eso, si es que sucede.
Así que pensemos en
el regalo final de Deep Blue, 25 años después de su famosa partida. Tras su
derrota, Kasparov vislumbró cuál será el fin del juego entre la IA y los
humanos. "Nos convertiremos en gestores de algoritmos y los utilizaremos
cada vez más para impulsar nuestra producción creativa y nuestras almas
aventureras", asegura.
Fuente: MIT