banner

Blog

Aug 27, 2023

El oscuro secreto en el corazón de la IA

El año pasado, se lanzó un extraño automóvil autónomo en las tranquilas calles del condado de Monmouth, Nueva Jersey. El vehículo experimental, desarrollado por investigadores del fabricante de chips Nvidia, no se veía diferente de otros autos autónomos, pero se diferenciaba de todo lo demostrado por Google, Tesla o General Motors, y mostraba el poder creciente de la inteligencia artificial. El coche no siguió ni una sola instrucción proporcionada por un ingeniero o programador. En cambio, se basó por completo en un algoritmo que se había enseñado a sí mismo a conducir al ver a un humano hacerlo.

Lograr que un automóvil condujera de esta manera fue una hazaña impresionante. Pero también es un poco inquietante, ya que no está completamente claro cómo el auto toma sus decisiones. La información de los sensores del vehículo va directamente a una enorme red de neuronas artificiales que procesan los datos y luego envían los comandos necesarios para operar el volante, los frenos y otros sistemas. El resultado parece coincidir con las respuestas que esperaría de un conductor humano. Pero, ¿y si un día hiciera algo inesperado: se estrellara contra un árbol o se sentara en un semáforo en verde? Tal como están las cosas ahora, puede ser difícil averiguar por qué. El sistema es tan complicado que incluso los ingenieros que lo diseñaron pueden tener dificultades para aislar el motivo de una sola acción. Y no puedes preguntarlo: no hay una forma obvia de diseñar un sistema de este tipo para que siempre pueda explicar por qué hizo lo que hizo.

La mente misteriosa de este vehículo apunta a un problema inminente con la inteligencia artificial. La tecnología de inteligencia artificial subyacente del automóvil, conocida como aprendizaje profundo, ha demostrado ser muy poderosa para resolver problemas en los últimos años y se ha implementado ampliamente para tareas como subtítulos de imágenes, reconocimiento de voz y traducción de idiomas. Ahora hay esperanza de que las mismas técnicas puedan diagnosticar enfermedades mortales, tomar decisiones comerciales de millones de dólares y hacer innumerables otras cosas para transformar industrias enteras.

Pero esto no sucederá, o no debería suceder, a menos que encontremos formas de hacer que técnicas como el aprendizaje profundo sean más comprensibles para sus creadores y responsables para sus usuarios. De lo contrario, será difícil predecir cuándo pueden ocurrir fallas, y es inevitable que ocurran. Esa es una de las razones por las que el automóvil de Nvidia aún es experimental.

Ya se están utilizando modelos matemáticos para ayudar a determinar quién obtiene la libertad condicional, quién es aprobado para un préstamo y quién es contratado para un trabajo. Si pudiera acceder a estos modelos matemáticos, sería posible comprender su razonamiento. Pero los bancos, las fuerzas armadas, los empleadores y otros ahora están poniendo su atención en enfoques de aprendizaje automático más complejos que podrían hacer que la toma de decisiones automatizada sea completamente inescrutable. El aprendizaje profundo, el más común de estos enfoques, representa una forma fundamentalmente diferente de programar computadoras. “Es un problema que ya es relevante y lo será mucho más en el futuro”, dice Tommi Jaakkola, profesor del MIT que trabaja en aplicaciones de aprendizaje automático. "Ya sea que se trate de una decisión de inversión, una decisión médica o tal vez una decisión militar, no desea confiar simplemente en un método de 'caja negra'".

Ya existe un argumento de que poder interrogar a un sistema de IA sobre cómo llegó a sus conclusiones es un derecho legal fundamental. A partir del verano de 2018, la Unión Europea podrá exigir que las empresas sean capaces de dar a los usuarios una explicación de las decisiones que tomen los sistemas automatizados. Esto podría ser imposible, incluso para los sistemas que parecen relativamente simples en la superficie, como las aplicaciones y los sitios web que utilizan el aprendizaje profundo para publicar anuncios o recomendar canciones. Las computadoras que ejecutan esos servicios se han programado a sí mismas, y lo han hecho de formas que no podemos entender. Incluso los ingenieros que construyen estas aplicaciones no pueden explicar completamente su comportamiento.

Esto plantea preguntas alucinantes. A medida que avanza la tecnología, pronto podríamos cruzar algún umbral más allá del cual el uso de IA requiere un acto de fe. Claro, los humanos tampoco siempre podemos explicar verdaderamente nuestros procesos de pensamiento, pero encontramos formas de confiar y medir intuitivamente a las personas. ¿Será eso también posible con máquinas que piensen y tomen decisiones de manera diferente a como lo haría un humano? Nunca antes hemos construido máquinas que funcionen de formas que sus creadores no entiendan. ¿Qué tan bien podemos esperar comunicarnos y llevarnos bien con máquinas inteligentes que podrían ser impredecibles e inescrutables? Estas preguntas me llevaron a un viaje a la vanguardia de la investigación sobre algoritmos de IA, desde Google hasta Apple y muchos lugares intermedios, incluida una reunión con uno de los grandes filósofos de nuestro tiempo.

En 2015, un grupo de investigación del Hospital Mount Sinai de Nueva York se inspiró para aplicar el aprendizaje profundo a la amplia base de datos de registros de pacientes del hospital. Este conjunto de datos presenta cientos de variables sobre pacientes, extraídas de los resultados de sus pruebas, visitas al médico, etc. El programa resultante, que los investigadores llamaron Deep Patient, se entrenó con datos de unas 700 000 personas y, cuando se probó en nuevos registros, demostró ser increíblemente bueno para predecir enfermedades. Sin ninguna instrucción experta, Deep Patient había descubierto patrones ocultos en los datos del hospital que parecían indicar cuándo las personas estaban en camino a una amplia gama de dolencias, incluido el cáncer de hígado. Hay muchos métodos que son "bastante buenos" para predecir enfermedades a partir de los registros de un paciente, dice Joel Dudley, quien dirige el equipo de Mount Sinai. Pero, agrega, "esto fue mucho mejor".

"Podemos construir estos modelos, pero no sabemos cómo funcionan".

Al mismo tiempo, Deep Patient es un poco desconcertante. Parece anticipar sorprendentemente bien la aparición de trastornos psiquiátricos como la esquizofrenia. Pero dado que la esquizofrenia es notoriamente difícil de predecir para los médicos, Dudley se preguntó cómo era esto posible. Él todavía no lo sabe. La nueva herramienta no ofrece ninguna pista sobre cómo hace esto. Si algo como Deep Patient realmente va a ayudar a los médicos, idealmente les dará la justificación de su predicción, para asegurarles que es precisa y para justificar, por ejemplo, un cambio en los medicamentos que se le recetan a alguien. "Podemos construir estos modelos", dice Dudley con tristeza, "pero no sabemos cómo funcionan".

La inteligencia artificial no siempre ha sido así. Desde el principio, hubo dos escuelas de pensamiento con respecto a cuán comprensible o explicable debería ser la IA. Muchos pensaron que tenía más sentido construir máquinas que razonen de acuerdo con las reglas y la lógica, haciendo que su funcionamiento interno sea transparente para cualquiera que se interese en examinar algún código. Otros sintieron que la inteligencia emergería más fácilmente si las máquinas se inspiraran en la biología y aprendieran observando y experimentando. Esto significó darle la vuelta a la programación informática. En lugar de que un programador escriba los comandos para resolver un problema, el programa genera su propio algoritmo basado en datos de ejemplo y una salida deseada. Las técnicas de aprendizaje automático que luego se convertirían en los sistemas de inteligencia artificial más poderosos de la actualidad siguieron el último camino: la máquina esencialmente se programa a sí misma.

Al principio, este enfoque tenía un uso práctico limitado, y en las décadas de 1960 y 1970 permaneció confinado en gran medida a los márgenes del campo. Luego, la informatización de muchas industrias y la aparición de grandes conjuntos de datos renovaron el interés. Eso inspiró el desarrollo de técnicas de aprendizaje automático más poderosas, especialmente nuevas versiones de una conocida como red neuronal artificial. En la década de 1990, las redes neuronales podían digitalizar automáticamente los caracteres escritos a mano.

Pero no fue hasta el comienzo de esta década, después de varios ajustes y refinamientos inteligentes, que las redes neuronales muy grandes, o "profundas", demostraron mejoras dramáticas en la percepción automatizada. El aprendizaje profundo es responsable de la explosión actual de la IA. Le ha dado a las computadoras poderes extraordinarios, como la capacidad de reconocer palabras habladas casi tan bien como lo haría una persona, una habilidad demasiado compleja para codificarla a mano en la máquina. El aprendizaje profundo ha transformado la visión por computadora y ha mejorado drásticamente la traducción automática. Ahora se utiliza para guiar todo tipo de decisiones clave en medicina, finanzas, fabricación y más.

El funcionamiento de cualquier tecnología de aprendizaje automático es inherentemente más opaco, incluso para los informáticos, que un sistema codificado a mano. Esto no quiere decir que todas las futuras técnicas de IA serán igualmente incognoscibles. Pero por su naturaleza, el aprendizaje profundo es una caja negra particularmente oscura.

No se puede simplemente mirar dentro de una red neuronal profunda para ver cómo funciona. El razonamiento de una red está incrustado en el comportamiento de miles de neuronas simuladas, dispuestas en docenas o incluso cientos de capas intrincadamente interconectadas. Cada una de las neuronas de la primera capa recibe una entrada, como la intensidad de un píxel en una imagen, y luego realiza un cálculo antes de emitir una nueva señal. Estas salidas se alimentan, en una red compleja, a las neuronas de la siguiente capa, y así sucesivamente, hasta que se produce una salida general. Además, existe un proceso conocido como retropropagación que modifica los cálculos de las neuronas individuales de manera que permite que la red aprenda a producir el resultado deseado.

Las muchas capas en una red profunda le permiten reconocer cosas en diferentes niveles de abstracción. En un sistema diseñado para reconocer perros, por ejemplo, las capas inferiores reconocen cosas simples como contornos o colores; las capas superiores reconocen cosas más complejas como pieles u ojos; y la capa superior lo identifica todo como un perro. El mismo enfoque se puede aplicar, en términos generales, a otras entradas que llevan a una máquina a aprender por sí misma: los sonidos que forman palabras en el habla, las letras y palabras que crean oraciones en el texto o los movimientos del volante necesarios para conducir.

"Podría ser parte de la naturaleza de la inteligencia que solo una parte esté expuesta a una explicación racional. Parte de ella es simplemente instintiva".

Se han utilizado ingeniosas estrategias para tratar de captar y así explicar con más detalle lo que ocurre en dichos sistemas. En 2015, los investigadores de Google modificaron un algoritmo de reconocimiento de imágenes basado en el aprendizaje profundo para que, en lugar de detectar objetos en las fotos, los generara o modificara. Al ejecutar efectivamente el algoritmo a la inversa, podrían descubrir las características que usa el programa para reconocer, por ejemplo, un pájaro o un edificio. Las imágenes resultantes, producidas por un proyecto conocido como Deep Dream, mostraban animales grotescos y extraterrestres que emergían de nubes y plantas, y pagodas alucinantes que florecían en bosques y cadenas montañosas. Las imágenes demostraron que el aprendizaje profundo no tiene por qué ser completamente inescrutable; revelaron que los algoritmos se centran en características visuales familiares como el pico o las plumas de un pájaro. Pero las imágenes también insinuaron cuán diferente es el aprendizaje profundo de la percepción humana, en el sentido de que podría hacer algo a partir de un artefacto que sabríamos ignorar. Los investigadores de Google notaron que cuando su algoritmo generaba imágenes de una mancuerna, también generaba un brazo humano sosteniéndola. La máquina había concluido que un brazo era parte de la cosa.

Se han hecho más progresos utilizando ideas tomadas de la neurociencia y la ciencia cognitiva. Un equipo dirigido por Jeff Clune, profesor asistente de la Universidad de Wyoming, ha empleado el equivalente de IA de las ilusiones ópticas para probar redes neuronales profundas. En 2015, el grupo de Clune mostró cómo ciertas imágenes pueden engañar a una red de este tipo para que perciba cosas que no existen, porque las imágenes explotan los patrones de bajo nivel que busca el sistema. Uno de los colaboradores de Clune, Jason Yosinski, también construyó una herramienta que actúa como una sonda clavada en el cerebro. Su herramienta apunta a cualquier neurona en medio de la red y busca la imagen que más la activa. Las imágenes que aparecen son abstractas (imagine una versión impresionista de un flamenco o un autobús escolar), lo que resalta la naturaleza misteriosa de las habilidades perceptivas de la máquina.

Sin embargo, necesitamos más que un vistazo al pensamiento de AI, y no hay una solución fácil. Es la interacción de los cálculos dentro de una red neuronal profunda lo que es crucial para el reconocimiento de patrones de alto nivel y la toma de decisiones complejas, pero esos cálculos son un atolladero de funciones y variables matemáticas. "Si tuviera una red neuronal muy pequeña, podría entenderla", dice Jaakkola. "Pero una vez que se vuelve muy grande, y tiene miles de unidades por capa y tal vez cientos de capas, entonces se vuelve bastante incomprensible".

En la oficina contigua a Jaakkola se encuentra Regina Barzilay, una profesora del MIT que está decidida a aplicar el aprendizaje automático a la medicina. Le diagnosticaron cáncer de mama hace un par de años, a los 43 años. El diagnóstico fue impactante en sí mismo, pero Barzilay también estaba consternada porque no se estaban utilizando métodos estadísticos y de aprendizaje automático de vanguardia para ayudar con la investigación oncológica o para guiar tratamiento del paciente Ella dice que la IA tiene un enorme potencial para revolucionar la medicina, pero darse cuenta de ese potencial significará ir más allá de los registros médicos. Ella prevé usar más de los datos sin procesar que, según ella, actualmente están infrautilizados: "datos de imágenes, datos de patología, toda esta información".

¿Qué tan bien podemos llevarnos bien con máquinas que son impredecibles e inescrutables?

Después de que terminó el tratamiento contra el cáncer el año pasado, Barzilay y sus estudiantes comenzaron a trabajar con médicos en el Hospital General de Massachusetts para desarrollar un sistema capaz de extraer informes de patología para identificar pacientes con características clínicas específicas que los investigadores podrían querer estudiar. Sin embargo, Barzilay entendió que el sistema necesitaría explicar su razonamiento. Entonces, junto con Jaakkola y un estudiante, agregó un paso: el sistema extrae y resalta fragmentos de texto que son representativos de un patrón que ha descubierto. Barzilay y sus estudiantes también están desarrollando un algoritmo de aprendizaje profundo capaz de encontrar signos tempranos de cáncer de mama en imágenes de mamografía, y su objetivo es darle a este sistema cierta capacidad para explicar su razonamiento también. "Realmente necesitas tener un ciclo en el que la máquina y el ser humano colaboren", dice Barzilay.

El ejército de EE. UU. está invirtiendo miles de millones en proyectos que utilizarán el aprendizaje automático para pilotar vehículos y aeronaves, identificar objetivos y ayudar a los analistas a filtrar enormes cantidades de datos de inteligencia. Aquí, más que en cualquier otro lugar, incluso más que en medicina, hay poco espacio para el misterio algorítmico, y el Departamento de Defensa ha identificado la explicabilidad como un obstáculo clave.

David Gunning, gerente de programa de la Agencia de Proyectos de Investigación Avanzada de Defensa, está supervisando el programa de Inteligencia Artificial Explicable, acertadamente llamado. Gunning, un veterano de cabello plateado de la agencia que anteriormente supervisó el proyecto DARPA que finalmente condujo a la creación de Siri, dice que la automatización se está infiltrando en innumerables áreas del ejército. Los analistas de inteligencia están probando el aprendizaje automático como una forma de identificar patrones en grandes cantidades de datos de vigilancia. Se están desarrollando y probando muchos vehículos terrestres y aviones autónomos. Pero los soldados probablemente no se sentirán cómodos en un tanque robótico que no se explica por sí mismo, y los analistas serán reacios a actuar sobre la información sin algún razonamiento. "La naturaleza de estos sistemas de aprendizaje automático suele ser que producen muchas falsas alarmas, por lo que un analista de inteligencia realmente necesita ayuda adicional para comprender por qué se hizo una recomendación", dice Gunning.

Este marzo, DARPA eligió 13 proyectos de la academia y la industria para su financiación bajo el programa de Gunning. Algunos de ellos podrían basarse en el trabajo dirigido por Carlos Guestrin, profesor de la Universidad de Washington. Él y sus colegas han desarrollado una forma para que los sistemas de aprendizaje automático proporcionen una justificación para sus resultados. Esencialmente, bajo este método, una computadora encuentra automáticamente algunos ejemplos de un conjunto de datos y los presenta en una breve explicación. Un sistema diseñado para clasificar un mensaje de correo electrónico como proveniente de un terrorista, por ejemplo, podría usar muchos millones de mensajes en su entrenamiento y toma de decisiones. Pero usando el enfoque del equipo de Washington, podría resaltar ciertas palabras clave que se encuentran en un mensaje. El grupo de Guestrin también ha ideado formas para que los sistemas de reconocimiento de imágenes insinúen su razonamiento al resaltar las partes de una imagen que eran más significativas.

Un inconveniente de este enfoque y otros similares, como el de Barzilay, es que las explicaciones proporcionadas siempre se simplificarán, lo que significa que se puede perder información vital en el camino. "No hemos logrado todo el sueño, que es cuando la IA tiene una conversación contigo y es capaz de explicarte", dice Guestrin. "Estamos muy lejos de tener una IA verdaderamente interpretable".

No tiene que ser una situación de alto riesgo como un diagnóstico de cáncer o maniobras militares para que esto se convierta en un problema. Conocer el razonamiento de la IA también será crucial para que la tecnología se convierta en una parte común y útil de nuestra vida diaria. Tom Gruber, quien lidera el equipo de Siri en Apple, dice que la explicación es una consideración clave para su equipo, ya que trata de hacer de Siri un asistente virtual más inteligente y capaz. Gruber no discutió planes específicos para el futuro de Siri, pero es fácil imaginar que si recibe una recomendación de restaurante de Siri, querrá saber cuál fue el razonamiento. Ruslan Salakhutdinov, director de investigación de IA en Apple y profesor asociado en la Universidad Carnegie Mellon, considera que la explicabilidad es el núcleo de la relación en evolución entre humanos y máquinas inteligentes. "Va a introducir la confianza", dice.

Así como muchos aspectos del comportamiento humano son imposibles de explicar en detalle, quizás la IA no pueda explicar todo lo que hace. "Incluso si alguien puede darte una explicación razonable [de sus acciones], probablemente esté incompleta, y lo mismo podría ser cierto para la IA", dice Clune, de la Universidad de Wyoming. "Podría ser parte de la naturaleza de la inteligencia que solo una parte de ella esté expuesta a una explicación racional. Parte de ella es simplemente instintiva, subconsciente o inescrutable".

Si es así, es posible que en algún momento tengamos que simplemente confiar en el juicio de AI o prescindir de su uso. Asimismo, ese juicio deberá incorporar la inteligencia social. Así como la sociedad se construye sobre un contrato de comportamiento esperado, necesitaremos diseñar sistemas de IA para respetar y ajustarse a nuestras normas sociales. Si vamos a crear tanques robóticos y otras máquinas de matar, es importante que su toma de decisiones sea consistente con nuestros juicios éticos.

Para probar estos conceptos metafísicos, fui a la Universidad de Tufts para reunirme con Daniel Dennett, un renombrado filósofo y científico cognitivo que estudia la conciencia y la mente. Un capítulo del último libro de Dennett, From Bacteria to Bach and Back, un tratado enciclopédico sobre la conciencia, sugiere que una parte natural de la evolución de la inteligencia misma es la creación de sistemas capaces de realizar tareas que sus creadores no saben cómo hacer. "La pregunta es, ¿qué adaptaciones tenemos que hacer para hacer esto sabiamente? ¿Qué estándares les exigimos a ellos y a nosotros mismos?" me dice en su desordenada oficina en el idílico campus de la universidad.

También tiene una palabra de advertencia sobre la búsqueda de la explicabilidad. "Creo que, por todos los medios, si vamos a usar estas cosas y depender de ellas, entonces tengamos un control lo más firme posible de cómo y por qué nos están dando las respuestas", dice. Pero dado que puede que no haya una respuesta perfecta, debemos ser tan cautelosos con las explicaciones de la IA como lo somos con los demás, sin importar cuán inteligente parezca una máquina. "Si no puede hacerlo mejor que nosotros al explicar lo que está haciendo", dice, "entonces no confíes en él".

Esta historia fue parte de nuestra edición de mayo/junio de 2017.

"De repente cambié mi punto de vista sobre si estas cosas van a ser más inteligentes que nosotros".

La narrativa sobre los estudiantes que hacen trampa no cuenta toda la historia. Conozca a los profesores que creen que la IA generativa podría mejorar el aprendizaje.

Hinton hablará en EmTech Digital el miércoles.

ChatGPT ha provocado especulaciones sobre la inteligencia artificial general. Pero la próxima fase real de la IA será en dominios y contextos específicos.

Descubra ofertas especiales, noticias destacadas, próximos eventos y más.

¡Gracias por enviar su correo electrónico!

Parece que algo salió mal.

Estamos teniendo problemas para guardar sus preferencias. Intente actualizar esta página y actualícelas una vez más. Si continúa recibiendo este mensaje, comuníquese con nosotros en [email protected] con una lista de boletines que le gustaría recibir.

COMPARTIR