banner

Noticias

Nov 30, 2023

La inteligencia artificial general no es tan inminente como podría pensarse

Para la persona promedio, debe parecer que el campo de la inteligencia artificial está progresando inmensamente. De acuerdo con algunas de las cuentas de los medios y comunicados de prensa más efusivos, DALL-E 2 de OpenAI aparentemente puede crear imágenes espectaculares a partir de cualquier texto; otro sistema OpenAI llamado GPT-3 puede hablar de casi cualquier cosa e incluso escribir sobre sí mismo; y un sistema llamado Gato que fue lanzado en mayo por DeepMind, una división de Alphabet, supuestamente funcionó bien en todas las tareas que la compañía podía realizar. Uno de los ejecutivos de alto nivel de DeepMind incluso llegó a alardear de que en la búsqueda de crear una IA que tenga la flexibilidad y el ingenio de la inteligencia humana, conocida como inteligencia artificial general o AGI, "el juego ha terminado".

No se deje engañar. Es posible que algún día las máquinas sean tan inteligentes como las personas y tal vez incluso más inteligentes, pero el juego está lejos de terminar. Todavía queda una inmensa cantidad de trabajo por hacer para fabricar máquinas que realmente puedan comprender y razonar sobre el mundo que las rodea. Lo que necesitamos en este momento es menos posturas y más investigación básica.

La IA está progresando: las imágenes sintéticas se ven cada vez más realistas, y el reconocimiento de voz a menudo puede funcionar en entornos ruidosos, pero es probable que aún estemos a décadas de distancia de la IA de propósito general a nivel humano que puede comprender el verdadero significado de artículos y videos o hacer frente a obstáculos inesperados e interrupciones. El campo está atascado precisamente en los mismos desafíos que los científicos académicos (incluido yo mismo) han estado señalando durante años: lograr que la IA sea confiable y hacer frente a circunstancias inusuales.

Tomemos como ejemplo al recientemente célebre Gato, un presunto experto en todos los oficios, y cómo subtituló una imagen de un lanzador lanzando una pelota de béisbol (arriba). Las tres conjeturas principales del sistema fueron:

Un jugador de béisbol lanzando una pelota encima de un campo de béisbol. Un hombre lanzando una pelota de béisbol a un lanzador en un campo de béisbol. Un jugador de béisbol al bate y un receptor en la tierra durante un partido de béisbol.

La primera respuesta es correcta, pero las otras dos respuestas incluyen alucinaciones de otros jugadores que no se ven en la imagen. El sistema no tiene idea de lo que hay realmente en la imagen, más allá de las aproximaciones aproximadas que extrae de las similitudes estadísticas con otras imágenes. Cualquier aficionado al béisbol reconocería que se trata de un lanzador que acaba de lanzar la pelota y no al revés. Y aunque esperamos que un receptor y un bateador estén cerca, obviamente no aparecen en la imagen.

Del mismo modo, DALL-E 2 no pudo distinguir la diferencia entre una imagen de un cubo rojo encima de un cubo azul y una imagen de un cubo azul encima de un cubo rojo. Un sistema más nuevo, lanzado en mayo pasado, no podía notar la diferencia entre un astronauta montando a caballo y un caballo montando a un astronauta.

Cuando los sistemas de creación de imágenes como DALL-E 2 cometen errores, el resultado puede ser divertido. Pero a veces los errores producidos por la IA provocan graves consecuencias. Recientemente, un Tesla con piloto automático condujo directamente hacia un trabajador humano que llevaba una señal de alto en medio de la carretera, y redujo la velocidad solo cuando intervino el conductor humano. El sistema podía reconocer a los humanos por sí mismos (que es como aparecían en los datos de entrenamiento) y las señales de alto en sus ubicaciones habituales (como aparecían en las imágenes de entrenamiento), pero no disminuía la velocidad cuando se enfrentaba a la combinación desconocida de los dos. que puso la señal de alto en una posición nueva e inusual.

Desafortunadamente, el hecho de que estos sistemas aún no funcionen de manera confiable y luchen con circunstancias novedosas generalmente se oculta en la letra pequeña. Gato, por ejemplo, funcionó bien en todas las tareas informadas por DeepMind, pero rara vez tan bien como otros sistemas contemporáneos. GPT-3 a menudo crea una prosa fluida pero tiene problemas con la aritmética básica y tiene tan poco contacto con la realidad que es propenso a crear oraciones como "Algunos expertos creen que el acto de comerse un calcetín ayuda al cerebro a salir de su estado alterado como un resultado de la meditación". Sin embargo, una mirada superficial a los titulares recientes no le informaría acerca de ninguno de estos problemas.

La trama secundaria aquí es que los mayores equipos de investigadores en IA ya no se encuentran en la academia, donde la revisión por pares era la moneda del reino, sino en las corporaciones. Y las corporaciones, a diferencia de las universidades, no tienen ningún incentivo para jugar limpio. En lugar de someter sus ostentosos artículos nuevos al escrutinio académico, se han dedicado a la publicación mediante comunicados de prensa, seduciendo a los periodistas y eludiendo el proceso de revisión por pares. Solo sabemos lo que las empresas quieren que sepamos.

En la industria del software, hay una palabra para este tipo de estrategia: "demoware", software diseñado para verse bien para una demostración pero no necesariamente lo suficientemente bueno para el mundo real. A menudo, el demoware se convierte en vaporware, anunciado por sorpresa y asombro para desalentar a los competidores, pero nunca lanzado en absoluto.

Sin embargo, los pollos tienden a volver a casa para dormir, eventualmente. La fusión fría puede haber sonado genial, pero aún no puedes conseguirla en el centro comercial. Es probable que AI experimente un invierno de expectativas desinfladas. Demasiados productos, como automóviles sin conductor, radiólogos automatizados y agentes digitales de uso múltiple, se han demostrado, publicitado y nunca entregado. Por ahora, los dólares de inversión siguen siendo prometedores (¿a quién no le gustaría un automóvil autónomo?). Pero si no se resuelven los problemas centrales de la falta de confiabilidad y la incapacidad para hacer frente a los valores atípicos, la inversión se agotará. Es posible que obtengamos avances sólidos en la traducción automática y el reconocimiento de voz y objetos, pero muy poco más para mostrar a pesar de todo el bombo prematuro. En lugar de ciudades "inteligentes" y atención médica "democratizada", nos quedaremos con deepfakes destructivos y redes de succión de energía que emiten inmensas cantidades de carbono.

Aunque el aprendizaje profundo ha mejorado la capacidad de las máquinas para reconocer patrones en los datos, tiene tres fallas principales. Los patrones que aprende son, irónicamente, superficiales, no conceptuales; los resultados que crea son difíciles de interpretar; y los resultados son difíciles de usar en el contexto de otros procesos, como la memoria y el razonamiento. Como señaló Les Valiant, científico informático de la Universidad de Harvard, "el desafío central [en el futuro] es unificar la formulación de... aprendizaje y razonamiento". No puedes lidiar con una persona que lleva una señal de alto si realmente no entiendes lo que es una señal de alto.

Por ahora estamos atrapados en un "mínimo local" en el que las empresas persiguen puntos de referencia en lugar de ideas fundacionales. La práctica de la ingeniería actual está muy por delante de las habilidades científicas: estos departamentos se centran en lograr pequeñas mejoras con las herramientas poco conocidas que ya tienen en lugar de desarrollar nuevas tecnologías con una base teórica más clara. Esta es la razón por la cual la investigación básica sigue siendo crucial. Que una gran parte de la comunidad de investigación de IA (como los que gritan "Se acabó el juego") ni siquiera se da cuenta de eso es, bueno, desgarrador.

Imagínese si algún extraterrestre estudiara toda la interacción humana solo mirando las sombras en el suelo, notando, para su crédito, que algunas son más grandes que otras y que todas las sombras desaparecen en la noche. Tal vez incluso notara que las sombras crecían y se encogían regularmente en ciertos intervalos periódicos, sin siquiera mirar hacia arriba para ver el sol o reconocer el mundo tridimensional de arriba.

Es hora de que los investigadores de inteligencia artificial dejen de mirar las llamativas demostraciones directas a los medios y se hagan preguntas fundamentales sobre cómo construir sistemas que puedan aprender y razonar al mismo tiempo.

¿La inteligencia artificial alguna vez estará a la altura de sus expectativas? Juan Horgan; ScientificAmerican.com, 4 de diciembre de 2020.

kate wong

Daniel Cusick y E&E Noticias

brianne kane

H.-S. Felipe Wong | Opinión

Noemí Oreskes

felipe bola

COMPARTIR