Microsoft defiende que la nueva IA muestra signos de razonamiento humano


Es la conclusión de un estudio en el que aseguran que la inteligencia artificial tiene la capacidad de comprender como lo hacen las personas
¿Estamos construyendo algo parecido a la inteligencia humana?
Los trabajos más afectados por la inteligencia artificial: ¿es el fin de la clase media?
La llegada de la versión 4 de ChatGPT ha revolucionado la forma en la que interactuamos con los sistemas informáticos. Según sus creadores, OpenAI, la nueva versión es "más rápida, precisa y humana" que la anterior. Ahora un nuevo estudio llevado a cabo por otro gigante de la IA, Microsoft, parece confirmarlo.
Cuando los informáticos de Microsoft arrancaron su investigación con este nuevo sistema de inteligencia artificial el año pasado, le pidieron que resolviera un rompecabezas que requería una comprensión intuitiva del mundo físico. “Tenemos un libro, nueve huevos, un ordenador portátil, una botella y un clavo”, le dijeron. "Queremos saber cómo apilarlos entre sí de manera estable".
Los investigadores se sorprendieron por el ingenio de la respuesta del sistema de IA. "Pon los huevos en el libro, contestó. Colócalos en tres filas con espacio entre ellos. Asegúrate de no romperlos. Coloca el ordenador portátil encima de los huevos, con la pantalla hacia abajo y el teclado hacia arriba”, escribió. “El ordenador encajará perfectamente dentro de los límites del libro y los huevos, y su superficie plana y rígida proporcionará una plataforma estable para la siguiente capa”.
La inteligente respuesta llevó a los investigadores a preguntarse si estaban ante un nuevo tipo de inteligencia. Una teoría que han recogido en un artículo de investigación de 155 páginas en el que argumentan que este sistema es un paso hacia la inteligencia artificial general, o AGI.
AGI es la abreviatura de una máquina que demuestra amplias capacidades de inteligencia, incluido el razonamiento, la planificación y la capacidad de aprender de la experiencia al nivel humano o superior.
Microsoft ha sido la primera gran empresa de tecnología en publicar un documento que defiende una afirmación tan osada. Un artículo polémico que ha encendido uno de los debates más encarnizado del mundo tecnológico: ¿Está la industria construyendo algo parecido a la inteligencia humana? ¿O algunas de las mentes más brillantes de la industria se están dejando arrastrar por su imaginación?
'Chispas de inteligencia artificial general'
El artículo de investigación de Microsoft, provocadoramente llamado Chispas de inteligencia artificial general, ahonda en la disyuntiva que se ha planteado durante décadas. Si se construye una máquina que funcione como el cerebro humano o incluso mejor, podría cambiar el mundo. Pero también podría ser peligroso. O quizás esta nueva IA no sea para tanto...
Lo que un investigador interpreta como señal de inteligencia puede ser fácilmente explicado por otro, y el debate parece en ocasiones más apropiado de un club de filosofía que de un laboratorio de informática. El año pasado, Google despidió a un investigador que afirmó que un sistema de IA similar era sensible, un paso más allá de lo que afirma Microsoft. Un sistema sensible no sería simplemente inteligente, sería capaz de sentir o sentir lo que está sucediendo en el mundo que lo rodea.
En lo que hay consenso es que en el último año la industria ha avanzado hacia algo que no se puede explicar: un nuevo sistema de inteligencia artificial que está generando respuestas e ideas similares a las humanas que no fueron programadas en él.
Hace unos cinco años, empresas como Google, Microsoft y OpenAI comenzaron a crear grandes modelos de lenguaje, o LLM. Esos sistemas a menudo pasan meses analizando grandes cantidades de texto digital, incluidos libros, artículos de Wikipedia y registros de chat. Al identificar patrones en ese texto, aprendieron a generar texto propio, incluidos trabajos finales, poesía y código de computadora. Incluso pueden mantener una conversación.
La tecnología con la que han trabajando los investigadores de Microsoft, GPT-4, se considera el más poderoso de esos sistemas. Microsoft ha invertido más de 10.000 millones en la empresa que lo ha desarrollado OpenAI, para impulsar la inteligencia artificial.
Una de las primeras cosas que los investigadores de Microsoft le pidieron a GPT-4 fue que escribiera una prueba matemática que mostrara que había infinitos números primos y que lo hiciera de forma que rimara. El resultado fue tan impresionante, tanto matemática como lingüísticamente, que les llevó a preguntarse con qué estaban hablando.
Durante varios meses, documentaron el comportamiento complejo exhibido por el sistema y concluyeron que demostraba una "comprensión profunda y flexible" de los conceptos y habilidades humanas.
Cuando las personas usan GPT-4, se "sorprenden de su capacidad para generar texto", ha dicho Peter Lee, que dirige la investigación en Microsoft. “Pero resulta mucho más eficiente para analizar, sintetizar, evaluar y juzgar el texto que para generarlo”.
Cuando le pidieron al sistema que dibujara un unicornio usando un lenguaje de programación llamado TiKZ, instantáneamente generó un programa que podía dibujar un unicornio. Cuando eliminaron el fragmento de código que dibujaba el cuerno del unicornio y le pidieron al sistema que modificara el programa para que una vez más dibujara un unicornio, volvió a hacerlo sin problema.
Le pidieron que tuviera en cuenta la edad, el sexo, el peso, la altura y los resultados de los análisis de sangre de una persona y juzgara si corría riesgo de diabetes. Le pidieron que escribiera una carta de apoyo a un candidato presidencial de EE.UU., en nombre de Mahatma Gandhi, dirigido a su esposa. Y le pidieron que escribiera un diálogo socrático que explorara los malos usos y peligros de los modelos de lenguaje de la IA.
Lo hizo todo de una forma que indicaba una comprensión general de campos tan dispares como la política, la física, la historia, la informática, la medicina y la filosofía mientras combinaba sus conocimientos.
"Todas las cosas que pensamos que no sería capaz de hacer las hizo sin problema, al menos la mayoría de ellas”, explican sorprendidos los investigadores de Microsoft.
Algunos expertos en IA han criticado que el artículo y sus conclusiones están basadas en un enfoque subjetivo e informal que no satisface los rigurosos estándares de la evaluación científica. Y que la inteligencia general requiere una familiaridad con el mundo físico que GPT-4 en teoría no tiene.
Desde Microsoft argumentan que el sistema disponible para el público no es tan potente como la versión que ellos probaron. Reconocen también que de la misma forma que GPT-4 parece imitar el razonamiento humano en ocasiones, en otras su respuesta no es tan óptima. Aseguran que por eso no estaban seguros de cómo describir el comportamiento de este sistema y finalmente se decidieron por Chispas de inteligencia artificial general. Un título que hace volar la imaginación tanto de investigadores de la IA como de los profanos en el tema.