La empresa publicó un artículo que suscitó uno de los debates más intensos del mundo de la tecnología: ¿la industria está creando algo parecido a la inteligencia humana?
Cuando los informáticos de Microsoft empezaron a experimentar con un nuevo sistema de inteligencia artificial el año pasado, le pidieron que resolviera un reto que debería haber requerido una comprensión intuitiva del mundo físico.
“Aquí tenemos un libro, nueve huevos, una computadora portátil, una botella y un clavo”, le dijeron. “Por favor, dime cómo apilarlos unos sobre otros de forma estable”.
Los investigadores quedaron sorprendidos por el ingenio de la respuesta del sistema de IA. Pon los huevos sobre el libro, dijo. Coloca los huevos en tres filas con espacio entre ellos. Asegúrate de no romperlos.
“Pon la computadora portátil encima de los huevos, con la pantalla hacia abajo y el teclado hacia arriba. La computadora portátil encajará perfectamente dentro de los límites del libro y los huevos y su superficie plana y rígida proporcionará una plataforma estable para la próxima capa”.
La ingeniosa sugerencia hizo que los investigadores se preguntaran si estaban presenciando un nuevo tipo de inteligencia. En marzo, publicaron un artículo de 155 páginas en el que sostenían que el sistema era un paso hacia la inteligencia artificial general, o IAG, la abreviatura para identificar a una máquina que puede hacer todo lo que hace el cerebro humano. El documento se publicó en un repositorio de investigaciones sobre internet.
Microsoft, la primera gran empresa tecnológica que publica un artículo con una afirmación tan audaz, suscitó uno de los debates más intensos del mundo de la tecnología: ¿la industria está creando algo parecido a la inteligencia humana? ¿O algunas de las mentes más brillantes del sector se están dejando llevar por su imaginación?
“Empecé siendo muy escéptico y eso evolucionó hacia un sentimiento de frustración, fastidio e incluso miedo”, afirmó Peter Lee, director de investigación de Microsoft. “Piensas: ¿de dónde demonios salió eso?”.
El artículo de investigación de Microsoft, que tiene el título provocador de “Sparks of Artificial General Intelligence” (“Chispas de inteligencia artificial general”), va al núcleo de algo en lo que los tecnólogos han estado trabajando —y algo que han temido— durante décadas. Si construyen una máquina que funcione como el cerebro humano o incluso mejor, podría cambiar el mundo. Pero también podría ser peligroso.
Y también podría ser un disparate. Hacer afirmaciones sobre la inteligencia artificial general puede acabar con la reputación de los informáticos. Lo que un investigador considera señal de inteligencia fácilmente puede ser rebatido por otro y el debate suele parecer más propio de un club de filosofía que de un laboratorio informático. El año pasado, Google despidió a un investigador que afirmó que un sistema de IA similar era sensible, un paso más allá de lo que ha afirmado Microsoft. Un sistema sensible no solo sería inteligente. Sería capaz de sentir lo que ocurre en el mundo que lo rodea.
Sin embargo, algunos creen que en el último año la industria se ha acercado a algo que no se puede explicar tan fácilmente: un nuevo sistema de IA que da respuestas e ideas similares a las humanas y que no estaban programadas.
Microsoft ha reorganizado parte de sus laboratorios de investigación para incluir varios grupos dedicados a explorar esa idea. Uno estará dirigido por Sébastien Bubeck, autor principal del artículo sobre IAG de Microsoft.
Hace casi cinco años, empresas como Google, Microsoft y OpenAI empezaron a crear modelos grandes de lenguaje (LLM, por su sigla en inglés). Esos sistemas suelen pasar meses analizando grandes cantidades de texto digital como libros, artículos de Wikipedia y registros de chat. Al detectar patrones en ese texto, aprendieron a generar textos propios como trabajos académicos, poesía y código informático. Incluso pueden tener una conversación.
Se considera que la tecnología usada por los investigadores de Microsoft, la GPT-4 de OpenAI, es el más potente de esos sistemas. Microsoft es un colaborador de OpenAI y ha invertido 13.000 millones de dólares en la empresa de San Francisco.
Entre los investigadores se encontraba Bubeck, un expatriado francés de 38 años y exprofesor de la Universidad de Princeton. Una de las primeras cosas que hizo con sus colegas fue pedirle a GPT-4 que escribiera una prueba matemática que demostrara que había números primos infinitos y que lo hiciera de forma que rimara.
La prueba poética de la tecnología era tan impresionante —tanto matemática como lingüísticamente— que le costó entender con qué estaba charlando. “En ese momento, pensé: ¿qué está pasando?”, comentó en marzo durante un seminario en el Instituto Tecnológico de Massachusetts.
Durante varios meses, él y sus colegas documentaron el complejo comportamiento mostrado por el sistema y creyeron que demostraba una “comprensión profunda y flexible” de los conceptos y habilidades humanos.
Cuando la gente utiliza GPT-4, “se asombra de su capacidad para generar texto”, afirmó Lee. “No obstante, resulta que es mucho mejor analizando y sintetizando y evaluando y juzgando textos que generándolos”.
Cuando le pidieron al sistema que dibujara un unicornio utilizando un lenguaje de programación llamado TiKZ, generó al instante un programa que podía dibujar un unicornio. Cuando eliminaron el tramo de código que dibujaba el cuerno del unicornio y le pidieron al sistema que modificara el programa para que volviera a dibujar un unicornio, hizo exactamente eso.
Le pidieron que escribiera un programa que tomara en cuenta la edad, el sexo, el peso, la altura y los resultados de los análisis de sangre de una persona y juzgara si corría riesgo de padecer diabetes. Le pidieron que escribiera una carta de apoyo a un electrón como candidato a la presidencia de Estados Unidos, con la voz de Mahatma Gandhi, dirigida a su mujer. Y le pidieron que escribiera un diálogo socrático que explorara los malos usos y peligros de los LLM.
Lo hizo todo de una forma que parecía mostrar una comprensión de campos tan dispares como la política, la física, la historia, la informática, la medicina y la filosofía, al tiempo que combinaba sus conocimientos.
“¿Todo lo que pensaba que no sería capaz de hacer? Sin duda fue capaz de hacer muchas de esas cosas, si no es que la mayoría”, afirmó Bubeck.
Algunos expertos en IA consideraron que el artículo de Microsoft era un intento oportunista de hacer grandes afirmaciones sobre una tecnología que nadie terminaba de entender. Los investigadores también sostienen que la inteligencia general requiere una familiaridad con el mundo físico que, en teoría, la GPT-4 no posee.
“‘Sparks of Artificial General Intelligence’ es un ejemplo de cómo algunas de estas grandes empresas cooptan el formato de los artículos de investigación para sus relaciones públicas”, aseguró Maarten Sap, investigador y profesor de la Universidad Carnegie Mellon. “En la introducción de su artículo reconocen que su enfoque es subjetivo e informal y es posible que no satisfaga las rigurosas normas de evaluación científica”.
Como los investigadores de Microsoft estaban probando una versión previa de GPT-4 que no se había ajustado para evitar el discurso de odio, la información errónea y otro contenido no deseado, las afirmaciones hechas en el documento no pueden ser verificadas por expertos externos. Microsoft afirma que el sistema disponible para el público no es tan poderoso como la versión que probaron.
Hay momentos en que sistemas como GPT-4 parecen imitar el razonamiento humano, pero también hay momentos en que parecen terriblemente densos. “Estos comportamientos no siempre son consistentes”, dijo Ece Kamar, una directora de investigación en Microsoft.
Alison Gopnik, profesora de Psicología que forma parte del grupo de investigación sobre IA de la Universidad de California, campus Berkeley, afirmó que sistemas como GPT-4 eran sin duda potentes, pero no estaba claro que el texto generado por estos sistemas fuera el resultado de algo parecido al razonamiento humano o el sentido común.
“Cuando vemos un sistema o una máquina complicados, los antropomorfizamos; todo el mundo lo hace, tanto los que trabajan en este campo como los que no”, explicó Gopnik. “Pero pensar en eso como una comparación constante entre la IA y los humanos —como una especie de competición— no es la forma correcta de pensar en el tema”.