Getting your Trinity Audio player ready... |
Un «científico de IA» (agente IA) desarrollado en el laboratorio de UBC, junto con investigadores de la Universidad de Oxford y una startup llamada Sakana AI, creó una serie de documentos resultantes de una investigación. Sin embargo, lo contenido en los documentos no es tan importante como el hecho de que fueron elaborados por un científico de IA creado por otra IA.
Este descubrimiento ya se califica como un posible generador de “scientific Slop” y tiene potencial para serlo, pues crea más información sobre cosas que ya se saben o ya existen.
IA Scientist: el científico de IA no tan asombroso
Esto es lo que realmente hace el científico de IA:
“El científico de IA es un ejemplo del laboratorio de Clune explorando las posibilidades. El programa crea experimentos de aprendizaje automático, decide qué parece más prometedor con la ayuda de un LLM, luego escribe y ejecuta el código necesario, y repite el proceso.”
Jeff Clune, el profesor que lidera el laboratorio de UBC, reconoce que este avance es relevante, ya que comprueba que cuando un programa de IA crea un agente de IA, el resultado es superior al que se obtiene cuando es un humano quien crea al agente. Estos agentes de IA creados por otra IA son mejores en matemáticas y comprensión lectora.
El agente creado con la IA generó un conjunto de artículos de investigación en un ambiente controlado por un destacado laboratorio de inteligencia artificial en la Universidad de Columbia Británica en Vancouver. Lo que creó no fue novedoso, pero el hecho en sí lo fue.
“Los artículos describen ajustes para mejorar una técnica de generación de imágenes conocida como modelado por difusión; otro describe un enfoque para acelerar el aprendizaje en redes neuronales profundas”, afirmó Clune.
Algo a destacar sobre estos artículos es que, al presentar mejoras incrementales en algoritmos e ideas existentes, el contenido se lee como si fuese el resultado de una conferencia o revista de inteligencia artificial de nivel medio.
Sin embargo, más allá de la creación de estos documentos, lo importante es lo que representa el hecho de que la IA pueda crear estos documentos. El proyecto es un paso inicial en el camino hacia la construcción de una IA independiente.
«El siguiente paso será encontrar la forma de evitar que el sistema genere agentes que se comporten mal. Es potencialmente peligroso. Necesitamos hacerlo bien, pero creo que es posible». dice Clune sobre este trabajo.
La realidad de la IA y de IA Scientis en este momento y de
Los programas de inteligencia artificial actuales pueden parecer asombrosos, y muchos de ellos lo son, pero siguen estando limitados por su necesidad de datos y de un entrenamiento generados por humanos, previo a cualquier trabajo.
Lo que hemos aprendido es que si los programas de IA pudieran entender su entorno de manera independiente, experimentando y explorando ideas de manera natural (similar a lo que hace un humano), podrían desbloquear capacidades que van más allá de lo que los humanos les han mostrado. Pero estamos muy lejos de esa realidad aún.
El laboratorio de Clune ha intentado desarrollar programas de IA para aprender de esa manera.
Clune diseñó en el pasado un programa llamado Omni, que intentaba generar el comportamiento de personajes virtuales en varios entornos similares a videojuegos. Su objetivo era archivar personajes que parecían interesantes y luego iterar sobre ellos con nuevos diseños.
Incluso Omni requirió instrucciones previas codificadas a mano para definir lo que era interesante. Sin embargo, los modelos de lenguaje grandes (LLM) proporcionan una forma de permitir que estos programas identifiquen lo más intrigante debido a su capacidad para imitar el razonamiento humano.
Otro proyecto reciente del laboratorio de Clune utilizó este enfoque para permitir que los programas de IA idearan el código que permite a los personajes virtuales hacer todo tipo de cosas dentro de un mundo similar a Roblox.