El código y los datos cada vez más cerca.
El código y los datos cada vez más cerca.
Estoy trasteando con Python y APIs de modelos de lenguaje y me doy cuenta de que se empieza a borrar la frontera entre cuándo programamos y cuándo damos instrucciones en lenguaje llano.
La programación 2.0, apoyada en LLMs se basa en masticar parte de las tareas en código y dar las instrucciones al modelo con parte del trabajo ya hecho.
Por ejemplo: quiero buscar el autor de un documento que sé que está estructurado con los datos al inicio, puedo cortar la primera parte del texto y pasarle al modelo sólo eso dentro del prompt para que busque ahí el nombre del autor. Con esto ahorramos tokens, que valen dinero, memoria del modelo, que es un recurso escaso, y evitamos errores al eliminar la posibilidad de que confunda el nombre que buscamos con otro en otra parte del documento.
Pero, claro, también podríamos hacer que sea un LLM el que seleccione la parte del texto que contiene el dato que buscamos y se lo pase a otro modelo que lo procese. En este caso nuestro código para seleccionar ese texto se convierte en instrucciones, en texto plano, en una palabra, en datos.
Me está interesando mucho la resolución de problemas con agentes; modelos de lenguaje que realizan tareas concretas con otro modelo que los dirige. Cuando tenga esto más estructurado prometo articulillo, si os interesa.