Imaginemos una empresa cafetera que intenta optimizar su cadena de suministro. La empresa obtiene granos de tres proveedores, los tuesta en dos instalaciones para obtener café oscuro o claro, y luego envía el café tostado a tres puntos de venta. Los proveedores tienen diferentes capacidades fijas, y los costos de tueste y envío varían según el lugar.
La empresa busca minimizar costos y, al mismo tiempo, satisfacer un aumento del 23% en la demanda.
¿No sería más fácil simplemente pedirle a ChatGPT que elabore un plan óptimo?
De hecho, a pesar de sus increíbles capacidades, los modelos de lenguaje grandes (LLM) suelen tener un rendimiento deficiente cuando se les asigna la tarea de resolver directamente problemas de planificación tan complejos por sí solos.
En lugar de intentar cambiar el modelo para que un LLM sea un mejor planificador, investigadores del MIT adoptaron un enfoque diferente.
Introdujeron un marco que guía al LLM para desglosar el problema como lo haría un humano y luego lo resuelve automáticamente mediante una potente herramienta de software.
El usuario solo necesita describir el problema en lenguaje natural; no se requieren ejemplos específicos de la tarea para entrenar o activar el LLM.
El modelo codifica la solicitud de texto del usuario en un formato que puede ser descifrado por un solucionador de optimización diseñado para resolver eficazmente desafíos de planificación extremadamente complejos.
Durante el proceso de formulación, el LLM verifica su trabajo en múltiples pasos intermedios para garantizar que el plan se describa correctamente al solucionador.
Si detecta un error, en lugar de darse por vencido, el LLM intenta corregir la parte defectuosa de la formulación.
Cuando los investigadores probaron su marco en nueve desafíos complejos, como minimizar la distancia que deben recorrer los robots de almacén para completar las tareas, se logró una tasa de éxito del 85%, mientras que la mejor línea base solo alcanzó un 39%.
Este versátil marco podría aplicarse a diversas tareas de planificación de múltiples pasos, como la programación de tripulaciones de aerolíneas o la gestión del tiempo de las máquinas en una fábrica.
“Nuestra investigación presenta un marco que actúa esencialmente como un asistente inteligente para la planificación de problemas.
Puede determinar el mejor plan que satisfaga todas las necesidades, incluso si las reglas son complicadas o inusuales“, afirma Yilun Hao, estudiante de posgrado del Laboratorio de Sistemas de Información y Decisión (LIDS) del MIT y autor principal de un artículo sobre esta investigación.
El grupo Fan desarrolla algoritmos que resuelven automáticamente los conocidos como problemas de optimización combinatoria.
Estos vastos problemas tienen numerosas variables de decisión interrelacionadas, cada una con múltiples opciones que rápidamente suman miles de millones de opciones potenciales.
Los humanos resuelven estos problemas reduciéndolos a unas pocas opciones y luego determinando cuál conduce al mejor plan general.
Los solucionadores algorítmicos de los investigadores aplican los mismos principios a problemas de optimización demasiado complejos para que un humano los descifre.
Sin embargo, los solucionadores que desarrollan tienden a tener curvas de aprendizaje pronunciadas y, por lo general, solo los utilizan expertos.
Los LLM podrían permitir a personas sin experiencia utilizar estos algoritmos de resolución.
En el laboratorio, se toma el problema de un experto en el dominio y lo formaliza en un problema que el solucionador puede resolver.
¿Podríamos enseñar a un LLM a hacer lo mismo?, afirma Fan.
Utilizando el marco desarrollado por los investigadores, denominado Programación Formalizada Basada en LLM (LLMFP), una persona proporciona una descripción del problema en lenguaje natural, información general sobre la tarea y una consulta que describe su objetivo.
Luego, la LLMFP incita al LLM a razonar sobre el problema y determinar las variables de decisión y las restricciones clave que darán forma a la solución óptima.
La LLMFP le pide al LLM que detalle los requisitos de cada variable antes de codificar la información en una formulación matemática de un problema de optimización.
Escribe código que codifica el problema y llama al solucionador de optimización adjunto, que llega a una solución ideal.
“Es similar a cómo enseñamos a los estudiantes universitarios sobre problemas de optimización en el MIT. No les enseñamos solo un dominio. Les enseñamos la metodología“, añade Fan.
Siempre que las entradas del solucionador sean correctas, este proporcionará la respuesta correcta.
Cualquier error en la solución se debe a errores en el proceso de formulación.
Para garantizar que ha encontrado un plan funcional, LLMFP analiza la solución y modifica cualquier paso incorrecto en la formulación del problema.
Una vez que el plan supera esta autoevaluación, la solución se describe al usuario en lenguaje natural.
Este módulo de autoevaluación también permite al LLM añadir cualquier restricción implícita que no se haya detectado la primera vez, afirma Hao.
Por ejemplo, si el marco optimiza una cadena de suministro para minimizar los costos de una cafetería, una persona sabe que la cafetería no puede enviar una cantidad negativa de granos tostados, pero un LLM podría no darse cuenta.
La autoevaluación detectaría ese error e instaría al modelo a corregirlo.
“Además, un LLM puede adaptarse a las preferencias del usuario.
Si el modelo se da cuenta de que a un usuario en particular no le gusta cambiar el tiempo o el presupuesto de sus planes de viaje, puede sugerir cambios que se ajusten a las necesidades del usuario”, dice Fan.
En una serie de pruebas, su marco logró una tasa de éxito promedio de entre el 83 % y el 87 % en nueve problemas de planificación diversos utilizando varios LLM.
Si bien algunos modelos de referencia fueron mejores en ciertos problemas, LLMFP logró una tasa de éxito general aproximadamente el doble que las técnicas de referencia.
A diferencia de estos otros enfoques, LLMFP no requiere ejemplos de dominios específicos para la capacitación.
Puede encontrar la solución óptima a un problema de planificación desde el primer momento.
Además, el usuario puede adaptar LLMFP para diferentes solucionadores de optimización ajustando las indicaciones enviadas al LLM.
“Con los LLM, tenemos la oportunidad de crear una interfaz que permita a las personas utilizar herramientas de otros dominios para resolver problemas en formas en las que quizás no hubieran pensado antes“, dice Fan.
En el futuro, los investigadores quieren permitir que LLMFP tome imágenes como entrada para complementar las descripciones de un problema de planificación.
Esto ayudaría al marco a resolver tareas que son particularmente difíciles de describir completamente con lenguaje natural.
Fuente: arXiv