Enseñando a las IA a saber cuándo pedir ayuda para proporcionar respuestas más precisas

Enseñando a las IA a saber cuándo pedir ayuda para proporcionar respuestas más precisas

Comparta este Artículo en:

Un equipo de científicos informáticos e investigadores de IA de la Universidad de California en San Diego, en colaboración con un colega de la Universidad de Tsinghua, ha desarrollado una táctica que ayuda a los modelos LLM a determinar más fácilmente cuándo necesitan ayuda de una fuente externa para proporcionar una respuesta precisa.

El grupo ha escrito un artículo que describe su enfoque, llamado “Adaptación mientras se aprende: puesta a tierra de los LLM para problemas científicos con el uso inteligente de herramientas“.

En los primeros días de la creación de LLM, los equipos de desarrollo asumieron que cuanto más grande era siempre mejor.

Se suponía que cuanto más parámetros se utilizaban, más precisas serían las respuestas producidas.

Más recientemente, los desarrolladores han descubierto que más grande no siempre es mejor: a veces los LLM se pueden hacer más inteligentes, y por lo tanto más precisos, añadiendo otras características o cambiando algunos de sus atributos básicos.

En este nuevo estudio, el equipo de investigación añadió una característica que permite a un LLM determinado evaluar su propia confianza en una respuesta mediante el uso de un control de seguridad integrado.

Los investigadores descubrieron que una comprobación de seguridad de este tipo podría ser algo tan simple como añadir una categorización antes de abordar un problema, como por ejemplo si una tarea determinada es fácil o difícil de llevar a cabo.

Descubrieron que esto podría permitir que un LLM mucho más pequeño fuera tan inteligente, o más inteligente, que uno mucho más grande.

Para utilizar el nuevo enfoque, el equipo desarrolló dos fases de aprendizaje.

La primera se llama “Destilación del conocimiento mundial” y su trabajo es aprender sobre soluciones utilizando herramientas externas.

Hacerlo ayuda al LLM a desarrollar experiencia sobre un tema determinado.

La segunda fase, llamada “Adaptación del uso de herramientas“, clasifica los problemas dándoles niveles de confianza al resolver una solución sin ayuda.

El sistema permite resolver problemas más simples (pero de alta confianza) sin siquiera verificar si podría necesitarse ayuda externa, lo que reduce las necesidades generales de recursos.

Si los problemas más difíciles requieren ayuda externa, se puede hacer más rápidamente debido a las menores demandas de gastos generales.

Las pruebas del sistema en un modelo con solo 8 mil millones de parámetros mostraron que tenía una mejora del 28,18% en la precisión de las respuestas en comparación con el mismo tipo de modelo sin los cambios.

También condujo a un aumento del 13,89 % en la precisión del uso de la herramienta, razón por la cual, señala el equipo, el sistema fue mucho más preciso.

Los investigadores sugieren que su nuevo enfoque demuestra que más grande no siempre es mejor y que se pueden crear LLM extremadamente potentes sin recurrir a aumentos masivos de tamaño.

Fuente: arXiv

 

Leave a Reply

Your email address will not be published. Required fields are marked *