Microsoft presenta modelo de lenguaje pequeño para para resolver problemas matemáticos

Microsoft presenta IA que usa pocos recursos para para resolver problemas matemáticos

Comparta este Artículo en:

Un equipo de investigadores de matemáticas e inteligencia artificial de Microsoft Asia ha diseñado y desarrollado un modelo de lenguaje pequeño (SLM) que se puede utilizar para resolver problemas matemáticos.

El grupo ha publicado un artículo que describe la tecnología y las matemáticas detrás de la nueva herramienta y su rendimiento en los puntos de referencia estándar.

Durante los últimos años, varios gigantes tecnológicos han trabajado arduamente para mejorar constantemente sus LLM, lo que dio como resultado productos de inteligencia artificial que en muy poco tiempo se han generalizado.

Lamentablemente, estas herramientas requieren cantidades masivas de potencia informática, lo que significa que consumen mucha electricidad, lo que hace que su mantenimiento sea costoso.

Debido a eso, algunos en el campo han estado recurriendo a los SLM, que, como su nombre lo indica, son más pequeños y, por lo tanto, consumen menos recursos.

Algunos son lo suficientemente pequeños como para ejecutarse en un dispositivo local.

Una de las principales formas en que los investigadores de IA hacen el mejor uso de los SLM es acotando su enfoque: en lugar de intentar responder cualquier pregunta sobre cualquier cosa, están diseñados para responder preguntas sobre algo mucho más específico, como las matemáticas.

En este nuevo esfuerzo, Microsoft ha centrado sus esfuerzos no solo en resolver problemas matemáticos, sino también en enseñar a un SLM a razonar para resolver un problema.

Al desarrollar su modelo, Microsoft lo hizo de una manera que permite su uso por otros modelos más grandes.

Una estrategia general que podría ser la ola del futuro.

Los nuevos LLM pronto podrían no ser nada más que una amalgama de muchos SLM.

Cabe destacar que el anuncio de Microsoft se produjo poco después del debut de su SLM Phi-4, que también sirve para resolver problemas matemáticos.

rStar-Math hace su trabajo de manera diferente a Phi-4, señalan los investigadores, haciendo uso de Monte Carlo Tree Search, un método de razonamiento desarrollado para imitar la forma en que los humanos abordan los problemas en un proceso paso a paso.

Señalan que, al utilizar este enfoque, su nuevo SLM puede descomponer un problema en partes más pequeñas como una forma de averiguar cómo resolver un problema en particular.

También señalan que rStar-Math muestra su trabajo al mostrar su proceso de pensamiento tanto en código Python como en lenguaje natural.

El equipo también señaló que rStar-Math ya ha obtenido buenos resultados en varios puntos de referencia.

Y según una publicación en Hugging Face, el equipo planea hacer que el código y los datos estén disponibles públicamente en GitHub.

Fuente: arXiv

 

Leave a Reply

Your email address will not be published. Required fields are marked *