Un equipo de investigadores del proyecto DeepMind de Google informa que su IA AlphaGeometry2 obtuvo un desempeño digno de medalla de oro cuando se le asignó la tarea de resolver problemas que se les dieron a estudiantes de secundaria que participaron en la Olimpiada Internacional de Matemáticas (OIM) durante los últimos 25 años.
Investigaciones anteriores han sugerido que la IA que puede resolver problemas de geometría podría conducir a aplicaciones más sofisticadas porque requieren un alto nivel de capacidad de razonamiento y una capacidad de elegir entre los posibles pasos para trabajar hacia una solución a un problema.
Con ese fin, el equipo de DeepMind ha estado trabajando en el desarrollo de aplicaciones de resolución de geometría cada vez más sofisticadas.
Su primera iteración se lanzó en enero pasado y se llamó AlphaGeometry; su segunda iteración se llama AlphaGeometry2.
El equipo de DeepMind lo ha combinado con otro sistema que desarrollaron llamado Alpha Proof, que realiza pruebas matemáticas.
El equipo descubrió que era capaz de resolver 4 de los 6 problemas enumerados en la IMO el verano pasado.
Para este nuevo estudio, el equipo de investigación amplió las pruebas de la capacidad del sistema al darle múltiples problemas utilizados por la IMO durante los últimos 25 años.
El equipo de investigación construyó AlphaGeometry2 combinando múltiples elementos centrales, uno de los cuales es el modelo de lenguaje Gemini de Google.
Otros elementos utilizan reglas matemáticas para encontrar soluciones al problema original o partes de él.
El equipo señala que para resolver muchos problemas de la IMO, se deben agregar ciertos constructos antes de continuar, lo que significa que su sistema debe ser capaz de crearlos.
Su sistema luego intenta predecir cuál de los que se han agregado a un diagrama se debe usar para hacer las deducciones necesarias requeridas para resolver un problema.
AlphaGeometry2 sugiere pasos que podrían usarse para resolver un problema determinado y luego verifica la lógica de los pasos antes de usarlos.
Para probar su sistema, los investigadores eligieron 45 problemas de la OMI, algunos de los cuales requerían traducirse a una forma más utilizable, lo que dio como resultado un total de 50 problemas.
Informan que AlphaGeometry2 pudo resolver 42 de ellos correctamente, un poco más que el promedio de los medallistas de oro humanos en la competencia.
Fuente: arXiv