El sistema de inteligencia artificial combina AlphaProof, un nuevo modelo innovador para el razonamiento formal, y AlphaGeometry 2, una versión mejorada de su sistema anterior.
Deepmind, la compañía de inteligencia artificial de Google, anunció esta semana que logró resolver los problemas planteados en la Olimpiada Internacional de Matemáticas (OIM) de 2024, alcanzando el nivel de un medallista de plata, lo que representa un avance en el desafío que enfrenta esta tecnología para adquirir capacidades de razonamiento.
El sistema de
inteligencia artificial resolvió cuatro de los seis problemas de la Olimpiada Internacional de Matemáticas 2024, una competencia anual para estudiantes preuniversitarios que involucra álgebra, combinatoria, geometría y teoría de números. Para supervisar la puntuación,
Google invitó a los matemáticos Timothy Gowers y al Dr. Joseph K. Myers, quienes determinaron que el modelo de IA había sumado 28 puntos, lo que equivale a ganar una medalla de plata.
Para problemas de no geometría, se utilizó AlphaProof, que puede crear pruebas en Lean, un asistente de pruebas y un lenguaje de programación basado en el cálculo de construcciones con tipos inductivos. Desarrollado por Lean Focused Research Organization (FRO) y lanzado en Microsoft Research en 2013, AlphaProof combina un modelo de lenguaje previamente entrenado con AlphaZero, el algoritmo de aprendizaje a partir de refuerzo que anteriormente aprendió a dominar juegos como ajedrez, shogi y Go.
Cabe resaltar que el aprendizaje automático se divide en tres grandes áreas: el aprendizaje supervisado, el aprendizaje no supervisado y el aprendizaje por refuerzo. Este último consiste en recompensar al algoritmo cuando se considera que lo ha hecho bien y penalizarlo en caso contrario.
El algoritmo Alpha Zero es una versión más genérica del algoritmo AlphaGo Zero, que se introdujo por primera vez con el juego Go. AlphaZero evalúa posiciones utilizando una aproximación de función no lineal basada en una red neuronal profunda, en lugar de la aproximación de función lineal que se utiliza en los programas de ajedrez clásicos.
Según
Google, los lenguajes de programación matemática como Lean permiten verificar formalmente las respuestas, pero su uso se ha visto limitado por la falta de datos disponibles escritos por humanos. Por ello, Deepmind ajustó un modelo multimodal Gemini para traducir problemas de lenguaje natural a un conjunto de problemas formales para entrenar AlphaProof.
Así, cuando se le presenta un problema, AlphaProof intenta probarlo o refutarlo buscando posibles pasos en Lean. Luego, cada éxito se utiliza para reforzar su red neuronal, mejorándola para abordar problemas posteriores más difíciles.
Para resolver los problemas de geometría, se implementó AlphaGeometry 2, un sistema híbrido neurosimbólico cuyo modelo de lenguaje basado en Gemini se entrenó con más datos sintéticos, lo que le permitió abordar más tipos de problemas, como observar movimientos de objetos.
Impulsado por un novedoso algoritmo de búsqueda, AlphaGeometry 2 ahora puede resolver el 83% de todos los problemas históricos de los últimos 25 años, en comparación con la tasa del 53% de su predecesor. Fue así como resolvió el problema 4 de la Olimpiada Internacional de Matemáticas de este año en 19 segundos.
"Estamos entusiasmados de ver cómo nuestro nuevo sistema podría ayudar a acelerar las matemáticas impulsadas por la IA, desde completar rápidamente elementos de pruebas hasta eventualmente descubrir nuevos conocimientos para nosotros y desbloquear más avances hacia AGI", dijo
Google en un comunicado.
Más en Andina:
(FIN) NDP/DSV/SPV
Publicado: 29/7/2024