Modelos de IA generativos creados por Google y OpenAI compitieron contra personas reales en las Olimpiadas Internacionales de Matemáticas, que finalizaron el fin de semana en Australia.
La inteligencia artificial (IA) poco a poco abarca mayor parte de la sociedad civil y aunque una conservadora minoría se niega a aceptar el cambio tecnológico, cada vez son más las empresas que invierten millones de dólares en potenciar este avance en beneficio tanto de sus colaboradores, como de sus clientes mismos.
En aras de medir el nivel de la IA, los distintos sectores han buscado ponerla a prueba no solo como herramienta facilitadora de automatización de diferentes tareas y la optimización de procesos, sino para medir sus capacidades y compararlas con las de los humanos a nivel cognitivo.
Mientras que algunos siguen cuestionando a la herramienta por no tener un proceso de razonamiento tal como el de la humanidad ni cualidades emocionales, otros las hacen competir contra el mundo real en certámenes como por ejemplo las Olimpiadas Internacionales de Matemáticas (OIM), donde se enfrentaron a personas reales.
Sin embargo, en las OIM de este año, que tuvieron lugar en Australia y finalizaron el domingo, los humanos vencieron a los modelos de IA generativos creados por Google y OpenAI en la importante competencia internacional de matemáticas, a pesar de que los programas alcanzaron puntuaciones de nivel oro por primera vez.
Ninguno de los modelos, cabe resaltar, obtuvo la máxima puntuación, a diferencia de cinco jóvenes en las OIM, evento anual en la que los participantes deben ser menores de 20 años.
Google dijo el lunes que una versión avanzada de su chatbot Gemini había resuelto cinco de los seis problemas de matemáticas planteados en las OIM, celebrada en Queensland.
«Podemos confirmar que Google DeepMind ha alcanzado el tan deseado hito, obteniendo 35 de los 42 puntos posibles: una medalla de oro», aseguró el presidente de la OIM, Gregor Dolinar, citado por el gigante tecnológico estadounidense.
Sus soluciones fueron sorprendentes en muchos aspectos. Los evaluadores de la OIM las consideraron claras, precisas y, en su mayoría, fáciles de seguir.
Alrededor del 10 por ciento de los concursantes humanos ganaron medallas de oro y cinco recibieron puntuaciones perfectas de 42 puntos.
OpenAI, el fabricante estadounidense de ChatGPT, reveló que su modelo de razonamiento experimental obtuvo 35 puntos, nivel oro, en la prueba.
El resultado «superó un gran desafío de larga data en IA» en «la competencia de matemáticas más prestigiosa del mundo», escribió el investigador de OpenAI, Alexander Wei, en las redes sociales.
«Evaluamos nuestros modelos sobre los problemas de la OIM de 2025 bajo las mismas reglas que los concursantes humanos», sostuvo, al tiempo que agregó que «para cada problema, tres exmedallistas de la OIM calificaron de forma independiente la prueba presentada en el modelo».
En las mismas competencias, pero del año anterior, Google había obtenido una medalla de plata en las OIM en la ciudad británica de Bath, resolviendo cuatro de los seis problemas.
Eso tomó de dos a tres días de cálculo, mucho más tiempo que este año, cuando su modelo Gemini resolvió los problemas dentro del límite de tiempo de 4,5 horas, según los organizadores.
La OIM, entretanto, afirmó que las empresas tecnológicas habían «probado de forma privada modelos de inteligencia artificial de código cerrado sobre los problemas de este año», los mismos que enfrentaron 641 estudiantes competidores de 112 países.
«Es muy emocionante ver avances en las capacidades matemáticas de los modelos de IA», afirmó el presidente de las OIM, Dolinar.
Los organizadores del concurso no pudieron verificar cuánta potencia informática habían utilizado los modelos de IA para medirse en la competencia, y tampoco asegurarse de si hubo o no participación humana en el proceso, advirtió.
Fuente: Team Inversiones & Negocios