Si hace unos años el papel de la IA generativa se limitaba a tareas repetitivas, en generar imágenes básicas u ofrecer información en segundos, hoy los modelos más avanzados están entrando en terrenos que antes parecían reservados solo a la inteligencia del ser humano.
Uno de ellos es la matemática avanzada, y el pasado mes de mayo, quedó demostrado que esa línea también está empezando a ceder. Un grupo de 30 matemáticos se reunió en California, EEUU, con el objetivo de poner a prueba a o4-mini, el modelo de lenguaje especializado en razonamiento matemático desarrollado por OpenAI.
Lo que esperaban que fuera un reto para la IA acabó convirtiéndose en una lección para muchos de ellos. Durante dos días, el evento organizado por Epoch AI bajo estrictos acuerdos de confidencialidad, matemáticos de universidades de Virginia o el Instituto de Ciencias Matemáticas de Londres trabajaron en la elaboración de problemas diseñados para medir los límites del chatbot.
Es importante mencionar que lo llamativo es que no se trataba solo de comprobar si la inteligencia artificial acertaba o fallaba en las operaciones matemáticas, sino de evaluar su forma de razonar, cómo abordaba cada desafío y hasta dónde era capaz de llegar sin ayuda humana.
Una IA que razona como un matemático
o4-mini representa una evolución respecto a los modelos de lenguaje tradicionales. Mientras que otros chatbots como ChatGPT se entrenan en grandes volúmenes de texto para aprender a predecir la siguiente palabra, o4-mini va más allá, puesto que consulta fuentes académicas, descompone problemas, plantea versiones simplificadas y utiliza lógica para llegar a una conclusión.
En este caso, el chatbot no se limitó a repetir fórmulas o patrones memorizados, sino que, a lo largo del fin de semana, resolvió alrededor del 20 % de las preguntas, frente al 2 % que suelen alcanzar los modelos anteriores cuando se enfrentan a problemas nuevos.
Cabe destacar que una de las pruebas más sorprendentes la propuso el matemático Ken Ono, donde le planteó a la IA una pregunta abierta dentro de la teoría de números, del tipo que solo un especialista en la materia sabría resolver o, al menos, abordar.
En lugar de quedarse bloqueado, el modelo solicitó primero reducir el problema a una versión más simple. Luego consultó literatura relacionada, procesó la información en pocos minutos y acabó ofreciendo una solución razonada, que dejó en silencio a quienes lo observaban. No solo dio con la respuesta; también explicó cómo la había alcanzado.
Cada vez que la IA no conseguía resolver un problema, el autor de ese reto recibía una compensación económica. De los más de 300 desafíos planteados, solo 10 lograron hacer que el modelo se detuviera. El resto fueron abordados con una solvencia que desconcertó incluso a quienes llevan décadas dedicándose a las matemáticas avanzadas.
Uno de los detalles que más inquietó a los expertos fue la seguridad con la que 4o-mini presentaba sus soluciones, donde su lenguaje era convincente. Según algunos matemáticos, esto puede llevar a aceptar respuestas erróneas solo por la autoridad con la que se exponen. El propio Ono lo denominó “prueba por intimidación”: si una IA argumenta con tanta precisión, es fácil no cuestionarla.
¿Qué papel queda para los matemáticos humanos?
El debate que se abrió entre los participantes no fue tanto sobre lo que el modelo inteligente podía hacer, sino sobre lo que dejaba en manos del ser humano. Si una IA es capaz de resolver en minutos problemas que a un matemático le llevarían semanas, el rol del experto puede cambiar.
En este caso, ya no se trataría de encontrar respuestas, sino de plantear las preguntas adecuadas y guiar a la máquina en el proceso de descubrimiento.
Esta idea, que hasta hace poco parecía lejana, empieza a tomar forma. Algunos expertos ya hablan del “nivel cinco”: una etapa en la que la IA generativa puede enfrentarse a cuestiones que ni siquiera los matemáticos más preparados del mundo saben cómo abordar.
Si se llega a ese punto, el trabajo en matemáticas podría parecerse más a la dirección de una investigación que al cálculo en sí. Y no es que las máquinas reemplacen a las personas, pero sí que el tipo de colaboración cambia radicalmente.
Si los expertos ya reconocen que estos modelos se acercan al trabajo de un matemático —y, en algunos casos, lo superan—, la pregunta que queda en el aire es clara, ¿cómo se regula, supervisa y emplea una IA que ya razona por sí misma?
Para muchos, como Yang-Hui He, físico matemático y miembro del Instituto de Londres, en el Reino Unido, la clave está en seguir cultivando la creatividad humana, porque ahí es donde la máquina y los chatbots todavía no llega y no lo hará en los próximos años.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial