Mire, mi gente, la ‘vaina’ está prendida en el mundo académico de la Inteligencia Artificial (IA), ¡y no es chercha! Recientemente, la International Conference on Machine Learning (ICML), una de las cumbres más importantes para la Publicación Científica en este campo, metió un tapón a casi 500 artículos. ¿La razón? Resulta que un viaje de revisores, más de 500 para ser exactos, estaban utilizando la misma IA que se supone que estaban evaluando para hacer su trabajo. ¡Usted sabe, un disparate! Esto ha puesto en jaque la credibilidad de un sistema que lleva décadas funcionando y que es la columna vertebral de la investigación global.
La ICML, que es como el Santo Grial de los investigadores de Machine Learning desde los años 80, siempre ha sido el referente para saber qué es lo que se está cocinando en el área. Publicar ahí es como sacarse la loto, un prestigio que te abre un viaje de puertas. Los ‘papers’ se envían a principios de año, y un coro de expertos se encarga de evaluarlos con lupa. Sin embargo, en los últimos años, el crecimiento de artículos enviados ha sido una cosa de locos: casi un 50% de aumento de 2023 a 2024. ¡Imagínese! Y la cantidad de revisores capacitados no ha subido a ese mismo ritmo. Ahí es donde se forma el desorden, porque la gente se ve sin tiempo y busca la forma más cómoda de salir del ‘aprieto’.
La cosa no es un juego, porque la ICML tiene sus reglas claras: nada de usar IA a la ligera para revisar, porque eso puede meterle un sesgo a la evaluación que no hay quien lo saque. De hecho, un estudio reciente en ICLR 2024 reveló que los trabajos revisados con modelos de IA tendían a recibir puntuaciones más altas, ¡como si fuera un truco del ‘tigueraje’ para pasar la prueba! La vaina fue que la ICML para 2026 dio dos opciones a los evaluadores: o no usaban IA, o la usaban con condiciones estrictas. Los que cogieron la primera opción y la rompieron, esos fueron los que se fueron de ‘guagua’. Pero lo que esto demuestra es que el sistema ya estaba tambaleándose.
Lo más ‘jevi’ de todo esto es que muchos de los sancionados eran ‘evaluadores recíprocos’, o sea, eran investigadores que a la vez estaban revisando y también habían sometido sus propios trabajos. Así que, por el ‘relajo’ de usar la IA para revisar, también les tumbaron sus propios artículos. Un ‘quítate tú pa ponerme yo’ literal. Y la forma en que los cogieron fue de película: la ICML escondía instrucciones secretas dentro de los PDF que solo una IA podía leer y luego reproducir en la evaluación. ¡Una trampa que ningún humano podía ver! Después de la detección automática, cada caso se verificó a mano para asegurar que la ‘trampa’ fuera real, confirmando el problema.
En fin, mi gente, la realidad es que el sistema de revisión en la academia de la IA ha cogido un palo duro y necesita una reingeniería, pero de una vez. No solo la ICML, sino también otras conferencias como NeurIPS e ICLR están en las mismas. La escasez de revisores calificados ha llevado a que las decisiones de aceptación o rechazo se vuelvan un poco como tirar los dados, afectando la seriedad y la fiabilidad de todo el proceso. ¿Qué se puede hacer? Bueno, se está hablando de más transparencia, publicando todas las evaluaciones, y de un sistema donde los autores también evalúen la calidad de las revisiones que reciben. Así, los revisores tendrán un historial que demuestre si son ‘bacanos’ o si están en ‘chercha’. Ya veremos qué ‘estrategia de tigueraje’ deciden implementar para 2027. La esperanza es lo último que se pierde.Si te ha gustado este artículo, ¡compártelo con tus amigos, o déjanos un comentario!
Ingeniero de Sistemas especializado en Inteligencia Artificial y Automatización de Procesos. Con una trayectoria enfocada en la convergencia entre tecnología de vanguardia y comunicación digital, Ramón lidera la implementación de modelos generativos aplicados al periodismo dominicano. Su trabajo garantiza que la información que llega a la diáspora no solo mantenga nuestra identidad “del patio”, sino que cumpla con los más altos estándares de veracidad y optimización técnica de la web moderna (2026).


