Friday, December 26, 2025
28.2 C
Santo Domingo

Un estudio descubre que ChatGPT-5 se equivoca una de cada cuatro veces, y hay una razón lógica para ello

Seguro que alguna vez has escuchado hablar de las “alucinaciones” de la inteligencia artificial. Incluso sin ser un entusiasta de esta tecnología o de herramientas como ChatGPT. La verdad es que los errores en los resultados de la IA son muy comunes. Según los expertos, cada vez más. Un nuevo estudio, sin ir más lejos, sostiene que ChatGPT-5 se confunde una de cada cuatro veces.

En realidad, se trata de una proporción de fallos altísima. Así que la pregunta que casi todo el mundo se hace, empezando por las empresas como OpenAI, es la siguiente: ¿por qué la IA mete tanto la pata? Lo cierto es que todo parece indicar que existe una razón lógica para explicar el motivo. Aunque claro, una cosa es entender por qué sucede y otra bastante más complicada poder remediarlo. 

ChatGPT no es muy de fiar, dice un nuevo estudio

Le pedí a ChatGPT que me mostrara los peligros de la IA y me dejó helado: "Esto pasará en menos de 5 años"

Imagen generada con IA

De todas las inteligencias artificiales que existen en estos momentos, la verdad es que ChatGPT es la más popular de todas. De ahí que muchos estudios se centren sobre todo en ella. A veces, sin dejar al chatbot de OpenAI y Sam Altman en lo que se dice un buen lugar. Una investigación compartida por el medio Tom’s Guide ha analizado en este caso su tasa de error. 

Es lo que muchos conocen como alucinaciones de la IA, pero que en realidad no son otra cosa que equivocaciones. ChatGPT responde como si estuviese convencido de que lo que está compartiendo es acertadísimo, cuando en realidad no tiene razón. Que es algo habitual se sabía. Lo que sorprende es que, según un estudio, tiende a pasar una de cada cuatro veces, nada más y nada menos. 

Programación desarrolladores inteligencia artificial

Para encontrar una explicación a esta tendencia, dicen los expertos, es necesario dirigirse a la forma en la que la inteligencia artificial se entrena. Actualmente, los sistemas de evaluación penalizan a los modelos por admitir incertidumbre. O lo que en el fondo viene a ser lo mismo: los impulsa a generar respuestas confiadas incluso cuando no están muy seguros de algo.

De la misma forma, el estudio también destaca que los modelos enfocados en el razonamiento, como OpenAI’s o3 y o4-mini, tienden a alucinar más que los modelos anteriores. Exactamente por lo mismo: dado que están entrenados para afirmar cada vez más, también esto significa que fallan con mayor frecuencia. 

¿Habrá fin para las alucinaciones de la IA? 

Como solución a este problema, los investigadores proponen cambiar la forma en que se evalúa la IA. Sin ir más lejos, premiando respuestas matizadas que indiquen incertidumbre o que remitan a otras fuentes, en lugar de fomentar respuestas excesivamente confiadas. Pero claro, eso quizá supondría un inconveniente para los intereses de la propia inteligencia artificial.

Porque sin su “razonamiento”, podría parecerse más a los buscadores de toda la vida, sin más. Y por lo tanto perdería, quizá, gran parte de su atractivo para alguno. Una situación complicada que sugiere que, al menos por el momento, las alucinaciones de la IA seguirán estando ahí, de una manera o de otra. 

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial

¿Tú que opinas? Cuéntalo aquí:

Hot this week

Temas

spot_img

Related Articles

Categorias Populares

spot_imgspot_img