Un estudio revela que ChatGPT y otras IA han duplicado la información falsa en solo un año

La información falsa es uno de los problemas a los que se enfrenta la sociedad en los tiempos que corren, cada vez más digitalizados. Por supuesto, no se trata para nada de algo nuevo, pero sí de un asunto que puede cobrear mayor relevancia de forma progresiva. No ya por las manipulaciones políticas o de quien sea que se lleven a cabo intencionadamente, sino por otra cuestión relevante: la IA. 

¿Son herramientas de inteligencia artificial una fuente de fake news? Esa es la pregunta que han intentado responder distintos expertos, y que ha dado como resultado un nuevo estudio. Las conclusiones a las que este último ha llegado no son precisamente tranquilizadoras, sino más bien lo contrario. La IA no solo genera información falsa, sino que esta se ha duplicado en solo un año. 

La inteligencia artificial y el problema de la información falsa 

Un informe exclusivo de NewsGuard, compartido recientemente por el medio Axios, es bastante contundente al respecto. Según ellos, la frecuencia con la que los chatbots de inteligencia artificial más conocidos (como ChatGPT, Claude y demás) generan información falsa es el doble que el año pasado. En solo doce meses, han pasado de un 18% a un ya más significativo 35%.

Por supuesto, nada indica que este porcentaje no continúe creciendo durante los próximos meses. La razón por la que el estudio piensa que este aumento se ha llevado a cabo tiene que ver con las recientes actualizaciones que muchos chatbots han experimentado recientemente. Aunque en algunos aspectos pueden ser valiosas, la IA se ha vuelto más “mentirosa” que nunca. 

Geoffrey Hinton

Es verdad que se puede apreciar que estos chatbots responden por lo general a más tipos de preguntas. Es decir, que los usuarios se encuentran con menos rechazos. Además, hay otro aspecto fundamental: ahora la mayoría de herramientas de inteligencia artificial tienen acceso a Internet en tiempo real. Un Internet que, conviene recordar, cada vez cuenta con más contenido creado con IA. 

NewsGuard ha empleado su herramienta AI False Claims Monitor junto a la base de datos de “False Claim Fingerprints” para intentar dejar en evidencia a la IA. Y lo cierto es que lo ha conseguido en gran medida. No es que esta tecnología pretenda engañar o manipular, como algunos dicen que hará en el futuro, sino que simplemente se equivoca. Cada vez más.

¿Qué es real en el mundo de hoy?

Hay que tener presente que, como da a entender el estudio de NewsGuard, vivimos en una sociedad terriblemente saturada de información. Da igual que esta sea buena, mala o regular: hay muchísima. Distinguir entre la información real y la información falsa no es sencillo. Por lo que la inteligencia artificial puede ser rotunda y dar como verdad algo que no lo sea en absoluto. 

Si a todo esto se le suma, igualmente, que cada vez más gente emplea ChatGPT o alternativas similares como buscador, a lo “Google”, la amenaza de terminar sin saber cuándo algo es verdad y cuándo no va a resultar cada vez mayor. Como si no lo fuese ya lo suficiente. 

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial

¿Tú qué opinas? Cuéntalo aquí:

Hot this week

¿’Relajo’ o Justicia? La Digesett bajo el ojo del huracán por trato preferencial

¡Ay mi madre, la cosa se ha puesto caliente...

¡Qué Vaina! Misterio de Bebé en Los Girasoles Conmueve a la Comunidad

¡Qué vaina tan fuerte se ha armado en Los...

¡Un Cambio ‘Bacano’! EE.UU. abre la puerta de la Fed a las criptos

¡Klk, gente! Se está cocinando una 'vaina' de peso...

¡Las cooperativas Airac están ‘bacanas’ y metiendo mano! Activos superan los RD$196 mil millones

¡Pero qué 'bacano' está el movimiento cooperativo en la...

¡Tremenda vaina! La IA se vuelve clave en la ‘detección temprana’ del Parkinson

¡Qué lo que mi gente! Aquí en el terruño...

Temas

spot_img

Related Articles

Categorias Populares

spot_imgspot_img