Un estudio revela que ChatGPT y otras IA han duplicado la información falsa en solo un año

La información falsa es uno de los problemas a los que se enfrenta la sociedad en los tiempos que corren, cada vez más digitalizados. Por supuesto, no se trata para nada de algo nuevo, pero sí de un asunto que puede cobrear mayor relevancia de forma progresiva. No ya por las manipulaciones políticas o de quien sea que se lleven a cabo intencionadamente, sino por otra cuestión relevante: la IA. 

¿Son herramientas de inteligencia artificial una fuente de fake news? Esa es la pregunta que han intentado responder distintos expertos, y que ha dado como resultado un nuevo estudio. Las conclusiones a las que este último ha llegado no son precisamente tranquilizadoras, sino más bien lo contrario. La IA no solo genera información falsa, sino que esta se ha duplicado en solo un año. 

La inteligencia artificial y el problema de la información falsa 

Un informe exclusivo de NewsGuard, compartido recientemente por el medio Axios, es bastante contundente al respecto. Según ellos, la frecuencia con la que los chatbots de inteligencia artificial más conocidos (como ChatGPT, Claude y demás) generan información falsa es el doble que el año pasado. En solo doce meses, han pasado de un 18% a un ya más significativo 35%.

Por supuesto, nada indica que este porcentaje no continúe creciendo durante los próximos meses. La razón por la que el estudio piensa que este aumento se ha llevado a cabo tiene que ver con las recientes actualizaciones que muchos chatbots han experimentado recientemente. Aunque en algunos aspectos pueden ser valiosas, la IA se ha vuelto más “mentirosa” que nunca. 

Geoffrey Hinton

Es verdad que se puede apreciar que estos chatbots responden por lo general a más tipos de preguntas. Es decir, que los usuarios se encuentran con menos rechazos. Además, hay otro aspecto fundamental: ahora la mayoría de herramientas de inteligencia artificial tienen acceso a Internet en tiempo real. Un Internet que, conviene recordar, cada vez cuenta con más contenido creado con IA. 

NewsGuard ha empleado su herramienta AI False Claims Monitor junto a la base de datos de “False Claim Fingerprints” para intentar dejar en evidencia a la IA. Y lo cierto es que lo ha conseguido en gran medida. No es que esta tecnología pretenda engañar o manipular, como algunos dicen que hará en el futuro, sino que simplemente se equivoca. Cada vez más.

¿Qué es real en el mundo de hoy?

Hay que tener presente que, como da a entender el estudio de NewsGuard, vivimos en una sociedad terriblemente saturada de información. Da igual que esta sea buena, mala o regular: hay muchísima. Distinguir entre la información real y la información falsa no es sencillo. Por lo que la inteligencia artificial puede ser rotunda y dar como verdad algo que no lo sea en absoluto. 

Si a todo esto se le suma, igualmente, que cada vez más gente emplea ChatGPT o alternativas similares como buscador, a lo “Google”, la amenaza de terminar sin saber cuándo algo es verdad y cuándo no va a resultar cada vez mayor. Como si no lo fuese ya lo suficiente. 

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial

¿Tú qué opinas? Cuéntalo aquí:

Hot this week

Accidente ‘Jevy’ en la 6 de Noviembre: Tres Vidas Perdidas en San Cristóbal

¡Qué vaina más dura la que pasó en la...

‘Tremendo Lío’: Se Entrega Implicado en Muerte de Boricua en Santiago

¡Qué 'vaina'! El Palacio de Justicia de Santiago fue...

P2P Protocol suelta su ‘SDK’: ¿El fin de la ‘Mojiganga’ en pagos cripto?

¡Klk, gente! La 'vaina' de P2P Protocol acaba de...

Visa se mete en el ‘coro’ de Tempo: ¡Blockchain ‘jevi’ para los pagos!

¡Atención, mi gente! Visa, el gigante que nos tiene...

Visa se monta en la ‘guagua’ de Tempo: ¡Pagos blockchain de una vez!

Visa, un peso pesado en los pagos digitales, se...

Temas

spot_img

Related Articles

Categorias Populares

spot_imgspot_img