La información falsa es uno de los problemas a los que se enfrenta la sociedad en los tiempos que corren, cada vez más digitalizados. Por supuesto, no se trata para nada de algo nuevo, pero sí de un asunto que puede cobrear mayor relevancia de forma progresiva. No ya por las manipulaciones políticas o de quien sea que se lleven a cabo intencionadamente, sino por otra cuestión relevante: la IA.
¿Son herramientas de inteligencia artificial una fuente de fake news? Esa es la pregunta que han intentado responder distintos expertos, y que ha dado como resultado un nuevo estudio. Las conclusiones a las que este último ha llegado no son precisamente tranquilizadoras, sino más bien lo contrario. La IA no solo genera información falsa, sino que esta se ha duplicado en solo un año.
La inteligencia artificial y el problema de la información falsa
Un informe exclusivo de NewsGuard, compartido recientemente por el medio Axios, es bastante contundente al respecto. Según ellos, la frecuencia con la que los chatbots de inteligencia artificial más conocidos (como ChatGPT, Claude y demás) generan información falsa es el doble que el año pasado. En solo doce meses, han pasado de un 18% a un ya más significativo 35%.
Por supuesto, nada indica que este porcentaje no continúe creciendo durante los próximos meses. La razón por la que el estudio piensa que este aumento se ha llevado a cabo tiene que ver con las recientes actualizaciones que muchos chatbots han experimentado recientemente. Aunque en algunos aspectos pueden ser valiosas, la IA se ha vuelto más “mentirosa” que nunca.
Es verdad que se puede apreciar que estos chatbots responden por lo general a más tipos de preguntas. Es decir, que los usuarios se encuentran con menos rechazos. Además, hay otro aspecto fundamental: ahora la mayoría de herramientas de inteligencia artificial tienen acceso a Internet en tiempo real. Un Internet que, conviene recordar, cada vez cuenta con más contenido creado con IA.
NewsGuard ha empleado su herramienta AI False Claims Monitor junto a la base de datos de “False Claim Fingerprints” para intentar dejar en evidencia a la IA. Y lo cierto es que lo ha conseguido en gran medida. No es que esta tecnología pretenda engañar o manipular, como algunos dicen que hará en el futuro, sino que simplemente se equivoca. Cada vez más.
¿Qué es real en el mundo de hoy?
Hay que tener presente que, como da a entender el estudio de NewsGuard, vivimos en una sociedad terriblemente saturada de información. Da igual que esta sea buena, mala o regular: hay muchísima. Distinguir entre la información real y la información falsa no es sencillo. Por lo que la inteligencia artificial puede ser rotunda y dar como verdad algo que no lo sea en absoluto.
Si a todo esto se le suma, igualmente, que cada vez más gente emplea ChatGPT o alternativas similares como buscador, a lo “Google”, la amenaza de terminar sin saber cuándo algo es verdad y cuándo no va a resultar cada vez mayor. Como si no lo fuese ya lo suficiente.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial





